Czy w XIX w. Stany Zjednoczone Ameryki rzeczywiście kolonizowały świat? Bo mnie się wydaje, że „tylko” mordowali Indian, a to trochę co innego niż kolonizacja.
Pozdrawiam
Myślenie nie boli! (Chyba, że…)
Panie Piotrze!
Czy w XIX w. Stany Zjednoczone Ameryki rzeczywiście kolonizowały świat? Bo mnie się wydaje, że „tylko” mordowali Indian, a to trochę co innego niż kolonizacja.
Pozdrawiam
Myślenie nie boli! (Chyba, że…)
Jerzy Maciejowski -- 25.05.2016 - 08:03