Schlagwort: Kolonialismus

Postkolonialität verstehen

Postkolonialität klingt erstmal nach Uni-Seminar, ist aber leicht erklärt: Kolonialismus heißt Länder erobern, Menschen unterdrücken und Natur ausbeuten. Postkolonialität bedeutet: All das wirkt bis heute weiter. Wir erklären dir, wie.

WEITERLESEN