Postkolonialität verstehen
Postkolonialität klingt erstmal nach Uni-Seminar, ist aber leicht erklärt: Kolonialismus heißt Länder erobern, Menschen unterdrücken und Natur ausbeuten. Postkolonialität bedeutet: All das wirkt bis heute weiter. Wir erklären dir, wie.
WEITERLESEN