Deutsche Kolonien

Deutsche Kolonien

Die Kolonialpolitik Deutschlands fand mit dem Ersten Weltkrieg ein rasches Ende. Doch die Sehnsucht nach den Kolonien lebte weiter. Kolonialausstellungen, Völkerschauen und Spielfilme zielten auf die nostalgische Verklärung der deutschen Kolonialzeit. Die Nazis forderten die Rückgabe der Kolonien. Doch 1943 gab Hitler seine Pläne für Afrika auf.
Ein Rückblick auf die deutsche Kolonialgeschichte.

Bewertung

0,0   0 Stimmen