Jetzt mit 1500 Artikeln von Aal bis Zypern in besonders einfacher Sprache.

Deutsche Kolonien

Aus MiniKlexikon - das Kinderlexikon für Leseanfänger
Diese Weltkarte soll zeigen, wie es im Jahr 1914 aussah.
In dunkel-blau sieht man das Deutsche Reich.
Die deutschen Kolonien sind in einem helleren blau.

Deutsche Kolonien waren Gebiete, die das Deutsche Kaiser-Reich außer-halb Europas besaß.
Die größten lagen in Afrika, einige kleinere auch in Asien und Ozeanien.

Als erstes wurde der Insel-Staat Samoa im Jahr 1900 zu einer deutschen Kolonie.
In den Jahren danach sicherte sich Deutschland große Gebiete in Afrika, für die sich die anderen Kolonial-Mächte bis dahin nicht interessierten.

Um die Gebiete in Besitz zu nehmen, wurde oft ein Vertrag mit einem einheimischen Häuptling geschlossen.
Die Deutschen gaben ihm Geld, Schmuck oder Waffen und versprachen, dass deutsches Militär die Eingeborenen beschützen würde.
Bei den Verträgen wurden die Häuptlinge aber manchmal ausgetrickst.
Oder die Häuptlinge haben die Verträge nicht richtig verstanden.

Die Deutschen errichteten an den Küsten kleine Städte, um Handel zu treiben.
Im Landesinneren bauten sie Rohstoffe ab, die dann über die Häfen mit Schiffen nach Deutschland gebracht wurden.
Dazu gehörte Dinge wie Baumwolle, Palmöl, Kakao, Kaffee und Bananen.

In den Kolonien lebten nur wenige Deutsche und andere Europäer.
Die Einheimischen waren viel mehr Menschen, sie hatten aber kaum Rechte.
Manche Einheimische wurden zu Sklaven gemacht, die mit Gewalt zur Arbeit gezwungen wurden.

Im Jahr 1904 wehrten sich in Namibia die Einheimischen aus den Völkern Herero und Nama gegen die Deutschen Siedler.
Denn die haben ihnen ihr Land wegnahmen und sie zur Arbeit gezwungen.
Deutschland schickte Soldaten, um den Aufstand mit Gewalt niederzuschlagen.
Die Soldaten brachten mehr als die Hälfte der Herero und Nama um.
Viele flohen in die Wüste, wo sie verdursteten.
Heute weiß man, dass dies ein Völker-Mord war, so wie später der Holocaust.
Es gab damals auch schon Konzentrations-Lager.

Nach dem Ersten Weltkrieg musste Deutschland alle seine Kolonien an andere Mächte abgeben.
Einige wurden aber schon früher aufgegeben, andere wurden auch im Krieg von anderen Ländern besetzt.

Heutige Wissenschaftler denken sehr schlecht über die deutsche Kolonialzeit.
Die Einheimischen wurden von den Deutschen als Menschen zweiter Klasse behandelt.
Auch begingen die Deutschen an ihnen viele Verbrechen.



Der Text zu „Deutsche Kolonien“ ist noch ein Entwurf. Er entsteht also gerade noch.