Wer hat Japan kolonisiert?

Japan ist das einzige asiatische Land, das nie von einer der Westmächte kolonisiert wurde. Japan selbst begann Ende des 19. Jahrhunderts, ein Kolonialreich aufzubauen.

Das japanische Kolonialreich erstreckte sich über Ostasien und den Westpazifik. Zu den japanischen Kolonien gehörten die Kurilen, Taiwan und Korea. Die Japaner vermied ausländisches Eindringen und erlaubten den Chinesen und den Holländern jahrelang nur Handelsdepots auf ihrem Territorium. Sie beschlossen, den westlichen Handel so weit wie möglich einzuschränken, da sie sich der Auswirkungen des Außenhandels auf andere asiatische Länder wie China bewusst waren.