Wann wurde Deutschland ein Land?

Deutschland vereinigte sich 1871 als Deutsches Reich, das von den Preußen gegründet wurde. Während sich die Grenzen Deutschlands im Laufe der Jahre änderten, blieb das Land abgesehen von der Spaltung zwischen Ostdeutschland und Westdeutschland nach dem Zweiten Weltkrieg.

Bevor Deutschland ein einziges Land wurde, war sein Land auf verschiedene kleinere Nationen und Imperien aufgeteilt. Viele der in diesen Gebieten lebenden Menschen identifizierten sich jedoch als Deutsche, und diese Einheit half der neuen Nation in ihren Anfangsjahren, zu gedeihen. Deutschlands junges Alter führte zu Spannungen mit den älteren Nationen Europas, einschließlich Frankreich und England, und es führte zu einer Reihe von Konflikten, die schließlich zum Ersten Weltkrieg führten.