Drittes Reich

Nach der Machtergreifung durch die Nationalsozialisten riefen sie das Dritte Reich in Deutschland aus. Es endete in der totalen Vernichtung.