was bedeutet "Nationalsozialismus" eigentlich?
Der Nationalsozialismus ist eine radikal antisemitische, antimarxistische und antidemokratische Weltanschauung und politische Bewegung, die in Deutschland nach dem Ersten Weltkrieg entstand.
Seine in der Nationalsozialistischen Deutschen Arbeiterpartei (NSDAP) organisierten Anhänger gelangten unter Adolf Hitler 1933 zur Herrschaft und errichteten eine totalitäre Diktatur, den ?Führerstaat? bzw. das ?Dritte Reich?.
Sie vollzogen seit 1939 die Eroberungskriege, die den Zweiten Weltkrieg auslösten, und die Verbrechen des Holocaust.
Ihre Herrschaft endete mit der bedingungslosen Kapitulation der Wehrmacht am 8. Mai 1945.