Wort nazi

Aus Was bedeutet? Wiki
Zur Navigation springen Zur Suche springen


Definition

Das Wort "Nazi" bezeichnet eine Person, die der Nationalsozialistischen Deutschen Arbeiterpartei (NSDAP) angehörte oder deren Ideologie vertritt. Der Begriff ist oft mit der Herrschaft Adolf Hitlers zwischen 1933 und 1945 sowie mit den damit verbundenen Verbrechen gegen die Menschlichkeit verbunden.

Synonyme

Verwandte Begriffe

Gegenteile

Beispielsätze

  • Er bezeichnete sich selbst als Nazi und zeigte damit seine extremen politischen Ansichten.
  • In der Schule diskutierten die Schüler über die Verbrechen, die unter dem Nazi-Regime geschehen sind.
  • Die Gesellschaft hat sich entschieden, gegen jede Form von Nazi-Ideologie aktiv zu kämpfen.
  • Filme über den Zweiten Weltkrieg thematisieren oft die Gräueltaten, die von Nazis verübt wurden.