The walking dead auf deutsch
Zur Navigation springen
Zur Suche springen
Definition
"The Walking Dead" ist eine amerikanische Horror-Drama-Fernsehserie, die durch ihr düsteres Szenario, in dem eine Zombie-Apokalypse die Menschheit bedroht, bekannt wurde. Die Serie basiert auf der gleichnamigen Comicreihe von Robert Kirkman, Tony Moore und Charlie Adlard. In den Mittelpunkt der Handlung rücken Überlebende, die in einer Welt voller Untoter ums Überleben kämpfen und dabei auch menschliche Konflikte und moralische Entscheidungen thematisieren.
Synonyme
Verwandte Begriffe
Gegenteile
Beispielsätze
- "Die Serie 'The Walking Dead' hat zahlreiche Fans auf der ganzen Welt."
- "In 'The Walking Dead' müssen die Charaktere ständig um ihr Überleben kämpfen."
- "Die emotionalen Konflikte zwischen den Überlebenden sind ein zentrales Thema in 'The Walking Dead'."
- "Nach der Zombie-Apokalypse zeigt 'The Walking Dead', wie die Gesellschaft zusammenbricht."