Montag, 22. Juni 2009
Das Junge Deutschland - Definition
Das Junge Deutschland ist der Name für eine literarische Bewegung (Autorengruppe) junger, liberal gesinnter Dichter in der Zeit des Vormärz, die etwa ab 1830, beflügelt von der Julirevolution in Frankreich, publizistisch aktiv wurden und deren Schriften 1835 auf Beschluss des Deutschen Bundestags verboten wurden.
Abonnieren
Kommentare zum Post (Atom)
Keine Kommentare:
Kommentar veröffentlichen