Montag, 22. Juni 2009

Das Junge Deutschland - Definition

Das Junge Deutschland ist der Name für eine literarische Bewegung (Autorengruppe) junger, liberal gesinnter Dichter in der Zeit des Vormärz, die etwa ab 1830, beflügelt von der Julirevolution in Frankreich, publizistisch aktiv wurden und deren Schriften 1835 auf Beschluss des Deutschen Bundestags verboten wurden.

Keine Kommentare:

Kommentar veröffentlichen