Deutscher Krieg

Anzeige

Anzeige

Anzeige

Deutscher Krieg

Definition, Bedeutung

  • Der Deutsche Krieg von 1866 − ursprünglich als Preußisch-Deutscher Krieg bezeichnet − war die kriegerische Auseinandersetzung zwischen dem Deutschen Bund unter der Führung Österreichs einerseits und dem Königreich Preußen sowie dessen Verbündeten andererseits.
  • feindselige Haltung ohne Waffengewalt 

Anzeige

(Definition ergänzt von Johannes am 01.05.2019)
Sie finden weitere Ergebnisse im Bereich: Synonyme

Anzeige

Anzeige

Anzeige