Deutscher Krieg
Anzeige
Anzeige
Anzeige
Deutscher Krieg
Definition, Bedeutung
- Der Deutsche Krieg von 1866 − ursprünglich als Preußisch-Deutscher Krieg bezeichnet − war die kriegerische Auseinandersetzung zwischen dem Deutschen Bund unter der Führung Österreichs einerseits und dem Königreich Preußen sowie dessen Verbündeten andererseits.
- feindselige Haltung ohne Waffengewalt
Anzeige
Sie finden weitere Ergebnisse im Bereich: Synonyme
Anzeige
Anzeige
Anzeige