Vereinigte Staaten

Anzeige

Anzeige

Anzeige

Vereinigte Staaten

Definition, Bedeutung

Die Vereinigten Staaten von Amerika (engl. United States of America, kurz USA), oder in der amtlichen Kurzform Vereinigte Staaten (engl. United States, kurz U.S.) - sind eine Bundesrepublik in Nordamerika, die (seit 1959) 50 Bundesstaaten umfasst. Mit dem Bundesstaat Hawaii und kleineren Außengebieten haben sie auch Anteil an Ozeanien.

Das Land umfasst etwa 40 % der Fläche Nordamerikas und ist der flächenmäßig drittgrößte Staat der Erde.

Die Vereinigten Staaten gingen aus den dreizehn britischen Kolonien hervor, die sich 1776 vom Mutterland unabhängig erklärten. Durch stete Immigration aus Europa, territoriale Expansion nach Westen und Industrialisierung gewannen die USA im 19. Jahrhundert rasch an weltpolitischem Einfluss. Am Ende des 20. Jahrhunderts waren die Vereinigten Staaten nach dem Sieg über den totalitären Faschismus und dem Zerfall der kommunistischen Sowjetunion die einzige verbliebene Weltmacht.

Anzeige

(Definition ergänzt von Anouk am 19.03.2019)
Sie finden weitere Ergebnisse im Bereich: Synonyme, Übersetzung

Anzeige

Anzeige

Anzeige