Comment les États-Unis ont conquis leur territoire au XIXe siècle
GRAND RÉCIT - Dès l'indépendance acquise en 1776 et jusqu'à la fin du XIXe siècle, les Etats-Unis concentrèrent leur énergie à étendre et à sanctuariser leur territoire. Avant de chercher à exporter leur modèle et de se confronter au reste du monde.