Far West
« Far West » défini et expliqué aux enfants par les enfants.
Le Far West est le nom que l'on donnait autrefois aux territoires de l'ouest des États-Unis, vers la fin du XIXe siècle. Cela désignait généralement toute la région qui se trouvait entre le fleuve du Mississippi et l'océan Pacifique.
Les territoires du Far West sont d'immense espaces, souvent arides. C'était d'abord la terre des Indiens, et puis des cow-boys, mais aussi des déserts, des cactus et des canyons de roches rouges.
À compléter...