Un mito inventato da Hollywood: il Far West così come lo immaginiamo non è mai esistito
Il West, ossia il territorio occidentale degli USA, fu progressivamente conquistato nell’800. Il genere western, nato tra teatro e letteratura, idealizzò questa conquista, rappresentandola come un mondo di cowboy e pistoleri, il cinema ne fu un’espressione chiave. Tuttavia la realtà è diversa.Continua a leggere


Il West, ossia il territorio occidentale degli USA, fu progressivamente conquistato nell’800. Il genere western, nato tra teatro e letteratura, idealizzò questa conquista, rappresentandola come un mondo di cowboy e pistoleri, il cinema ne fu un’espressione chiave. Tuttavia la realtà è diversa.
Continua a leggere