Una nación cimentada en el odio, la codicia y el despojo; un país construido sobre los cadáveres de aquellos que solamente defendían lo que era suyo. El western, desde su nacimiento, fue visto como el estandarte del cine estadounidense por mucho tiempo; películas que enaltecían la valentía del hombre blanco y su determinación para conquistar