Durante los años 30, las películas que se realizaron en Hollywood se preocuparon más que nada por exaltar la fantasía, por lo que otro sector se encargó de darle al cine un toque de seriedad y realismo. Así es como nace el cine arte.