industria cinematográfica | Vistazo

¿Hollywood realmente es racista y discriminatorio?

El cine hollywoodense sigue ampliamente dominado por hombres blancos, según una investigación.

El cine hollywoodense sigue ampliamente dominado por hombres blancos, lejos de la realidad de la sociedad estadounidense, según una investigación.