Mejores Peliculas Americanas
Hollywood es la Meca del cine. Ésa es una expresión que escuchamos constantemente y, a decir verdad, hay muchas razones para creerla cierta: ahí se encuentran los estudios cinematográficos más importantes del mundo, los actores y directores más reconocidos han salido de sus canteras, y en ningún otro lugar han sabido explotar mejor las bondades comerciales y artísticas que ofrece el séptimo arte como en el país del Tío Sam.