Significado de Antropofagia

Antropofagia é um termo que tem suas raízes na língua grega e significa comer carne humana. No entanto, na cultura e na literatura do Brasil, o termo adquiriu um significado mais amplo e simbólico, referindo-se ao ato de absorver e transformar diferentes influências culturais, sem ser subjugado por elas. Esse conceito foi popularizado pelo movimento modernista brasileiro nos anos 1920, que via a devoração de diferentes culturas como uma forma de resistência à opressão cultural europeia. A antropofagia, nesse sentido, representa uma forma de afirmação da identidade e da singularidade do povo brasileiro, que absorve e transforma diversas influências e as torna parte de sua própria cultura.

Compartilhar: