📚 Qual o Significado da palavra Antropofagia?
Antropofagia é um termo que se refere ao ato de comer carne humana. No entanto, na cultura brasileira, o termo é mais conhecido como um movimento artístico e literário que surgiu na década de 1920, liderado por artistas como Oswald de Andrade e Tarsila do Amaral. O movimento propunha a ideia de "devorar" a cultura estrangeira e transformá-la em algo genuinamente brasileiro. A antropofagia cultural era vista como uma forma de resistência à colonização cultural e uma maneira de afirmar a identidade nacional.