📚 Qual o Significado da palavra Antropocentrismo?
Antropocentrismo é uma visão de mundo que coloca o ser humano como o centro e medida de todas as coisas, considerando-o superior a todas as outras formas de vida e ao meio ambiente. É uma postura que valoriza excessivamente a espécie humana em detrimento das demais, ignorando a interdependência e a interconexão entre os seres vivos e o planeta. O antropocentrismo é criticado por muitos estudiosos e ativistas ambientais, que defendem uma visão mais holística e equilibrada da relação entre o homem e a natureza.