Inicio > cultura woke
Noticias sobre cultura woke
La cultura "woke" ha emergido como un fenómeno social y político significativo en las últimas décadas, especialmente en el contexto de las luchas por la justicia social. Este término, que se deriva del inglés afroamericano y significa "despertar", se refiere a una conciencia crítica sobre las desigualdades y las injusticias que enfrentan diversas comunidades, particularmente en relación con la raza, el género y la sexualidad. Sin embargo, su creciente popularidad ha suscitado un intenso debate y críticas por parte de diversos líderes políticos y sectores de la sociedad.