Vocês também acham que os homens pioram a sociedade?

São mais traíras, a maioria nos presídios, cometem mais crimes, abandonam os filhos, a gente não pode andar em paz na rua pq a maioria é sem noção. Homens tinham que ser melhor educados desde o berço! Enquanto isso mulheres são mais doces, inteligentes, belas, tem ternura... Empatia e respeito
anônima
anônima
anônimo
anônimo
23/01/2026 19h03

na real é o contrário, as mulheres que ajudaram a colocar os piores no poder,

ai o mundo começou a degringolar. A hibristofilia natural da mulher por assim dizer.