En mi opinión, el feminismo fue lo peor que nos pudo haber pasado a las mujeres.

En lugar de proporcionar igualdad entre los sexos, el feminismo terminó por agrandar la lista de responsabilidades y exigencias que la sociedad adjudica al "sexo frágil" - pero sin liberarnos de los viejos prejuicios.

Este cambio de roles hace con que las mujeres estemos cada vez más "masculinizadas" y los hombres cada vez más atemorizados!

Ser independientes no significa abrir mano de aquellas características que nos definen: femeninas, intuitivas, cariñosas, sensibles, comprensivas en fin, mujeres!


Videos: Será eso lo que ellos quieren?