LA MAYORÍA DE LA SOCIEDAD comparte la idea de que las mujeres pueden y deben ejercer trabajos, profesiones y responsabilidades, históricamente reservados a los varones. De hecho, los avances sociales de las mujeres en nuestro país están fuera de toda duda: hay un importante incremento de la presencia femenina en el ámbito público, en el mercado laboral y en la participación política y social. No está tan claro, sin embargo, que esa mayoría social considere que los hombres deban realizar tareas de cuidados y, en la realidad, tenemos que considerar que las mujeres siguen siendo responsables de los cuidados familiares, ya que los hombres no han realizado los correspondientes avances en ese terreno.