Les hommes se sentent plus beaux dès qu'ils deviennent pères.

Une récente étude américaine révèle que les hommes se sentent plus beaux et ont plus confiance en eux dès qu'ils deviennent pères.
Cette étude à été menée auprès de 200 hommes. « Pour un homme, le fait d’avoir un enfant est une preuve physique de leur virilité. Il est donc normal que cela booste leur ego et que cela renforce leur estime de soi » explique le Dr Alicia Cast, de l’Université de Californie.
Alors que « les femmes ont répondu qu’elles avaient du mal à s’habituer aux modifications de leur corps après la naissance et elles sont très critiques vis-à-vis de leur apparence, les hommes ont le sentiment d’avoir fait la preuve de leur masculinité et se sentent plus attractifs » ajoute ce professeur.