Hola, soy de Argentina, y tengo muchas amigas españolas que han venido a argentina y otras que son de aca y se han ido a vivir allá. Ellas me han contado (sobre todo las que se han ido) que allá los hombres están acostumbrados a pegarles a las mujeres. En Argentina eso es un delito grave, y yo tengo una amiga que quiere irse a vivir allá y quiero saber si eso es cierto, si sucede solo con algunos hombres o con la mayoría.
Por favor, no quiero que los españoles lo tomen a mal, es sólo lo que me comentaron y quiero saber si es cierto porque quiero cuidar a mi amiga ya que ella tiene una forma de ser muy especial. No se enojen, no busco discriminar, si lo que me han dicho es mentira diganmelo.
2007-01-20
01:56:04
·
18 respuestas
·
pregunta de
Pablito
1
en
Otros - Sociedad y cultura