J'ai l'impression que depuis quelques années, beaucoup de (jeunes) Francais ont changé considérablement d'opinion sur les Etats-Unis. Jusque-là considérés comme modèle culturel, scientifique et économique, ils sont dépréciés voire méprisés. J'ai bien sûr des idées sur les origines de ces sentiments anti-américains, mais n'étant pas Francaise, pourriez-vous m'expliquer vous-même si c'est vrai qu'on n'aime plus autant l'Amérique, depuis quand et pour quelles raisons?
Merci beaucoup!
2006-08-30
02:24:43
·
25 réponses
·
demandé par
Anonymous
dans
Societé et culture - Divers