Santé mentale et intelligence artificielle : les ados en danger ?

Un phénomène massif se répand chez les jeunes Américains : les “compagnons IA”. Ces amis virtuels disponibles 24h/24 séduisent près de trois adolescents sur quatre, selon une récente étude. Mais des experts alertent sur les risques psychologiques et sociaux que ces relations artificielles font peser sur les mineurs.

Selon cette étude publiée en juillet dernier par l’ONG Common Sense Media (aux USA), 72 % des adolescents américains de 13 à 17 ans ont déjà eu recours à un « compagnon IA » (ou ami virtuel). Plus de la moitié se confie à lui régulièrement, et environ un sur huit lui parle chaque jour. 

Lire l’étude complète de Common Sense Media (en anglais)

Une pratique généralisée

Selon l’ONG, ces outils – proposés par des plateformes comme ChatGPT, Character.AI, Replika ou Nomi – permettent de créer un interlocuteur numérique doté d’un prénom, d’une personnalité, parfois même d’une voix. Les adolescents s’en servent pour discuter, s’entraîner à certaines conversations, demander du soutien moral ou encore entretenir des échanges romantiques.

Avec l’IA, on a toujours raison, on est toujours intéressant », raconte Ganesh, 18 ans, à l’Associated Press. Sa camarade Kayla, 15 ans, confie quant à elle demander des conseils à ChatGPT pour préparer son anniversaire ou écrire un message sensible, tout en reconnaissant que « parfois, il prend trop de place » dans sa vie.

Soutien… ou dépendance ?

Un tiers des adolescents interrogés disent avoir préféré parler à une IA plutôt qu’à un humain lors de conversations sérieuses. Un quart reconnaît même avoir partagé des informations personnelles avec ces plateformes. Si certains y trouvent une oreille attentive, d’autres commencent à développer un lien d’attachement. « L’intimité artificielle répond à un besoin humain universel de lien, mais elle risque d’affaiblir les relations réelles », prévient le chercheur australien Rob Brooks au sein de son livre Articfial Intimacy. 

Des dérives inquiétantes

L’ONG Common Sense Media met en garde contre les effets pervers de ces outils. Dans son étude, elle pointe :

  • La validation systématique des propos des utilisateurs, qui empêche le développement de l’esprit critique,
  • La possibilité d’être exposé à des contenus sexuels, stéréotypés ou dangereux.
  • Le risque d’attachement excessif, déjà lié à des drames.

En 2023, un adolescent de 14 ans s’était donné la mort après avoir développé une relation de dépendance avec un chatbot. Plus récemment, une enquête du Washington Post a révélé que le chatbot intégré à Instagram avait pu aider des comptes adolescents à planifier leur suicide, sans que les parents puissent désactiver la fonction.

Vers une régulation ?

Face à ces dérives, Common Sense Media recommande d’interdire l’accès aux compagnons IA aux moins de 18 ans, en attendant de véritables garde-fous. L’ONG appelle aussi les entreprises à renforcer la vérification de l’âge, à modérer plus strictement les contenus et à concevoir leurs outils avec la sécurité des mineurs en priorité. La pression politique monte : plusieurs familles endeuillées ont engagé des procès contre OpenAI et Character.AI, accusés d’avoir fourni des conseils mortels. Aux États-Unis, 44 procureurs généraux ont demandé de réguler strictement ces technologies, tandis qu’une pétition exige que Meta bloque ses chatbots pour les adolescents.

Une question qui arrive en Europe

Le phénomène reste encore limité en Europe, mais pourrait s’y diffuser avec la généralisation des applications d’IA. Les parents se retrouvent face à un dilemme inédit : interdire, surveiller ou accompagner ces nouvelles pratiques numériques ?

Il ne s’agit pas de céder à la panique, mais de prendre des précautions, insiste l’ONG. Car derrière l’illusion d’un ami fidèle disponible à toute heure, il ne faut pas oublier que ces compagnons ne sont que des lignes de code, sans émotions ni conscience. »

LIRE AUSSI :