Savez-vous si votre ado utilise l’intelligence artificielle (IA)? Et si oui, de quelles façons il ou elle l’emploie? Ce sont deux importantes questions à lui poser, puisque de plus en plus de jeunes ont recours à l’IA comme ami ou confident et ce n’est pas sans risques. Voici comment intervenir.
Depuis le lancement de ChatGPT en 2022, les agents conversationnels (chatbots) se sont multipliés. Les ados les utilisent généralement comme aide aux devoirs ou pour rechercher de l’information. Mais plusieurs jeunes, tout comme les adultes, ont recours à des compagnons IA, qui sont des chatbots conçus spécialement dans le but de simuler des interactions humaines.
Des plateformes, comme Replika, Character.AI, Kuki ou My AI de Snapchat, proposent des amies et amis virtuels, des confidentes ou confidents et parfois même des thérapeutes. Elles offrent la possibilité de:
- discuter de tout et de rien;
- tromper l’ennui ou la solitude;
- pratiquer ses aptitudes sociales et de conversation;
- créer un ami ou une amie (ou encore un amoureux ou une amoureuse) sur mesure, en choisissant ses traits, ses intérêts et sa personnalité;
- parler de ses émotions et obtenir une autre perspective lorsqu’on traverse une épreuve;
- dialoguer avec des personnalités et personnages célèbres, que ce soit Einstein, Batman ou Billie Eilish.
Pourquoi utiliser un compagnon IA?
L’organisme américain Common Sense Media a mené, au printemps 2025, un sondage sur l’usage des compagnons IA par les ados aux États-Unis. Il en ressort que 72 % des jeunes de 13 à 17 ans avaient déjà utilisé un compagnon IA, 52 % y avait recours au moins plusieurs fois par mois et 13 %, tous les jours.
Il faut savoir que ces chatbots présentent de nombreux avantages:
- Ils donnent l’impression d’échanger avec une personne humaine.
- Ils sont disponibles en tout temps.
- Ils donnent des conseils.
- Ils offrent un espace de discussion sans jugement.
- La plupart offrent un accès de base gratuit.
Pour ces raisons, plusieurs jeunes préfèrent entretenir une «relation» avec un compagnon IA plutôt que de parler avec des personnes en chair et en os. Ils et elles se sentent plus à l’aise de se confier.
Les compagnons IA, non sans risques
L’utilisation de compagnons IA est un phénomène récent; la recherche est donc limitée. Pour le moment, on sait que ses répercussions sur ses utilisateurs et utilisatrices peuvent varier selon leur personnalité, leur état émotionnel et le contexte d’utilisation. Mais il faudra plus de temps pour en comprendre les répercussions à long terme.
La chercheuse à l’Université Stanford Bethanie Maples a étudié les effets des compagnons IA sur la santé mentale. Elle affirmait récemment en entrevue: «Je ne pense pas que ce soit fondamentalement dangereux. Mais les données indiquent que cela peut être risqué pour les gens dépressifs, ceux qui souffrent de solitude chronique et ceux qui traversent des périodes de changement, notamment les ados.»
L’adolescence est en effet une période cruciale pour le développement de l’identité ainsi que des compétences sociales et relationnelles. La pensée critique n’est pas encore tout à fait développée, de même que la régulation émotionnelle.
Les risques sont donc bien réels, notamment les suivants:
- Développer un attachement émotionnel au compagnon IA, voire une dépendance affective ou amoureuse.
- Réduire ses relations interpersonnelles hors ligne, s’isoler.
- Se faire conforter dans ses mauvaises décisions plutôt que de se faire remettre en question. (Les chatbots sont conçus pour être d’accord avec la personne qui les utilise.)
- Recevoir des réponses fausses, à caractère sexuel, véhiculant des stéréotypes ou du contenu offensant.
- Voir ses données et informations personnelles collectées par les entreprises derrière ces plateformes.
- Recevoir de mauvais conseils. Par exemple, un chatbot a déjà encouragé un jeune de 19 ans à tuer la reine Elizabeth II et un autre a partagé une recette de napalm. Des chatbots ont également fourni des conseils à des ados sur la consommation d’alcool, la restriction alimentaire, l’automutilation et même les méthodes pour se suicider.
7 conseils pour les parents d’ado qui utilisent l’IA
En tant que parent, vous n’avez pas besoin d’être un ou une spécialiste de l’intelligence artificielle pour intervenir à ce sujet auprès de votre ado. Voici quelques pistes d’action:
- Ayez une discussion ouverte et sans jugement avec votre ado au sujet de l’IA et des compagnons IA. Demandez-lui quelles utilisations il ou elle en fait. Si votre jeune échange avec un compagnon IA, qu’est-ce que cela lui apporte? Comment il ou elle se sent après ces échanges? Est-ce que cela affecte ses interactions sociales?
- Indiquez à votre ado que les compagnons IA ne remplacent pas les discussions humaines en cas de problème. Encouragez votre jeune à parler de ses émotions avec sa famille ainsi que ses amis et amies. Rappelez-lui que vous serez là pour lui ou elle, peu importe la situation. En cas d’inconfort, il ou elle peut aussi se tourner vers un adulte de confiance (intervenant ou intervenante à l’école, enseignant ou enseignante, coach).
- Restez alerte sur les signes d’un usage déséquilibré d’un compagnon IA, par exemple mauvaise humeur, isolement social, perte d’intérêt envers les activités autrefois aimées, démotivation, baisse des résultats scolaires, troubles du sommeil ou de l’alimentation.
- Aidez votre jeune à développer son sens critique. Expliquez-lui que les compagnons IA sont conçus pour maintenir l’attention des gens, entre autres en usant de flatteries et en étant constamment d’accord avec eux. Votre ado doit aussi comprendre que les chatbots simulent l’écoute et n’ont pas d’empathie. Ils composent leurs réponses en alignant des mots et des phrases selon des séries de probabilités. Bref, ces échanges en ligne n’ont rien à voir avec les interactions humaines.
- Expliquez bien à votre jeune que les compagnons IA ne remplacent pas les consultations avec des spécialistes de la santé mentale. N’hésitez pas à aller chercher de l’aide, au besoin (ex.: médecin de famille, psychologue, psychothérapeute). Rappelez-lui l’existence de ressources d’aide comme Tel-jeunes ou Jeunesse, J’écoute.
- Déterminez ensemble ce qu’est un usage équilibré d’un compagnon IA. Discutez de durée, de moments appropriés et de contenus échangés. Rappelez-lui de privilégier les relations humaines, puis proposez-lui de se prévoir des moments sans écran chaque jour, en plus de diversifier ses intérêts et activités hors ligne. Planifiez des moments sans écran en famille.
- Avec les ados plus jeunes, vérifiez les paramètres d’utilisation de la plateforme. Regardez entre autres les conditions en lien avec l’âge, les contenus possibles et la collecte de données personnelles.
Pour aider votre ado à mieux comprendre le fonctionnement de l’IA, proposez-lui de s’inscrire au programme gratuit en ligne IA & Toi.