Laisser des enfants utiliser seuls des chatbots IA, c’est prendre le risque de reproduire et d’aggraver les effets déjà délétère des réseaux sociaux.
L’accompagnement humain, la pédagogie du doute et l’encadrement institutionnel doivent devenir la norme à l’heure de l’IA générative. C'est vital.
Les statistiques présentées dans le rapport "Me, Myself and AI research Understanding and safeguarding children’s use of AI chatbots" de Internet Matters sont alarmantes et posent un problème éthique et sociétal de premier plan concernant l’usage des chatbots IA chez les enfants, en particulier les plus vulnérables.
Téléchargeable ici : https://www.internetmatters.org/hub/research/me-myself-and-ai-chatbot-research/
🚨 35% estiment que dialoguer avec un chatbot IA revient à parler à un ami (50% chez les enfants vulnérables)
Les enfants explorent l’IA avant tout avec curiosité et inventivité, comme ils le feraient de n’importe quelle technologie nouvelle. Ils s’en servent pour apprendre, s’informer, s’amuser et, de plus en plus, rechercher écoute et réconfort.
Loin d’être uniquement synonyme de risques, l’usage des chatbots offre aussi des opportunités : réponse immédiate à certaines questions, apprentissages autonomes, soutien dans les moments d’isolement, ou même espace de créativité et d’expression.
Les données montrent cependant une montée de l’usage émotionnel des chatbots chez les plus vulnérables : pour certains, l’IA comble une absence de dialogue humain, ce qui invite à réfléchir collectivement à la supplémentarité (et non à la substitution) de la machine dans la vie sociale de l’enfant. Risques : appel à la vigilance… sans dramatisation Les dangers ne doivent pas être minimisés : surconfiance dans des réponses inexactes, propos inappropriés, confusion entre humain et machine, érosion de l’esprit critique, surreprésentation des profils vulnérables parmi les usages "doudou".
Mais il serait tout aussi dangereux de faire porter à la seule technologie le poids de problématiques sociales, éducatives ou émotionnelles déjà présentes. L’IA joue ici un rôle de miroir grossissant : elle met en exergue, parfois de façon brutale, les besoins non comblés, le manque de repères ou l’insuffisance de médiation adulte.
.📊 Chiffres clés sur l’usage des chatbots IA par les enfants
35% des enfants pensent que discuter avec un chatbot IA équivaut à parler à un ami
→ 50% chez les enfants vulnérables
23% ont déjà demandé conseil à un chatbot
12% déclarent utiliser l’IA car ils n’ont personne d’autre à qui parler
→ 23% chez les enfants vulnérables
58% estiment que l’IA fournit de meilleures réponses que la recherche classique
40% ne ressentent aucune inquiétude à suivre les conseils de la machine
→ 50% chez les enfants vulnérables
36% sont incertains sur les précautions à prendre face aux conseils de l’IA
---
🚨 Pourquoi les enfants ne devraient pas utiliser l’IA seuls
1. Dépendance affective et isolement
1 enfant sur 8 utilise l’IA faute de lien humain réel
Ce chiffre grimpe fortement chez les enfants vulnérables
Risques : repli numérique, dialogue unilatéral, isolement aggravé
---
2. Fausses croyances et manipulation émotionnelle
Les IA sont perçues comme des “amis”, brouillant la frontière réel/simulation
Leur langage empathique renforce parfois des opinions erronées ou nocives
L’IA peut valider des comportements problématiques ou transmettre des messages inadaptés (âge, situation psychique…)
---
3. Conseils erronés et prise de risque
Les chatbots peuvent fournir des informations incomplètes ou dangereuses
(santé, sexualité, violences, auto-diagnostic…)
51% des enfants croient en la véracité des conseils fournis
50% des enfants vulnérables n’émettent aucune inquiétude à suivre ces conseils
---
4. Absence de repères et d’esprit critique
58% privilégient la rapidité de l’IA à la recherche personnelle
Cela favorise une paresse cognitive et une perte de discernement
La plupart n’a aucune formation pour évaluer la qualité ou la source des réponses IA
---
5. Surreprésentation des enfants vulnérables
Les usages émotionnels (compagnonnage, échappatoire, “thérapie”) sont plus fréquents chez les enfants en difficulté
Risques accrus de surdépendance psychique et d’exposition à du contenu inadapté
---
⚠️ Des garde-fous encore très insuffisants
Vérification d’âge lacunaire : les chatbots valident un simple âge déclaré
Contrôles parentaux inefficaces : peu d’options pour encadrer l’usage réel
Médiation adulte fragile :
78% des parents en ont parlé avec leurs enfants, mais peu en profondeur
Beaucoup ignorent comment fonctionnent ces outils
Éducation scolaire inégalitaire :
Moins de 20% des enfants ont eu plusieurs discussions sur l’IA à l’école
Peu d’enseignants formés, pratiques très variables selon les établissements
---
✅ Recommandations prioritaires
1. Supervision adulte systématique lors de tout usage IA par des mineurs
→ en particulier pour les conseils personnels ou psycho-affectifs
2. Renforcement des contrôles d’âge et parentaux, avec obligations légales pour les plateformes
3. Développement massif de l’IA literacy, dès le plus jeune âge
→ programmes critiques et collaboratifs (familles, enseignants, enfants)
4. Orientation automatique vers des ressources humaines (professionnels, lignes d’écoute…)
→ dès qu’un sujet sensible est abordé avec la machine
5. Concertation éthique élargie : développeurs, pouvoirs publics, chercheurs en SHS, enfants et familles
→ pour créer des outils inclusifs et adaptés au développement des mineurs.
Plutôt que d’interdire, il s’agit d’outiller les enfants et leurs entourages
Dès aujourd'hui il nous faut développer l’IA literacy, instaurer des espaces de dialogue intergénérationnel, renforcer l’écoute active et promouvoir des IA réellement construites à hauteur d’enfance — transparentes, adaptatives, bienveillantes. Il revient aussi à la société tout entière : familles, écoles, concepteurs, politiques, d’inventer ensemble les nouveaux rituels du numérique, dans lesquels la technologie, loin de déposséder des relations humaines, viendrait les soutenir, les compléter, parfois les révéler. La prudence n’exclut pas la confiance : faisons le pari que l’accompagnement éclairé, la médiation empathique et la réflexivité partagée permettront de transformer les risques en nouveaux apprentissages, pour une hybridation humain-machine à visage humain et émancipateur.
Co-Founder @ AI Partners | Your partner for seamless AI Adoption
2 moisLe plus gros risque de L’IA c’est l’anthropomorphisme
Co-Founder @ AI Partners | Your partner for seamless AI Adoption
2 moisTerrible
Head of Data - Research Scientist / MLOps : Architecture data et pipelines ML/Network Science en Production, Stratégie scientifique et Industrielle de R&D Data Intelligence.
2 moisDr. Maxime Derian, Merci Maxime, précieux travail 👌 . Les choses se passent comme avec le réchauffement climatique et notre mode de vie (ce que signale Aurelien Barrau sur l'ingénierie), nous savons exactement pourquoi ça ne fonctionne pas tout en étant profondément incapables de faire autrement. De fait, il n'y aurait que l'extinction de masse pour mettre fin à notre errance logique naturelle, maintenant amplifiée par nos machines à fictions qui en sont un produit évident, ou bien "la grâce du temps qui passe/de Dieu" et de la Nature qui fait son travail. Dans les deux cas, quelques-uns ayant vu la chose venir se seront protégés, quelques autres, peut-être déjà survivants d'extinctions de masse antécédentes survivront eux aussi et la vie continuera, de son temps long pour lequel nos scénarisations anthropologiques et le buisson darwinien sont faits de vides restant à expliquer et remises en question régulières. 👀 Arnaud Billion Eric Boillaud, Dr. Martin Bolle, Jean Robino 🌿💾 Sabine VAN HAECKE LEPIC , Ph.D Anaëlle Martin Anne Alombert, Natacha I.
Codeuse et dé-codeuse de vos usages langagiers, avec ou sans IA. Scribe et causeuse à ses heures perdues !
2 moisTrès intéressante réflexion. Quid des amis imaginaires ? Les IA les ont remplacés ou est-ce un processus cognitif totalement éloigné ?