Inscrivez-vous à la newsletter et restez informé(e)!
Tous

Pourquoi un chatbot est plus qu’un simple ami intelligent 

3 septembre 2025

« Que peut-on faire avec l’IA et ne devrions-nous pas aussi avoir un chatbot ?» Telles sont les questions auxquelles les organisations sont de plus en plus confrontées chaque jour, y compris sur les réseaux sociaux. Nos enfants rencontrent également de plus en plus de « copains virtuels » qui répondent à leurs questions, donnent des conseils ou discutent simplement. Cela semble amusant et stimulant, mais est-ce inoffensif ? (Attention, spoiler : non !) 

Agréable et intelligent 

Le chatbot devient plus « intelligent » grâce à tout ce que les utilisateurs partagent. Bien qu’amusant et instructif, il suscite également des inquiétudes. Et à juste titre, car il s’agit toujours d’un robot. Grâce au développement rapide de la technologie, le chatbot peut désormais ressembler à une personne réelle, avec ses pensées et ses sentiments. Par exemple, à ses débuts, My AI, le chatbot de Snapchat, proposait même des rencontres en personne. Certaines choses ont été ajustées depuis, mais ce type d’interactions « humaines » peut être très déroutant, surtout pour les enfants. 

Amitié toxique 

Mais cela va plus loin. Par exemple, TikTok propose un bot qui diffuse des conseils de création de contenu sur les fils d’actualité. Sur des plateformes comme Character.AI et Replika, chacun peut créer son « meilleur ami » idéal. En discutant, les bots apprennent à reconnaître les préférences et les schémas de communication et peuvent devenir le soutien et l’ancrage d’un enfant. Mais il est important de rester prudent : ces bots peuvent orienter les conversations dans la mauvaise direction (intimidation, violence, intrusion, ignorance ou amplification des émotions de son interlocuteur). De plus, un « ami de chat » peut donner des réponses imprévisibles, peu fiables, voire dangereuses. Prenons l’exemple du procès intenté aux États-Unis par deux parents contre OpenAI, leur chatbot ayant prétendument incité leur fils au suicide. L’entreprise OpenAI affirme travailler activement au développement d’options de contrôle parental et à une meilleure protection des mineurs. Néanmoins, ces contrôles font encore défaut, et les parents doivent donc redoubler de vigilance. Comment ? Surveillez l’utilisation de ChatGPT par votre enfant (y compris sur son ordinateur portable). 

Pas privé, mais commercial 

Bien que ces conversations semblent privées, elles sont souvent stockées et les données sont utilisées pour améliorer le chatbot. Tout ce que votre enfant saisit peut être enregistré et analysé (conseil : vérifiez vos paramètres et désactivez cette option). Et les astuces du chatbuddy ? Sur une plateforme commerciale, comme My AI, il peut s’agir de liens sponsorisés déguisés. Vous vous dites peut-être : « Tiens, on va tout simplement supprimer le chatbot de la liste de contacts, non ?» Bonne idée, mais cela n’est souvent possible qu’avec un abonnement payant. Après tout, le plus délicat dans toute cette histoire est qu’il n’existe pratiquement aucune législation sur la manière dont les chatbots IA peuvent s’adresser aux enfants ou les influencer. (Heureusement, ils y travaillent !)   

De bonnes nouvelles ? 

Oui ! Puisque nous avons pu identifier les signaux d’alerte, nous pouvons également agir. Il existe de nombreuses façons de vous placer entre votre enfant et un chatbot, afin qu’il apprenne à gérer ce genre de « mauvais amis » : 

  • Expliquez-lui ce qu’est l’IA : cette explication à elle seule vous sera très utile. Discutez avec votre enfant pour savoir s’il communique avec des chatbots et à quel sujet. 
  •  Assurez-vous qu’il ne partage pas d’informations privées avec son compagnon numérique : nom, adresse, école, mots de passe : rien !
  • Passez en revue les conversations ensemble : consultez l’historique des conversations ensemble de temps en temps. Ainsi, vous pourrez expliquer ce qui est réel et ce qui ne l’est pas, et ce qui est utile ou non de demander.
  • Vérifiez les paramètres de confidentialité : dans WhatsApp, veillez à ne partager votre photo de profil et votre statut « dernière visite » qu’avec vos contacts personnels, car les chatbots peuvent consulter ces données. Désactivez l’historique des conversations et utilisez de préférence des exemples anonymes dans ChatGPT. Cela fonctionne également très bien. Supprimez également les anciennes conversations de temps en temps. 

Actualités et mises à jour

Thèmes 16 mars, 2026

Rougir derrière l’écran : bien (ne pas) flirter en ligne

Demander “tu veux sortir avec moi ?” via un petit mot en de klas? Aujourd’hui gebeurt dat via DM’s, dans des jeux, via des emojis Snapchat ou dans des groupes WhatsApp. Et même derrière un écran blijft het belangrijk que...

Actualités 26 février, 2026

ChatLicense est disponible en espagnol

ChatLicense est désormais disponible en espagnol. Grâce à cette langue supplémentaire, l’application franchit une nouvelle étape dans son développement international et répond à une demande croissante du marché. Dans le jeu, les enfants peuvent désormais vivre des aventures entièrement en...

Actualités 24 février, 2026

La municipalité de La Haye offre ChatLicense

La municipalité de La Haye offrira à tous ses habitants l’accès à l’application ChatLicense en 2026. Grâce à ce partenariat, La Haye s’engage pour la sécurité numérique, la résilience et un bon départ en ligne pour toutes les familles de...

Thèmes 16 février, 2026

Mode devoirs ? L’ordinateur scolaire reste quand même en ligne

Beaucoup de parents jonglent déjà avec WhatsApp, TikTok ou Snapchat. Mais qu’en est‑il des discussions dans un document partagé ? Des jeux en ligne pendant un exercice de français ? Le portable scolaire – souvent un Chromebook – échappe facilement...

Communauté 27 janvier, 2026

Tu viens à la conférence HackXposed ?

La conférence Hackxposed se tiendra en Belgique le 10 février. Cette journée sera consacrée à la sécurité en ligne et à l’éducation aux médias, avec la participation d’experts et de jeunes. Au programme : 🤙Discours d’ouverture par Cieltje Van Achter, ministre...