« Que peut-on faire avec l’IA et ne devrions-nous pas aussi avoir un chatbot ?» Telles sont les questions auxquelles les organisations sont de plus en plus confrontées chaque jour, y compris sur les réseaux sociaux. Nos enfants rencontrent également de plus en plus de « copains virtuels » qui répondent à leurs questions, donnent des conseils ou discutent simplement. Cela semble amusant et stimulant, mais est-ce inoffensif ? (Attention, spoiler : non !)
Agréable et intelligent
Le chatbot devient plus « intelligent » grâce à tout ce que les utilisateurs partagent. Bien qu’amusant et instructif, il suscite également des inquiétudes. Et à juste titre, car il s’agit toujours d’un robot. Grâce au développement rapide de la technologie, le chatbot peut désormais ressembler à une personne réelle, avec ses pensées et ses sentiments. Par exemple, à ses débuts, My AI, le chatbot de Snapchat, proposait même des rencontres en personne. Certaines choses ont été ajustées depuis, mais ce type d’interactions « humaines » peut être très déroutant, surtout pour les enfants.
Amitié toxique
Mais cela va plus loin. Par exemple, TikTok propose un bot qui diffuse des conseils de création de contenu sur les fils d’actualité. Sur des plateformes comme Character.AI et Replika, chacun peut créer son « meilleur ami » idéal. En discutant, les bots apprennent à reconnaître les préférences et les schémas de communication et peuvent devenir le soutien et l’ancrage d’un enfant. Mais il est important de rester prudent : ces bots peuvent orienter les conversations dans la mauvaise direction (intimidation, violence, intrusion, ignorance ou amplification des émotions de son interlocuteur). De plus, un « ami de chat » peut donner des réponses imprévisibles, peu fiables, voire dangereuses. Prenons l’exemple du procès intenté aux États-Unis par deux parents contre OpenAI, leur chatbot ayant prétendument incité leur fils au suicide. L’entreprise OpenAI affirme travailler activement au développement d’options de contrôle parental et à une meilleure protection des mineurs. Néanmoins, ces contrôles font encore défaut, et les parents doivent donc redoubler de vigilance. Comment ? Surveillez l’utilisation de ChatGPT par votre enfant (y compris sur son ordinateur portable).
Pas privé, mais commercial
Bien que ces conversations semblent privées, elles sont souvent stockées et les données sont utilisées pour améliorer le chatbot. Tout ce que votre enfant saisit peut être enregistré et analysé (conseil : vérifiez vos paramètres et désactivez cette option). Et les astuces du chatbuddy ? Sur une plateforme commerciale, comme My AI, il peut s’agir de liens sponsorisés déguisés. Vous vous dites peut-être : « Tiens, on va tout simplement supprimer le chatbot de la liste de contacts, non ?» Bonne idée, mais cela n’est souvent possible qu’avec un abonnement payant. Après tout, le plus délicat dans toute cette histoire est qu’il n’existe pratiquement aucune législation sur la manière dont les chatbots IA peuvent s’adresser aux enfants ou les influencer. (Heureusement, ils y travaillent !)
De bonnes nouvelles ?
Oui ! Puisque nous avons pu identifier les signaux d’alerte, nous pouvons également agir. Il existe de nombreuses façons de vous placer entre votre enfant et un chatbot, afin qu’il apprenne à gérer ce genre de « mauvais amis » :
- Expliquez-lui ce qu’est l’IA : cette explication à elle seule vous sera très utile. Discutez avec votre enfant pour savoir s’il communique avec des chatbots et à quel sujet.
- Assurez-vous qu’il ne partage pas d’informations privées avec son compagnon numérique : nom, adresse, école, mots de passe : rien !
- Passez en revue les conversations ensemble : consultez l’historique des conversations ensemble de temps en temps. Ainsi, vous pourrez expliquer ce qui est réel et ce qui ne l’est pas, et ce qui est utile ou non de demander.
- Vérifiez les paramètres de confidentialité : dans WhatsApp, veillez à ne partager votre photo de profil et votre statut « dernière visite » qu’avec vos contacts personnels, car les chatbots peuvent consulter ces données. Désactivez l’historique des conversations et utilisez de préférence des exemples anonymes dans ChatGPT. Cela fonctionne également très bien. Supprimez également les anciennes conversations de temps en temps.