‘Wat kunnen we allemaal met AI en moeten we niet óók een chatbot?’ Het zijn dé vragen die steeds meer organisaties dagelijks bezighouden, zo ook socialmediabedrijven. Onze kinderen krijgen ook steeds meer te maken met een ‘virtueel maatje’ dat vragen beantwoordt, tips geeft of gewoon een kletspraatje maakt. Klinkt reuzegezellig en handig, maar is het onschuldig? (Spoiler: nee!)
Lekker slim
De chatbot wordt steeds ‘slimmer’ door alles wat gebruikers intypen. Leuk en leerzaam, maar er zijn ook zorgen. En terecht, want het blijft natuurlijk een robot. Doordat de technologie bizar snel ontwikkelt, lijkt hij behoorlijk op een heus persoon met gedachtes en gevoelens. In de begintijd van My AI, de chatbot van Snapchat, opperde deze makker in gesprekken zelfs om écht af te afspreken. Inmiddels is een en ander aangepast, maar dit soort ‘menselijke’ interacties kunnen erg verwarrend zijn, zeker voor kinderen.
Toxische vriendschap
Maar het gaat nog een stapje verder. Zo heeft TikTok een bot die tips over contentcreatie de feeds in slingert. Op platforms als Character.AI en Replika kan iedereen zelf een perfecte ‘bff’ ontwerpen. Door te chatten leren bots voorkeuren en communicatiepatronen herkennen en kunnen ze de steun en toeverlaat van een kind worden. Maar het is ook absoluut oppassen geblazen: deze bots kunnen gesprekken namelijk helemaal de verkeerde kant op sturen (lees: intimidatie, geweld, opdringerigheid, de emoties van zijn gespreksmaatje negeren of juist versterken). Daarbij kan een ‘chatbud’ onvoorspelbare, onbetrouwbare en zelfs gevaarlijke antwoorden geven: zo is er een rechtszaak in de VS waar ouders OpenAI aanklagen omdat de chatbot hun zoon zou hebben aangezet tot zelfmoord. Het bedrijf ChatGPT zegt druk te werken aan opties voor ouderlijk toezicht en betere bescherming van minderjarigen, maar inderdaad: die ontbreekt nog en ouders moeten er zelf extra scherp op zijn. Hoe? Monitor ChatGPT-gebruik van je kind (ook op de laptop).
Niet privé en wel commercieel
Hoewel zo’n gesprek privé lijkt, wordt het vaak opgeslagen en de data gebruikt om de chatbot te verbeteren. Alles wat je kind typt, kan worden bewaard en geanalyseerd (tip: check je instellingen en schakel die optie uit). En die tips en tricks die hij geeft dan? Op een commercieel platform – My AI bijvoorbeeld – kunnen dat zomaar vermomde gesponsorde links zijn. Misschien denk je nu: joh, dan gooien we die hele chatbot toch gewoon uit de contactenlijst? Leuk bedacht, maar dat kan vaak alleen via een betaald abonnement. En het lastigste van dit hele verhaal: er is nog nauwelijks wetgeving over hoe AI-chatbots kinderen mogen aanspreken of beïnvloeden. (Wordt gelukkig wel aan gewerkt!)
Is er dan ook nog goed nieuws?
Jazeker, want omdat we de rode vlaggen kennen, kúnnen we er ook wat mee. Er zijn genoeg manieren om jezelf tussen je kind en die chatbot te wurmen zodat je kind leert omgaan met dit soort ‘foute vriendjes’:
- Leg uit wat AI is: met de uitleg hierboven kom je een heel eind. Bespreek ook met je kind of hij met chatbots praat en waarover.
- Zorg dat je kind geen privé-informatie deelt met zijn digitale maat: naam, adres, school, wachtwoorden: niets!
- Bekijk samen de gesprekken: lees af en toe samen de chatgeschiedenis. Zo kun je uitleggen wat echt is en niet en, of wat wel of niet handig is om te vragen.
- Check privacy-instellingen: deel in WhatsApp je profielfoto, status en ‘laatst gezien’ alleen met je contacten en gebruik tweestapsverificatie. In ChatGPT kun je de chatgeschiedenis uitzetten en gebruik je het liefst anonieme voorbeelden: die werken net zo goed. Wis ook af en toe oude chats.