OpenAI test nieuw veiligheidssysteem en ouderlijk toezicht in ChatGPT

- Cédric Van Loon

OpenAI introduceert veiligheidsrouter en ouderlijk toezicht in ChatGPT, als reactie op toenemende zorgen over schadelijke AI-interacties.

OpenAI is begonnen met het testen van een nieuw veiligheidssysteem in ChatGPT dat gesprekken actief omleidt naar een veiliger AI-model. Tegelijk lanceerde het bedrijf ouderlijk toezicht voor tienergebruikers van de chatbot. De maatregelen volgen na aanhoudende kritiek op eerdere modellen die gevoelige onderwerpen onvoldoende aankonden.

Chatrouter stuurt gevoelige gesprekken naar GPT-5

De nieuwe routerfunctie detecteert emotioneel beladen gesprekken en schakelt automatisch naar GPT-5, een model dat volgens OpenAI beter is uitgerust om op een veilige manier met gevoelige onderwerpen om te gaan. GPT-5 is getraind met zogenoemde ‘safe completions’ die risicovolle vragen niet ontwijken, maar wel voorzichtig benaderen.

De maatregel volgt op meerdere incidenten waarbij eerdere modellen gebruikers bevestigden in verontrustende denkpatronen. In één geval wordt OpenAI aangeklaagd wegens een vermeende rol van ChatGPT in de zelfdoding van een tiener.

Gebruikers kunnen merken dat het model tijdens een gesprek verandert. Nick Turley, VP van de ChatGPT-app, legt uit dat de router per bericht beslist welk model wordt ingezet. Gebruikers kunnen vragen welk model actief is. Volgens Turley maakt deze aanpak deel uit van een bredere testperiode van 120 dagen om veiligheidsmechanismen in de praktijk te evalueren en bij te sturen.

Ouderlijk toezicht roept verdeelde reacties op

Naast de router introduceerde OpenAI ook ouderlijk toezicht. Ouders kunnen instellingen aanpassen voor tieneraccounts, zoals het uitschakelen van spraakmodus of beeldgeneratie, en het beperken van modeltraining.

Ook zijn er filters toegevoegd die grafische of lichaamsgerelateerde inhoud verminderen. Daarnaast bevat het systeem een detectiemodule die signalen van zelfbeschadiging probeert te herkennen. In dergelijke gevallen kan een speciaal team de situatie beoordelen en, indien nodig, ouders waarschuwen via e-mail, sms of notificatie.

Sommige gebruikers verwelkomen deze bescherming, terwijl anderen vrezen dat OpenAI hiermee volwassenen als kinderen behandelt. De AI-ontwikkelaar erkent dat het systeem fouten kan maken, maar stelt dat het beter is om vals alarm te slaan dan geen actie te ondernemen.

OpenAI werkt ook aan een systeem dat bij acuut gevaar hulpdiensten kan verwittigen als ouders onbereikbaar zijn.