'Pas op voor dure blunders bij gebruik tekstrobot ChatGPT'

Koen Konings
Koen Konings © RTV Noord
Het online taalprogramma ChatGPT is een stuk gereedschap waarmee iedereen met kunstmatige intelligentie, oftewel AI, aan de slag kan. Maar het gebruik van deze tekstrobot is – zeker voor ondernemers – niet zonder risico’s, zegt IT-advocaat en NoordZaken-expert Koen Konings.
ChatGPT is een online taalmodel van OpenAI, dat op basis van een beetje input van de gebruiker hele lappen tekst verzint. Ondernemers gebruiken ChatGPT bijvoorbeeld om teksten voor websites of reclamecampagnes te maken. Ook studenten hebben ontdekt dat ChatGPT prima werkstukken produceert, die feilloos door de plagiaatcontrole komen.
Het werkt supermakkelijk. Je geeft het systeem jouw input en na wat rekenwerk geeft het systeem zijn output terug: een goed geschreven tekst. Welke ondernemer wil dat nou niet? Het scheelt inhuren van freelance tekstschrijvers.
Hoewel het programma al behoorlijk wat jaren meedraait, is de aandacht ervoor sinds begin dit jaar flink gegroeid. Helaas zitten er wel wat haken en ogen aan het gebruik ervan.

'Foute' teksten

ChatGPT heeft leren schrijven op basis van maar liefst 57 miljard woorden. Die komen uit grote datasets van onder meer boeken en websites. ChatGPT heeft dus leren schrijven door te lezen hoe anderen (mensen!) schrijven. Versie 3 is overigens gestopt met lezen van teksten van na 2021.
Het probleem is dat ChatGPT zich helemaal niet bewust is van de auteursrechten op die teksten. ChatGPT is namelijk niet opgeleid om het recht te kennen, maar enkel om teksten te lezen en te schrijven. Tests met ChatGPT wijzen uit dat het gemakkelijk herkenbare verhaallijnen en personages overneemt van bekende boeken.
Hiermee liggen inbreuken op auteursrechten van schrijvers dus op de loer. Deze schrijvers kunnen iedereen juridisch aanspreken die, allicht zelfs onbewust, te veel heeft overgenomen uit hun werken. Ook als dat - indirect - via ChatGPT is gebeurd. En dat kan de inbreukmaker veel geld kosten en kopzorgen opleveren.

ChatGPT weet niks

Maar er zijn meer zaken waar je als gebruiker om moet denken. Zo levert het systeem maar één resultaat op. Is dat het beste resultaat? Zijn er niet meer interessante alternatieven waaruit de menselijke gebruiker zou moeten kunnen kiezen.
ChatGPT is – zoals het zichzelf omschrijft – een vorm van taalverwerking. Het heeft ongetwijfeld heel veel teksten gelezen, waaronder op specialistische terreinen, waardoor de output aannemelijk oogt. Het systeem doet dit echter uitsluitend op basis van taalkennis, vakinhoudelijk weet het programma helemaal niks. Er zijn al berichten geweest dat ChatGPT hele bronvermeldingen bij elkaar verzint.

Onbetrouwbaar orakel

Het systeem weet ook helemaal niet welke kennis correct of incorrect en actueel of achterhaald is. Wat er aan tekst uitrolt kan de plank dus volledig misslaan, zeker als het om iets vakinhoudelijks gaat.
Maar mensen zijn in beginsel luie en gemakzuchtige wezens. Dat schijnt zo te zijn gegroeid. Gebruikers hanteren dergelijke systemen daarom vaak als orakel en zijn te weinig kritisch. Gebruikers van hippe technologie geloven nogal eens blindelings wat de technologie hen voorschrijft.
Gebruik je het op die manier, dan zou ChatGPT je wel eens een grote blunder kunnen opleveren.
Koen Konings is IT-advocaat bij NORD Advocaten te Groningen en schrijft voor NoordZaken over juridische kwesties waar ondernemers mee te maken kunnen krijgen.