22 jan Is ChatGPT geloofwaardiger dan Maarten van Rossem?
Sinds de introductie in november 2022 houdt de chatbot ChatGPT de gemoederen flink bezig. Als je ChatGPT vraagt: “Wie ben jij?” volgt het antwoord (inclusief spelfout): “Ik ben ChatGPT, een grote taalmodel dat is getraind door OpenAI. Ik ben speciaal ontworpen om te communiceren met mensen via tekst en kan antwoorden geven op allerlei soorten vragen.”
De lijst met toepassingsmogelijkheden van ChatGPT wordt alsmaar langer en varieert van ondersteuning bij huiswerk maken tot het vroegtijdig kunnen opsporen van dementie. In een eerder artikel heeft ChatGPT ook laten zien het nodige te weten van het Rijnlands werken. Maar zelden zijn de variatie en reikwijdte van een en dezelfde toepassing zo groot geweest. Er zijn ook waarschuwingen dat ChatGPT de morele waarden in de maatschappij ondermijnt. Betrouwbaarheid, omdat niet bekend is welke bronnen zijn geraadpleegd, en inconsistentie bij morele afwegingen zijn een groot bezwaar.
ChatGPT beschikt over ongelooflijk veel kennis. Kennis is volgens Wikipedia dat wat geweten wordt, wat geleerd is (en opgeslagen) en dat waar een individu inzicht in heeft. Behalve dat ChatGPT een ding is, lijkt het aan deze eigenschappen te voldoen. Misschien wat kort door de bocht: in dit artikel wordt ChatGPT daarom gezien als een individueel ding dat weet, leert en inzicht heeft.
Misschien heeft ChatGPT wel veel meer kennis dan alle Nederlanders samen. In ieder geval is hij veel sneller met antwoorden. Verder lijken de antwoorden van ChatGPT (vooralsnog) onafhankelijk. Maar weinig experts en adviseurs zijn echt onafhankelijk, ook al presenteren ze zich zo. Op de achtergrond speelt vrijwel altijd eigen belang of een verdienmodel een rol. Dat is geen kritiek, maar een vaak aangetoonde zwakheid van mensen in het algemeen.
Onder voorwaarde dat de data actueel, compleet en juist is, lijkt de geloofwaardigheid van ChatGPT groter dan die van mensen. Ook nog eens omdat ChatGPT bescheidenheid toont en erop wijst dat het goed is de juistheid van de antwoorden te verifiëren met hulp van andere bronnen. Deze bescheidenheid lijkt bij de meeste experts afwezig. Zeker bij Maarten van Rossem die veel woorden nodig heeft om uit te leggen dat zijn verkeerde voorspelling dat Rusland nooit Oekraïne zou binnen vallen, toch ook wel een beetje juist was (bron: Youtube).
ChatGPT zelf heeft ook een mening over de stelling of een mens geloofwaardiger is dan een taalmodel. Het volgende gesprek is gevoerd op 21 januari 2023. De antwoorden van ChatGPT zijn niet geredigeerd.
Vraag aan ChatGPT: Welk antwoord op een vraag is geloofwaardiger? Dat van een mens of van een chatbot?
Antwoord van ChatGPT: Het antwoord op een vraag is afhankelijk van de bron van de informatie. Als een mens een antwoord geeft, kan het afkomstig zijn uit persoonlijke ervaring of kennis. Een chatbot, aan de andere hand, geeft antwoorden gebaseerd op de informatie die in zijn systeem is opgeslagen. Beide bronnen kunnen geloofwaardig zijn, afhankelijk van de precisie en betrouwbaarheid van de informatie. Het is aan de gebruiker om te beoordelen of het antwoord geloofwaardig is of niet.
Vervolgvraag aan ChatGPT: Bij een echte weetvraag of kennisvraag heeft een chatbot veel meer informatie tot zijn beschikking dan een mens. Dan lijkt een chatbot in het voordeel te zijn. Of zie ik dat verkeerd?
Antwoord van ChatGPT: Je hebt gelijk dat een chatbot in staat is om veel meer informatie te verwerken en te analyseren dan een mens. Een chatbot is geprogrammeerd om specifieke informatie te zoeken en te verwerken uit een grote hoeveelheid bronnen. Dit maakt hem bij uitstek geschikt voor het beantwoorden van weet- of kennisvragen waarbij veel informatie nodig is. Bovendien kan een chatbot snel antwoorden geven omdat het niet hoeft te zoeken naar informatie zoals een mens dat zou doen.
Echter, het is wel belangrijk om te realiseren dat de informatie die een chatbot geeft, alleen zo goed is als de informatie die in zijn systeem is opgeslagen. Dus als de informatie die de chatbot gebruikt niet actueel of niet betrouwbaar is, kan het antwoord onjuist zijn. Daarom is het altijd verstandig om de antwoorden van een chatbot te verifiëren of te controleren met meerdere bronnen.
Reactie op het antwoord: Dank je wel voor je uitleg. Als ik het dan kort en bondig samenvat: Bij complete, actuele en betrouwbare data is het beter om een taalmodel te raadplegen dan een mens, want een taalmodel weet veel meer.
Antwoord van ChatGPT: Ja, dat is een juiste samenvatting. Als de data die een chatbot gebruikt compleet, actueel en betrouwbaar is, dan kan het een betere bron zijn voor het beantwoorden van weet- of kennisvragen dan een mens, omdat het in staat is om veel meer informatie te verwerken en sneller te analyseren.
It’s worth noting however that a chatbot can’t replace human’s ability to understand context, emotions, and subjective matters. It’s important to use human judgment when evaluating the chatbot’s answers.
Dit artikel is ook gepubliceerd op ManagementSite: Is ChatGPT geloofwaardiger dan Maarten van Rossem?
Over de auteur
Leon Dohmen is consultant bij DiVetro en hij heeft een column op ManagementSite. “De vraag is niet óf we een bepaalde innovatie willen in onze samenleving, maar hóe beschaafd we die willen!” Leon Dohmen is bestuurslid van de Vereniging Register voor Informatici voor de portefeuille permanente educatie en voorzitter van de special interest group Onderzoek en Onderwijs ICT bij de Koninklijke Nederlandse Vereniging van Informatieprofessionals. Samen met vertegenwoordigers van de politiek, overheid, wetenschap, belangenverenigingen en bedrijfsleven houdt de special interest group zich bezig met het spanningsveld tussen digitalisering en (aantasting van) grondrechten van mensen. Een van de hoofddoelen is het vergroten van het bewustzijn van IT-professionals m.b.t. dit spanningsveld en de invloed die ze hierop kunnen uitoefenen.