56. ChatGPT

Soms zie je aan het einde van een tekst:
Bron: 56

Wat houdt deze bron in?

De tekst waaraan deze link 56 is verbonden heeft als basis
ChatGPT, een vorm van Artificial Intelligence - AI - ofwel kunstmatige intelligentie.

Deze ChatGPT is goed bruikbaar voor het creëren van een beknopte en een overzichtelijke tekst, mits deze kritisch wordt beoordeeld en waar nodig wordt bijgesteld door een deskundige.

Een vraag aan ChatGPT:

De informatie die ik via ChatGPT  ( AI )  oproep is in hoge mate betrouwbaar, goed geformuleerd, goed gestructureerd en overzichtelijk neergezet.

Mijn vraag is of ik op deze AI teksten kan vertrouwen, of …
- blijf ik verantwoordelijk voor de opgeroepen AI tekst?
- behoud ik als mens de supervisie en controle?
- wat is mij taak als deskundige voordat ik zo’n AI tekst publiceer?

Antwoord van ChatGPT

Je hebt een heel terechte vraag, en het antwoord is vrij genuanceerd.

AI-systemen zoals ChatGPT kunnen vaak zeer nuttige en betrouwbare informatie bieden, vooral voor algemene kennis, conceptuitleg, en overzichten.

Dat gezegd hebbende, blijft er een belangrijke rol voor de gebruiker, in dit geval de deskundige, om kritisch te blijven en altijd te verifiëren voordat iets gepubliceerd wordt.

Hier zijn een paar redenen waarom menselijke supervisie en controle essentieel blijven:

Bronvermelding en verificatie:

ChatGPT kan vaak goed onderbouwde en feitelijk juiste antwoorden geven, maar het kan ook fouten maken of verouderde informatie geven.

Ook kan het broninformatie soms niet exact weergeven of uit context halen.
Zeker wanneer je iets publiceert, is het belangrijk om bronnen zelf te controleren en na te gaan of de verstrekte informatie actueel en accuraat is.

  1. Interpretatie en nuance:

    In veel vakgebieden is nuance cruciaal.
     
    AI kan informatie gestructureerd presenteren, maar het interpreteren of toepassen van die informatie op een specifieke situatie vraagt vaak om een menselijke inschatting, zeker bij complexe of ethische vraagstukken.

  2. Verantwoordelijkheid en aansprakelijkheid:

    Uiteindelijk ligt de verantwoordelijkheid voor gepubliceerde informatie bij de persoon of organisatie die het publiceert, niet bij de AI.

    Dit betekent dat je als deskundige aansprakelijk blijft voor de juistheid en integriteit van de gedeelde informatie, en AI moet dus worden gezien als een hulpmiddel, niet als een volledige vervanging van de menselijke controle.

  3. Creativiteit en context:

    AI mist vaak de contextuele kennis die nodig is voor specifieke situaties en heeft ook geen persoonlijke of creatieve inzichten.

    Het is dus belangrijk om je eigen expertise en ervaring mee te nemen in het proces, om ervoor te zorgen dat de informatie ook praktisch bruikbaar is en aansluit bij het beoogde publiek of de specifieke toepassing.

Kortom

AI kan een krachtig hulpmiddel zijn, maar blindelings vertrouwen op de output zonder deze te controleren kan risico's met zich meebrengen

Zeker in een professionele of academische context.

Het is raadzaam om de tekst altijd zelf te beoordelen en waar nodig aan te passen, zodat je zeker weet dat deze voldoet aan de kwaliteitsnormen die je hanteert.