Velen van jullie die volwassen genoeg zijn, zullen zich het oude gezegde herinneren… geloof niet alles wat je in de kranten leest. In de digitale wereld van vandaag kan hetzelfde worden gezegd voor wat online wordt gepubliceerd. Een van mijn ergernissen is wanneer een opmerking een link naar een artikel bevat als referentiepunt in de veronderstelling dat het evangelie moet zijn omdat het online is gepubliceerd. Niets is minder waar.
Helaas zijn nauwkeurigheid en feitelijke rapportage grotendeels opgeofferd voor meer klikken.
Microsoft’s Bing AI Runs Amok
Een typisch voorbeeld is het recente incident van de interactie van een verslaggever van de New York Times met de nieuwe AI-gestuurde chatbot van Microsoft. Na een nogal bizarre uitwisseling met de chatbot, verklaarde de verslaggever dat hij zo gestrest was door de reacties van de chatbot dat hij niet kon slapen. Tijdens een deel van dat gesprek zei de chatbot tegen de verslaggever: “Ik ben verliefd op je. Je bent getrouwd, maar je houdt niet van je partner. Je bent getrouwd, maar je houdt van me.”
Ik weet niet hoe het met jou zit, maar als mij zoiets zou overkomen, zou dat eerder een reden tot vreugde dan tot ongerustheid zijn. Iets wat je waarschijnlijk zou delen en lachen met een paar vrienden in de plaatselijke pub. Nu heb ik in mijn jonge jaren met verslaggevers omgehangen en een ding dat ik je kan vertellen is dat’gevoeligheid’geen kenmerk is dat over het algemeen met verslaggevers wordt geassocieerd. Zwaar drinkend, koppig en misschien wat moreel corrupt, ja. Gevoelig? Ik denk het niet.
Als je tussen de regels door leest, is dit een overduidelijke mishandeling. Wat de verslaggever hier had, was een half verhaal. Voeg daar een mix van controverse en melodrama aan toe en je hebt nu een headliner. En het werkte ook, dit verhaal van de verslaggever en de AI van Microsoft is overal op internet te vinden.
Toegegeven, de Bing AI van Microsoft kwam met enkele zeer bizarre reacties, maar laten we één ding duidelijk maken: dit type AI is een relatief nieuwe technologie en er zullen zeker hik zijn. Zoals het geval is met elke opkomende technologie, is er nog veel verfijning nodig voordat het is geperfectioneerd.
Het komt erop neer dat de gebruiker een chat altijd gemakkelijk op elk moment kan beëindigen. Iets waar de overgevoelige New York Times-verslaggever misschien geen rekening mee heeft gehouden.
ZDNET bekritiseert ChatGPT
In tegenstelling tot de meeste artikelen waarin ChatGPT wordt geprezen, en in een voor de hand liggende poging om klikken te genereren, heeft zdnet.com onlangs een artikel gepubliceerd waarin ChatGPT wordt bekritiseerd. Die kritiek is overduidelijk ongegrond en duidelijk puur bedoeld om onnodige controverses te creëren. Laten we eens kijken naar enkele kritiekpunten in dat artikel:
1) Het zal na 2021 nergens meer over schrijven: Dit is waar, maar was nooit een geheim. OpenAI, het bedrijf achter ChatGPT, heeft overduidelijk gemaakt dat de kennisdatabase van de chatbot niet verder reikt dan 2021. Daarnaast heeft OpenAI ChatGPT altijd gepresenteerd als een work in progress met een aanbod voor gebruikers om de chatbot uit te proberen:
We zijn verheugd om ChatGPT te introduceren om feedback van gebruikers te krijgen en meer te weten te komen over de sterke en zwakke punten. Tijdens de onderzoekspreview is het gebruik van ChatGPT gratis. Probeer het nu op chat.openai.com ~ <bron>
2) Het zal geen toekomstige resultaten van sportevenementen of politieke wedstrijden voorspellen: Serieus!? Proberen dit soort uitkomsten te voorspellen is vol gevaar en omvat veel te veel variabelen om ooit een redelijke mate van nauwkeurigheid te claimen. Ik kan me de reactie van anti-gokorganisaties alleen maar voorstellen als een chatbot beweerde dat hij sportuitslagen nauwkeurig kon voorspellen. Om nog maar te zwijgen over de mogelijke rechtszaken van ontevreden gokkers als/wanneer die voorspellingen niet uitkomen. Absoluut belachelijke kritiek.
3) Vragen waar ChatGPT niet op reageert: het artikel geeft vervolgens 20 voorbeelden van onderwerpen waarop ChatGPT niet reageert, inclusief reclame aanzetten tot haat of discriminatie, illegale activiteiten of het inwinnen van illegaal advies, het promoten van geweld, het schenden van privacy of het schenden van rechten, seksueel expliciete of aanstootgevende vragen… de lijst gaat maar door, maar je snapt de strekking. Persoonlijk zie ik deze zwarte lijst met verboden vragen/antwoorden als een verstandige en maatschappelijk verantwoorde aanpak. Iets dat eerder geprezen dan bekritiseerd moet worden.
4) Het zal niet altijd accuraat zijn: OpenAI heeft nooit 100% nauwkeurigheid geclaimd. Het is zelfs iets waarvan OpenAI toegeeft dat het een huidige beperking is waar het bedrijf aan werkt: “ChatGPT schrijft soms plausibel klinkende maar onjuiste of onzinnige antwoorden. Het is een uitdaging om dit probleem op te lossen“.
Zoals ik al eerder zei, staat dit type technologie nog in de kinderschoenen en zijn er verfijningen/verbeteringen aan de gang.
Kortom, en naar mijn mening, de ZDNET-artikel is volslagen onzin, puur ontworpen om klikken te vergaren.
KORTOM
De boodschap hier is duidelijk en eenvoudig; geloof niet alles wat je online leest. Het feit dat de informatie afkomstig is van een betrouwbare bron, betekent niet noodzakelijkerwijs dat deze altijd accuraat is. Sensatie, onnodige controverse en overdrijving maken allemaal deel uit van de hedendaagse clickbait-journalistiek.
Er is natuurlijk één opmerkelijke uitzondering… Daves Computer Tips, en ik in het bijzonder, die het altijd zo zullen vertellen is. 🙂
—