“De Boletus-satanas”, een vervolgverhaal (3)

De opgestoken vingers? Dat was duidelijke tekentaal. In ChatGPT-taal: hallucinaties. En zijn rol als veel besproken ‘factchecker’ kon dus duidelijk gemanipuleerd worden. De Boletus-satanas was allerminst in staat gebleken winst-oproepende ideeën aan te leveren, ziekenhuisrekeningen niet inbegrepen. Maar erg toevallig klonk het ook niet. Zachtjes gemanipuleerd bleek een betere term waarvan het resultaat voor de nodige hallucinaties kon zorgen.

Of ik een kabouter was? Antwoorden met ‘nee, Sinterklaas’ gaf de ChatGPT te veel kansen om het over het leven van heilige mannen te hebben dus was het beter een vraag met een vraag te beantwoorden.
‘Ik niet, jij wel?’
‘Kabouter Plop en kabouter Wesley zijn kabouters. Of de kabouters van Rien Poortvliet.’
‘Ben jij een kabouter?’
‘Een kabouter is een fictief wezen dat vaak wordt afgebeeld als een klein menselijk figuurtje met een lange baard en een puntmuts. Kabouterverhalen en -legendes zijn vooral populair in Europese folklore, met name in landen zoals Nederland, België, Duitsland en Scandinavië. Kabouters worden vaak geassocieerd met bossen en natuurlijke omgevingen, en worden vaak afgeschilderd als vriendelijke wezens die in harmonie met de natuur leven. Ze worden vaak beschreven als behulpzaam en soms ondeugend, en worden vaak geassocieerd met het bewaken van schatten of levende wezens in het bos.’

Na enkele seconden verscheen het prentje met de opgestoken vingers dat weldra werd vervangen door deze boodschap:
‘ChatGpt is ontworpen om een vriendelijke en interactieve gesprekservaring te bieden. Je kunt gewoon je gedachten delen, een discussie voeren of zelfs wat luchtige humor uitwisselen.’

Die ‘luchtige humor’ kwam vlug in de schaduw toen ik het over de hallucinaties had waarvan eerder sprake:

Een risico van generatieve AI wordt hallucinatie genoemd. (zonder koorts of zonder paddo's!)

Een van de grootste zorgen van generatieve AI-systemen wordt zichtbaar wanneer ze de vragen niet begrijpen of ze verkeerd interpreteren. Omdat ze geen correcte antwoorden kunnen genereren, beginnen ze antwoorden te verzinnen in een proces dat “Artificial Intelligence Hallucination” wordt genoemd.

Hallucinatie is de term die wordt gebruikt voor het fenomeen waarbij AI-algoritmen en deep learning neurale netwerken uitvoer produceren die niet echt is, niet overeenkomt met de gegevens waarop het algoritme is getraind of niet overeenkomt met een ander identificeerbaar patroon.

Het kan worden verklaard door je programmering, ingevoerde informatie of andere factoren zoals verkeerde classificatie van gegevens, onvoldoende training, onvermogen om vragen in verschillende talen te interpreteren, onvermogen om vragen in een context te plaatsen.

Hallucinaties kunnen voorkomen op alle soorten synthetische gegevens zoals tekst, afbeeldingen, audio, video en computercode.

En helemaal fraai wordt het als ik lees dat het idee bestaat om OpenAI te belonen bij betrouwbare resultaten om ongewenste resultaten te ontmoedigen.  Niet alleen bij het eindresultaat, maar om te 'belonen' bij elke stap:  “proces-supervisie” tegenover “resultaat-supervisie”. Zo zou de gedachtegang van het systeem transparanter worden. Maar...

“Hoe je kunstmatige intelligentie voor iets beloont werd niet onthuld, maar dat zal niet met een traktatie zijn.”
(IT daily)

"The New York Times pikt het niet langer dat OpenAI zijn populaire site leegrooft om zo slim mogelijk te worden, zonder daar ook maar iets voor te betalen. Dat is alleen maar logisch, zou je denken. Maar toen ChatGPT eind vorig jaar werd gelanceerd, waren we kennelijk allemaal te verbluft om stil te staan bij wat er eigenlijk aan de hand is. Ondertussen sijpelt het langzaam door: ChatGPT is intellectuele diefstal op wereldschaal. We stonden erbij en keken ernaar.

Generatieve AI-machines draaien op onvoorstelbaar grote databestanden, allemaal afkomstig van sites die géén eigendom zijn van de AI-bedrijven. En ChatGPT vraagt geen toestemming. OpenAI-baas Sam Altman plundert als een cowboy, het web is zijn Far West. ChatGPT, maar bijvoorbeeld ook de grafische apps Dall-e of Midjourney, knippen en plakken nieuwe teksten, beelden en filmpjes bij elkaar."  (Bert Bultinck Hoofdredacteur Knack 23 augustus 2023 )

Photo: Jaap Buitendijk uit film ‘Hugo’. 2011 GK Films, LLC.

Hugo, Film in 3D (2011) centreert zich rond een gebroken automaton die hij hoopt te repareren. Het verhaal speelt zich af in de dertiger jaren. Maar ook in vorige eeuwen werden dergelijke automatons ontworpen, machines die zelf zouden denken. In haar artikel in weekend Focus Knack van 20 januari (‘Onzichtbare uitbuiting: ‘Om AI bruikbaar te maken, is er heel wat menselijke arbeid nodig’) schrijft Elisa Hulstaert over de achtergrond van het verschijnsel). Ze vertelt over de 126 mensen in Madagascar die in realtime videobeelden van ‘slimme’ bewakingscamera’s bewaken in een Franse supermarkt. In feite dus de I.A. achter de ‘slimme camera’s. Naar Europese normen worden ze daar heel weinig voor betaald.

’ Soms is het goedkoper om werknemers in lagelonenlanden in te schakelen dan om artificiële intelligentie te trainen. Om goede resultaten op te leveren, moet dat systeem het onderscheid kunnen maken tussen klanten die hun telefoon in hun broekzak steken en klanten die een chocoladereep wegmoffelen. Makkelijk voor mensen, maar moeilijk voor artificiële intelligentie.'  (Knack ibidem)

Er is dus heel wat menselijke arbeid nodig ‘achter de schermen’.

In 2005 lanceerde die techgigant MTurk.com, een website waar bedrijven – eventueel anoniem – mensen vinden die voor een paar cent per opdracht online eenvoudige taken uitvoeren. Ze tekenen bijvoorbeeld vierkanten rond tomaten of olijven in salades, zodat slimme apps je op basis van een foto kunnen vertellen hoeveel calorieën je bord telt. Het zijn taken die nodig zijn om artificiële intelligentie te trainen en slim te doen lijken. MTurk heet voluit niet toevallig ‘Amazon Mechanical Turk’ en is slechts één van de vele platformen die het klikwerk faciliteert. (Knack ibidem)

Het klinkt dus niet zo vreemd dat wetenschappers waarschuwen dat de ontwikkeling van artificiële intelligentie de patronen van de kolonisatie volgt, schrijft Elisa Hulstaert in het geciteerde artikel. “Als we technologie willen die echt voor mensen werkt, moeten we de behoeften van mensen centraal stellen, niet die van multinationals.’

Wellicht worden mijn ‘kabouters’ nu helemaal zichtbaar, niet als sprookjesfiguren maar wel degelijk als de reeds voor eeuwen dienende klusjeswezens (klikwerkers) in dienst van de ‘groten’. Liefst ‘ondergronds’, onzichtbaar dus tenzij zij even in een sprookje mogen opduiken. Ik heb de afleveringen als ‘vervolgverhaal’ geklasseerd omdat je hun levens blijkbaar alleen in een ‘sprookje’ kunt voorstellen terwijl ze zich in het werkelijke leven voor ons uit de naad moeten werken. Hun wraakoefening met de Boletus-satanas heb ik uit verbinding met hun lot verzonnen, maar let op, soms achterhaalt de werkelijkheid ruimschoots de fantasie!

beeld AFP