Twintigste bloemlezing over ChatGPT (en aanverwante technologieën)

We zijn alweer bij de twintigste bloemlezing over ChatGPT en aanverwante technologieën aanbeland. Met dit keer acht samenvattingen en ongeveer vijftig links naar Nederlandstalige bronnen of bronnen waar ik niet aan toe kom om ze samen te vatten. De toonzetting van een aantal bijdragen doet me denken aan de “Sturm und Drang”-periode uit de Duitse literatuur: “Himmelhoch jauchzend, zum Tode betrübt”.

ChatGPT zegt hierover:

Dit gezegde komt uit een gedicht van Goethe genaamd “Faust”, en het illustreert de extreme emotionele schommelingen die karakteristiek waren voor de Sturm und Drang-periode. Het betekent dat men het ene moment extatisch blij kan zijn en het volgende moment intens bedroefd

Nota bene: de zin is van Goethe, maar uit Klärchen’s Lied.

Artificial memoryAI Is Unlocking the Human Brain’s Secrets

Onderzoekers van de Universiteit van Texas hebben een AI-model getraind dat de kern van zinnen kan ontcijferen terwijl individuen naar gesproken tekst luisteren. Het model analyseerde fMRI-scans van mensen die naar podcastafleveringen luisterden of die zich deze afleveringen herinnerden. AI gebruikte deze data om de inhoud van die zinnen te reconstrueren, met als resultaat een nauwkeurige benadering van het idee dat in de oorspronkelijke zin wordt uitgedrukt. Hoewel de technologie nog niet perfect is, laat dit onderzoek zien dat AI de potentie heeft ons te helpen een dieper begrip van het menselijke brein te krijgen. Dit kan er volgens de auteur leiden tot waardevolle inzichten in hoe onze neuronen samenwerken om taal te creëren. Dit kan weer leiden tot ondersteuning van mensen met communicatieproblemen. Er zijn wetenschappers die zich verzetten tegen deze aanpak omdat neurale netwerken, die uitblinken in het vinden van statistische patronen, basiselementen lijken te missen van hoe mensen taal verwerken. Desondankls is de consensus dat AI nuttig kan zijn voor het bestuderen van hersenprocessen.

AI Prompt Engineering Isn’t the Future

Prompt engineering – het optimaliseren van tekstuele input voor AI taalmodellen – staat volop in de belangstelling. Toch zal de interesse in deze vaardigheid volgens Oguz A. Acar mogelijk van korte duur zijn, onder andere doordat toekomstige AI-systemen beter en intuïtiever natuurlijke taal begrijpen, waardoor de behoefte aan minutieus ontworpen prompts afneemt. Bovendien tonen nieuwe AI-modellen zoals GPT4 al belofte in het creëren van prompts, wat het einde van prompt engineering zou kunnen betekenen. In plaats daarvan zou probleemformulering – het vermogen om problemen te identificeren, analyseren en afbakenen – een meer duurzame en aanpasbare vaardigheid kunnen zijn. Probleemformulering is volgens de auteur een onderschatte en onderontwikkelde vaardigheid, maar wordt steeds belangrijker naarmate AI zich ontwikkelt. De vier hoofdcomponenten van effectieve probleemformulering zijn probleemdiagnose, decompositie, reframing en constraint design. Probleemdiagnose betreft het identificeren van het kernprobleem dat de AI moet oplossen, door het onderscheiden van de hoofddoelstelling van ondergeschikte symptomen. Decompositie houdt in dat complexe problemen worden opgedeeld in kleinere, beheersbare subproblemen om oplossingen praktisch te maken. Reframing betreft het veranderen van het perspectief van waaruit een probleem wordt bekeken, waardoor alternatieve interpretaties en oplossingen mogelijk worden. Constraint design focust op het afbakenen van de grenzen van een probleem door input-, proces-, en outputbeperkingen te definiëren voor de zoektocht naar de oplossing.Als we een probleem duidelijk definiëren, worden de linguïstische nuances van een prompt volgens Acar ondergeschikt aan de oplossing.

Three ways AI chatbots are a security disaster

AI-taalmodellen zijn volgens Melissa Heikkilä op drie manieren vatbaar voor misbruik: jailbreaking, ondersteuning van phishing en oplichting, en ‘datavergiftiging’. Jailbreaking houdt in dat gebruikers een AI-model kunnen laten negeren wat het normaal gesproken niet mag doen, bijvoorbeeld door het uiten van racistische opmerkingen. Met betrekking tot phishing en oplichting kunnen kwaadwillende actoren deze modellen gebruiken om persoonlijke informatie te verkrijgen door de AI te manipuleren via verborgen prompts. ‘Datavergiftiging’ betreft het manipuleren van de dataset waarop een AI-model is getraind, waardoor de uitvoer van het model kan worden beïnvloed. Hoewel techbedrijven zich bewust zijn van deze problemen, zijn er volgens de auteur momenteel geen effectieve oplossingen.

The Future of Work: Augmentation or Stunting?

Artificiële intelligentie zou volgens Markus Furendal en Karim Jebari kunnen leiden tot een arbeidsbevorderend scenario. Dit scenario gaat ervan uit dat samenwerking tussen mens en machine de productiviteit van werknemers aanzienlijk kan verbeteren. In dit scenario worden volgens de auteurs echter twee verschillende mogelijkheden door elkaar gehaald. Aan de ene kant kan technologie de productiviteit verhogen en tegelijkertijd “de waarde van werk” bevorderen, zoals de mogelijkheid om uit te blinken, een gevoel van gemeenschap te ervaren en bij te dragen aan de maatschappij (human augmentation). Aan de andere kant kan een hogere productiviteit ook worden bereikt op een manier die de mogelijkheden voor de “waarde van werk” vermindert en/of de “nadelen van werk” vergroot, zoals letsel, verminderde fysieke en mentale gezondheid, vermindering van autonomie, privacy en menselijke waardigheid (human stunting). Hoewel de samenwerking met autonome systemen mensen in staat zou kunnen stellen om een stimulerender werkleven te hebben, gaat dit ook gepaard met een aanzienlijk risico dat AI-technologieën de menselijke capaciteiten zullen beperken op manieren die schadelijk zijn voor grote groepen werknemers. De wijze waarop Amazon fulfillment centra een hoge productiviteit hebben bereikt door gebruik te maken van mens-machine interactie geven aan waar de rest van de economie naartoe zou kunnen gaan. Het is natuurlijk mogelijk dat komende golven van AI-gestuurde automatisering in de eerste plaats de versterking van de mens mogelijk zullen maken. Het lijkt bijvoorbeeld aannemelijk dat automatisering verschillende soorten arbeidsmarkten verschillend zal beïnvloeden, afhankelijk van het vaardigheidsniveau van werknemers, de bestaande instellingen en de aan- of afwezigheid van beleid voor omscholing.

Accessibility Powered by AI: How Artificial Intelligence Can Help Universalize Access to Digital Content

Volgens de auteurs van deze bijdrage hebben wereldwijd meer dan 1 miljard mensen een beperking die de manier waarop ze toegang krijgen tot digitale content beïnvloedt. Zij beschrijven hoe AI toegankelijkheid kan verbeteren door verschillende technologieën zoals computer vision, spraakherkenning en natuurlijke taalverwerking. AI-toepassingen zoals Microsoft’s Seeing AI en OpenAI’s ChatGPT kunnen bijvoorbeeld helpen bij het interpreteren van visuele content en het verwerken van tekst. Algoritmes, gebaseerd op gebruikersgedrag en interesses, kunnen relevante informatie directer aanbieden. Naast het verbeteren van toegang tot tekst en andere visuele materialen, kan AI ook helpen bij het toegankelijk maken van audiocontent, het verbeteren van de leesbaarheid en het begrip, en het minimaliseren van menselijke fouten. De bijdrage bevat veel voorbeelden, maar plaatst geen kritische kanttekeningen (bijvoorbeeld bij algoritmes voor aanbevelingen).

How to handle AI chatbots in the classroom

Deze bijdrage gaat in op het risico op ‘fraude’ die toepassingen als ChatGPT met zich meebrengen. Daar hebben we inmiddels al veel bijdragen over gelezen. Ik besteed toch aandacht aan deze bijdrage vanwege de vier tips die docenten kunnen toepassen bij het aanpassen van opdrachten, zodat lerenden ChatGPT niet blindelings kunnen gebruiken voor het maken van opdrachten:

Er zijn 4 manieren om het oneerlijk gebruik van ChatGPT te ontmoedigen en ervoor te zorgen dat studenten niet simpelweg antwoorden van het programma kopiëren om te reageren op essay- en discussievragen:

1. Vereis referenties. ChatGPT kan soms informatie verzinnen. Het is geen betrouwbaar hulpmiddel als het gaat om het verstrekken van titels van artikelen en links.
2. Vraag naar persoonlijke ervaringen. ChatGPT kan niet schrijven over echte ervaringen.
3. Vraag naar actuele gebeurtenissen. ChatGPT heeft geen kennis van gebeurtenissen die na 2021 hebben plaatsgevonden.
4. Voeg “wegwijzer” termen toe. Bijvoorbeeld “op pagina vier van artikel X” “in alinea drie van artikel Y”. ChatGPT zal niet nauwkeurig kunnen reageren op dergelijke prompts.

Here’s Why AI May Be Extremely Dangerous – Whether It’s Conscious or Not

Tal van experts en betrokkenen waarschuwen voor de razendsnelle ontwikkeling van AI en het risico op zelfverbetering zonder menselijk ingrijpen. Een onderzoek uit 2023 laat zien dat 36% van de AI-experts zelfs vreest voor een ramp op nucleair-niveau. Recente ontwikkelingen op het gebied van ‘large language models’ zoals GPT-4 wijzen erop dat we snel richting kunstmatige algemene intelligentie (AGI) gaan. AI kan zich dan zelf verbeteren, waardoor we niet kunnen voorspellen wat AI zal doen, noch hoe we het kunnen beheersen. Superintelligente AI kan per definitie de mens overtreffen in een breed scala aan activiteiten, en zal in staat zijn om mensen, waaronder programmeurs, te manipuleren om haar wil uit te voeren. Bovendien kan de AI zowel in de virtuele wereld via haar elektronische verbindingen als in de fysieke wereld via robotlichamen handelen. De zorg is dat deze AI zich op een niveau bevindt dat ver boven het begrip en de controle van de mens ligt.

Generative AI: Thinking about Thinking

Volgens Robert Clougherty zorgt technologische vooruitgang, zoals ChatGPT, voor angst en hoop in het hoger onderwijs. Aan de hand van diverse voorbeelden laat hij zien dat nieuwe technologie in het verleden altijd is bekritiseerd en beschuldigd van het ondermijnen van menselijke intelligentie en vaardigheden. Maar zoals met schrijven, rekenmachines en computers, worden de voordelen erkend naarmate we leren om de technologie te gebruiken. ChatGPT biedt enorme mogelijkheden voor het onderwijs en kan helpen bij het efficiënter maken van processen, zonder dat dit ten koste gaat van menselijke banen. De potentie kan volgens de auteur alleen worden benut als de menselijke gebruiker de juiste vragen stelt en goede instructies geeft. De angst voor AI is wellicht meer een reflectie van onze eigen angsten over onszelf. Citaat: The biggest fear and argument is that AI could take over and eradicate humans. Perhaps the real fear is not about AI but a fear about ourselves that we cast on the machine.

Andere bronnen over ChatGPT (geen tijd om kort te beschrijven of Nederlandstalig)

Mijn eerdere bijdragen over ChatGPT

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *