James O’Donnell schrijft in MIT Technology Review over een recent onderzoek waarin onderzoekers van Stanford en Google DeepMind laten zien dat het mogelijk is om een AI-replica van iemands persoonlijkheid te creëren. Deze bevinding opent nieuwe mogelijkheden voor gedragsonderzoek, simulaties, serious gaming en leren in de Metaverse. Uiteraard roept deze ontwikkeling ook ethische vragen op.
Het onderzoeksteam onder leiding van Joon Sung Park, promovendus informatica aan Stanford, ontwikkelde een methode om menselijke persoonlijkheden te repliceren in AI-modellen. Ze werkten met een diverse groep van 1000 deelnemers die verschilden in leeftijd, geslacht, afkomst, regio, opleiding en politieke overtuiging.
De onderzoekers gebruikten kwalitatieve, twee uur durende, interviews om de unieke eigenschappen van deelnemers vast te leggen. Deze aanpak bleek effectiever dan traditionele vragenlijsten, omdat interviews ook subtiele persoonlijke ervaringen en idiosyncratische details kunnen vastleggen die moeilijk in standaardvragen te vangen zijn. De replica’s werden getest door zowel deelnemers als hun AI-alter ego een reeks persoonlijkheids- en gedragstests te laten uitvoeren. De resultaten kwamen voor 85% overeen.
Simulatieagenten kunnen volgens deze bijdrage wetenschappelijk onderzoek vergemakkelijken, vooral op het gebied van de sociale wetenschappen. Zo kunnen AI-replica’s worden ingezet om gedragingen te simuleren die anders kostbaar of ethisch lastig zouden zijn, zoals het onderzoeken van sociale-mediabeïnvloeding of verkeersstromen. Ik kan me ook voorstellen dat je met behulp van deze mogelijkheden AI-replicaties kunt ontwikkelen die je kunt gebruiken binnen simulaties, serious games of leerervaringen binnen de Metaverse. Je kunt mensen rollenspelen laten spelen met specifiek ontwikkelde AI-replicas die je vaker kunt inzetten. De technologie heeft volgens O’Donnell ook commerciële toepassingen: bedrijven zoals Tavus werken aan het maken van “digitale tweelingen” door klantdata te analyseren.
Het -nog niet ge peer reviewde- onderzoek kent beperkingen. De gebruikte evaluatiemethoden waren relatief eenvoudig en de AI-replicaties presteerden minder goed op gedragstesten zoals de ‘dictator game’, dat bedoeld is om waarden als rechtvaardigheid te meten. De mogelijkheid om andermans persoonlijkheid digitaal na te bootsen kan bovendien leiden tot misbruik, zoals het maken van deepfakes of het manipuleren van online identiteit zonder toestemming. Verder kun je je m.i. ook afvragen of deze ontwikkeling niet antropomorfisme in de hand werkt.
Het is in elk geval weer een boeiende, hoofdbrekens veroorzakende, technologische ontwikkeling.
Mijn bronnen over (generatieve) artificiële intelligentie
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.
This content is published under the Attribution 3.0 Unported license.
Geef een reactie