Waarom het niet slim is AI-bots te verbieden jouw artikelen te laten lezen

Verschillende nieuwssites, zoals The Guardian of de New York Times, staan generatieve AI-toepassingen niet meer toe om artikelen van hun sites te halen en hun taalmodel ermee te voeden. Ook andere websites en weblogs kunnen dat doen door een stukje code toe te voeren aan de website. Op zich heb ik daar begrip voor. Tegelijkertijd vind ik dat niet slim. Ik word daarin bevestigd door de bijdrage Waarom de gemiddelde AI dreigt steeds rechtser te worden.

een conceptuele illustratie van een taalmodel dat gevoed wordt met diverse teksten van talrijke websites.
DALL-E: een conceptuele illustratie van een taalmodel dat gevoed wordt met diverse teksten van talrijke websites.

Verleden jaar las je weleens over onderzoeken waaruit bleek dat ChatGPT vaker opvattingen deelt van progressieve partijen dan van meer conservatieve partijen. Bright.nl wijst er nu op dat diensten als ChatGPT weleens zouden kunnen verrechtsen.

Dat komt omdat het vooral progressieve nieuwssites zijn die blokkades instellen die verhinderen dat generatieve AI toepassingen teksten van deze nieuwssites bijeen schrapen. Zij doen dit om het auteursrecht te beschermen en te voorkomen dat gebruikers toepassingen als ChatGPT, Google Bard of Claude gebruiken voor de nieuwsvoorziening, in plaats van de nieuwssites zelf. Daardoor voeden deze toepassingen zich nu vooral met teksten van rechtse websites of zelfs extreem-rechtse websites. Deze laatste websites bevatten bovendien veel desinformatie. Uiteraard duurt het een tijdje voordat de hoeveelheid (extreem-)rechtse informatie dominant is, maar toch.

Het gevolg is dat generatieve AI-toepassingen bij ingewikkelde en politiek-gevoelige onderwerpen zoals migratie standpunten kan innemen op basis van (extreem-)rechts gekleurde informatie. Dat is bepaald niet de bedoeling van progressieve nieuwssites, schrijft Bright.nl.

Gebruikers zullen zich daar ook vaak niet van bewust zijn, net zo min als dat men nu dankzij sociale media onbewust een bepaalde bubbel wordt ingezogen. Ook ben je als gebruiker niet altijd in staat om te achterhalen waar toepassingen als ChatGPT zich op baseren.

Een logische reactie is om vooral te hameren op en te investeren in digitale geletterdheid. Mensen moeten zich bewust zijn van de werking van generatieve AI en weten dat deze toepassingen bevooroordeeld kunnen zijn, zeker rond onderwerpen als racisme of inclusie. Toepassingen als Google Bard zijn eigenlijk niet bedoeld om objectieve informatie over gevoelige onderwerpen op te vragen, al kunnen ze wel onderwerpen vanuit verschillende perspectieven belichten (vooral als je daar expliciet om vraagt).

Toch is dit een ingewikkelde oplossing, getuige ook de problemen rond sociale media en desinformatie.

Op zich snap ik de bezwaren van media tegen het zonder toestemming en zonder bronvermelding vergaren van teksten en afbeeldingen. Van mij mag je ook alle teksten van mijn weblog kopiëren en gebruiken, mits je de bron vermeldt. Maar ik hoef ook niet te leven van mijn blogposts. Ik zou er wel van balen als generatieve AI-toepassingen mijn teksten zouden gebruiken, zonder bronvermeldingen (naar mijn weten is mijn blog nog niet door deze toepassingen ‘ge-scraped‘).

Tegelijkertijd moet ik ook denken aan artsenorganisaties die bij de opkomst van zoekmachines websites lanceerden met betrouwbare informatie over ziektes en behandelwijzen. Zij waren zich er snel van bewust dat mensen toch op zoek gingen naar informatie, ook al was het vaak slimmer om een arts te consulteren. Mensen konden dan maar beter met betrouwbare informatie in aanraking komen, zo meende men. Thuisarts.nl van het Nederlandse Huisartsen Genootschap is daar een goed voorbeeld van.

Je kunt er volgens mij daarom als deskundige en betrouwbare producent van informatie maar beter voor zorgen dat taalmodellen ook jouw data bevatten. Zodat gebruikers een gebalanceerd oordeel over gevoelige kwesties kunnen vellen, als zij een generatieve AI-toepassing gebruiken. Aan bedrijven als OpenAI is dan de schone taak om eindelijk werk te maken van fatsoenlijke bronvermeldingen, en een compensatieregeling voor nieuwsproducenten die daarvan moeten leven. Want het is ook niet in het belang van ontwikkelaars van generatieve AI als hun leveranciers van data failliet gaan.

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.

 

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *