Artificiële intelligentie zal er toe bijdragen dat beslissingen steeds vaker genomen zullen worden door zelflerende machines. Deze ontwikkeling kent de nodige risico’s. Hoe kun je daar mee omgaan?
Fast Moving Targets presenteert vandaag een groot aantal bronnen over artificiële intelligentie, één van de belangrijkste technologische ontwikkelingen van dit moment. Machine learning is onderdeel van artificiële intelligentie.
Bij machine learning nemen computers zelfstandig beslissingen of doen computers voorspellingen op basis van data of ervaringen. Dat deze ontwikkeling ook kwalijke kanten kan hebben, laat John Naish zien in ‘Are computers turning into bigots?’
Voorbeelden negatieve gevolgen
- Een robot van een verzekeringsmaatschappij associeert Naish met Jeremy ’Top Gear’ Clarkson en weigert de auteur daarom een autoverzekering voor een klassieke auto.
- Een vriend van de auteur krijgt geen lening van een bank omdat hij tot een hoge risicogroep behoort. De reden: hij heeft geen recente kredietgeschiedenis. De robot concludeert dat de man te louche moet zijn om te vertrouwen.
- Politiekorpsen gebruiken een robotsysteem dat beslist of mensen die in hechtenis worden genomen een hoog, middelgroot of laag risico lopen op recidive. Het programma bepaalt de hoogte van het risico onder meer op basis van leeftijd, geslacht en postcode. Dergelijke robots beschouwen zwarte mensen twee keer zo vaak als zeer risicovol dan witte mensen.
This is because there are more black offenders than white in the parole population — which civil liberties campaigners argue is due to historical racism by humans, rather than by computers — but nevertheless, the robot can perpetuate and worsen this.
De data waar de robot gebruik van maakt creëert een “spiral of self-fulfilling prediction”, aldus Naish. Postcodes vormen daarbij het alternatief voor ras of armoede. Het gegeven dat zwarte/arme mensen vaker gevangen worden gezet kunnen bias via een zogenaamde ‘runaway feedback loop;’ versterken.
- De politie in Richmond gebruikte Predictive Policing Software om te voorspellen waar de meeste criminaliteit voor zou komen. De criminaliteit in Richmond nam echter toe. Omdat de politie steeds naar hetzelfde gebied werd gestuurd, zag men daar -en niet in andere gebieden- misdaad (kleine misdaden en antisociaal gedrag).
- Deep learning robots worden gebruikt voor het opsporen van belastingfraude door diverse online activiteiten van mensen met elkaar te combineren op basis waarvan een schatting wordt gemaakt van de inkomsten. Die worden weer met belastingaangiften vergeleken.
- In ziekenhuizen worden robots gebruikt om scans te beoordelen en zo radiotherapiebehandelingen te bepalen voor bepaalde kankerpatiënten. De vrees bestaat dat deze robots in de toekomst worden gebruikt om te beslissen over ‘leven en dood’ als besluiten over behandelingen worden genomen onder invloed van bezuinigingen.
Verlies van controle
De auteur wijst alleen op de beperkingen en risico’s van machine learning en concludeert dat robots steeds meer controle krijgen over belangrijke aspecten van ons leven. Werknemers, bijvoorbeeld van een verzekeringsmaatschappij, zijn niet bij machte beslissingen van robots te corrigeren. Mensen controleren en begrijpen de algoritmes niet op basis waarvan geavanceerde computers beslissingen nemen.
Machines beoordelen vaak nog slecht, op basis van onnauwkeurige informatie. Beslissingen op basis van algoritmes kunnen onrechtvaardig en discriminerend uitpakken. Het wordt ook lastig om onjuiste informatie te verwijderen. Hoe meer data robots verwerven, des te meer ‘leren’ zij. Mensen hebben daar weinig grip op.
Once they have been programmed for a particular use — in banks, employment agencies, insurance firms, hospitals or marketing companies, for example — the robots become self-teaching, using swathes of accumulated data to make their own rulings on the lives of individuals.
Bij de politie in Burbank heeft dit ook geleid tot minder gemotiveerde medewerkers.
Aanbevelingen
- Het artikel bevat de aanbeveling om regulerend toezicht in te stellen op experimenten. Onderzoek of vooroordelen niet worden versterkt.
- Verder zouden burgers beschermd moeten worden door wetgeving. Van de nieuwe Algemene Verordening Gegevensverwerking hoeven we in dezen niet veel te verwachten. Volgens John Naish schiet deze verordening tekort om burgers te beschermen. Deze wet heeft geen duidelijk omschreven rechten en waarborgen tegen geautomatiseerde besluitvorming. Wat dat betreft is deze AVG tandeloos.
- Je kunt geen verklaring vragen aan een robot die denkt op een manier die mensen kunnen begrijpen. Sommige toepassingen zou je moeten verbieden.
Daar kun je natuurlijk ook een laatste aanbeveling uit destilleren. Investeer in de deskundigheid om machine learning te doorgronden.
This content is published under the Attribution 3.0 Unported license.
Geef een reactie