Afgelopen dagen ontkwam je er waarschijnlijk niet aan: de discussie rondom kunstmatige intelligentie (KI) en de vraag of KI straks onze banen overneemt. Wappies zullen het misschien wel hebben over de vernietiging van de mensheid door KI. Van een brandbrief van AI-experts die oproepen tot het inlassen van een pauze op KI tot Geoffrey Hinton, een voortrekker van KI die stopte bij Google zodat hij zich kon uitspreken over KI, tot experts die in talkshows aangeven dat KI juist de oplossing is voor vele problemen in de samenleving. Allemaal schetsen zij een ander beeld van de implicaties van KI en iedereen moet er zo nodig een plasje over plegen, zoals dat gaat in Nederland. Zodoende voel ook ik de noodzaak om hier iets over te zeggen, maar dan vanuit een ethisch-filosofisch perspectief, aangezien ik van mening ben dat die inzichten juist missen, maar uiterst cruciaal zijn voor het verdere verloop van de verwevenheid tussen KI en de mens.
Hoe KI werkt
Om te beginnen: Hoe werkt KI? Tegenwoordig leven wij in de tijd van big data; grote, uitgebreide en complexere datasets, afkomstig uit data- en nieuwsbronnen, waaruit computersystemen snel en effectief informatie kunnen ontvangen, verwerken, opslaan en toepassen. Denk aan archiefdatabanken, persoonsgegevens en de voorkeuren van bepaalde groepen. Het verwerken van deze informatie is gebaseerd op basis van ‘regels’ (coding) die menselijke programmeurs in de computer voeren, zodat informatie gerangschikt en gefilterd wordt. Hiervan wordt een algoritme gemaakt, waardoor KI zelfstandig keuzes en beslissingen kan maken. Ofschoon, om ervoor te zorgen dat KI een gezicht kan herkennen voor een Snapchat-filter, moet het algoritme eerst ontzettend veel gezichten analyseren om een patroon te vinden en te herkennen, zodat het kan bepalen wanneer bepaalde pixels bij elkaar een gezicht zijn. Trainen en falen (trial and error) is daarmee cruciaal voor het leren en verbeteren van KI.
Het vinden van patronen, het koppelen van data aan de juiste situatie of gewenste uitkomst en het creëren van een algoritme is dus de bron van het succes van KI. KI is namelijk een statistische reflectie van de dataset die gebruikt is als input voor het gebruikte systeem. Heb jij vaak genoeg aangegeven dat een mail in je inbox spam bevat, dan leert de spamfilter van jou of van de database wat wel of niet signalen van spam zijn. Heb jij op Spotify tien keer achter elkaar naar ‘Waka Waka’ van Shakira uit 2010 geluisterd, dan krijg jij in je aanbevolen liedjes nog meer hits van Shakira of uit datzelfde jaar. Soms erg handig, maar misschien niet zo fijn voor jouw huisgenoten die van hetzelfde account gebruik maken.
Wat is dan het probleem?
Okay, allemaal leuk en aardig, zou je denken, maar wat is er nou precies het probleem? Het is toch cool dat je met KI zelfrijdende auto’s kan maken waardoor het verkeer veiliger wordt? Het is toch mooi dat dankzij KI er een beter bestralingsplan voor hoofd- en halskanker gerealiseerd kan worden? Uiteraard, kunstmatige intelligentie heeft de potentie om de mensheid veel goeds te brengen. Toch ben ik bang dat wij momenteel nog niet helemaal klaar zijn voor alles wat ermee mogelijk is en wat het uiteindelijk kan. Dat wil zeggen: er moet nog meer gedelibereerd worden over KI, wat wij ermee willen en wat de implicaties ervan zijn, willen wij meer ruimte geven aan KI in ons leven.
Data
Een van de eerste, en naar mijns inziens meest fundamentele problemen van KI is dat het gebaseerd is op een veelvoud aan informatie die opgeslagen is in datasets. Naast dat het opslaan van data erg kostbaar is en veel energie vereist, is de input van datasets afkomstig van de mens. ImageNet bijvoorbeeld, opgezet in 2009 door de Amerikaanse computerwetenschapper Li van Stanford University, is een database waarbij mensen handmatig foto’s labelen, waardoor een bepaalde classificatie werd toegekend aan afbeeldingen. Identificeert de mens een kat, dan kreeg deze foto een label als ‘dier’, ‘kat’, ‘poes’, ‘schattig’ en ‘miauw’. Op basis hiervan leert de computer zelf bepalen op welke afbeelding een kat te zien is om plaatjes beter te kunnen identificeren. Het eerste probleem hiermee is dat er heel gemakkelijk blinde vlekken en vooroordelen (biases) de dataset insluipen. Een plaatje van een getinte man met een baard kan door de één worden aangemerkt als ‘hipster’ en door de ander als ‘terrorist’. Daarnaast blijkt KI vrij wit-georiënteerd te zijn. Mensen van kleur worden niet herkend door KI-camera’s, doordat databases niet voldoende informatie over mensen van kleur bezitten. Hiermee kunnen KI-gedreven medische diagnoses verkeerd uitpakken of inaccuraat zijn en kan dit ook nog de samenleving polariseren. Denk ook aan bepaalde informatie voorschrijven aan mensen van een bepaalde postcode, wat zelfs het democratische bestel kan beïnvloeden. Woon jij in Urk, dan zorgt KI ervoor dat jij enkel extreem rechtse politieke partijen te zien krijgt, omdat daar op jouw postcode vaak naar gezocht wordt.
Marge
Het tweede probleem dat ik voorzie, bevindt zich op het gebied van beeldherkenning, waarbij er sprake is van een bepaalde zekerheidsmarge. Denk maar aan de statistische reflectie van de dataset waarop de input is gebaseerd; het is 53% zeker dat een afbeelding een foto van een vrouw is, maar door de marge aan te passen kan het algoritme op de proef gesteld worden. Kan KI namelijk wel de grens tussen wat geclassificeerd wordt als ‘man’ en ‘vrouw’ onderscheiden? Om nog maar te zwijgen over een diepgaander debat hierover. Door KI gedreven en geautomatiseerde gezichtsherkenning bij grenzen of op openbare plekken kan dat consequenties hebben op voornamelijk persoonlijk niveau.
Black box
Ten derde ben ik kritisch op de manier waarop er keuzes gemaakt worden door KI op het gebied van transparantie en verantwoordelijkheid. Deze resultaten die een machine genereert op basis van KI verkeren namelijk in een zogeheten black box. Machine learning-systemen kunnen namelijk niet verklaren hoe ze tot een voorspelling zijn gekomen. Programmeurs weten niet of nauwelijks op basis waarvan bepaalde keuzes en uitkomsten van KI komen en men kan niet direct interveniëren in het proces. Zeker omdat de machine met KI zelflerend is en daarmee steeds autonomer wordt. Sterker nog, wanneer datasets al vooroordelen bevatten, wordt het nóg moeilijker te achterhalen waarom KI kiest wat het kiest. Dit heeft duidelijke implicaties voor beeldvorming, het referentiekader en kan sociaal-politieke opinies beïnvloeden.
Tevens hangt de vraag wie er precies verantwoordelijk is, boven ons hoofd. Als een zelfrijdende auto een verkeerde beslissing maakt, wie is dan aansprakelijk? Is dat de programmeur van de zelfrijdende auto, degene die de auto bestuurd of de auto zelf? In hoeverre heeft de programmeur nog invloed op de uitkomsten die de zelfrijdende auto genereerd? Hoeveel macht heeft de bestuurder zelf om bijvoorbeeld in te grijpen. Wie overruled wie? Hoe houdt je een zelfrijdende auto verantwoordelijk en kan deze bestraft worden voor wat ‘ie doet?
Deze responsibility gaps spelen dus ook een aanzienlijke rol in het toelaten van KI-gedreven apparaten en machines. Op het eerste oog lijkt een zelfrijdende auto een perfecte uitkomst om het verkeer veiliger te maken, maar er komen veel meer filosofische vraagstukken bij kijken.
Wereldse implicaties
Ik wil jullie mogelijke vreugde omtrent wat KI kan doen echt niet wegnemen, maar er zijn meer bezwaren. Als je het licht aan wil doen, maar te lui bent om op te staan, kan je Google Home gebruiken om dat voor je te doen. Door te zeggen dat je het licht aan wil, wordt er een server ergens op de planeet geactiveerd die middels KI jouw commando omzet in het verlichten van jouw kamer. Handig en knap, maar toch ben ik hier kritisch over vanuit ethische overweging. Google Home en de server die verbonden is met jouw lamp, heeft mineralen en metalen nodig, zoals lithium, om de chips te maken. Hiervoor worden weer duizenden bedrijven ingeschakeld, ten koste van arme mensen in mijnen in bijvoorbeeld Congo. Zij werken in principe dag en nacht, voor een hongerloontje, om jouw lamp uiteindelijk aan en uit te zetten. Doordat Alexa zo snel en efficiënt werkt, sta je er eigenlijk niet bij stil. En dat is juist het probleem. Jouw luiheid gaat ten koste van niet alleen mensenlevens, maar ook van grondstoffen en zorgt voor de verarming van de aarde.
Hopelijk heb je iets meer geleerd over KI; wat het is, hoe het werkt, wat het kan en wat de ethisch-filosofische implicaties ervan zijn. KI is geen alwetende kracht, maar een rekenkundige truc. Het wordt door data via mensen gevoed, maar kan uiteindelijk zelfstandig beslissingen maken. De technologische ontwikkelingen laten wij over aan een beperkt aantal met winstoogmerk-gedreven tech-bedrijven, zonder dat zij ethische vragen stellen en kijken naar de sociale implicaties.
Dit betekent niet dat je helemaal back to basic moet en met een hutje op de hei moet zitten om alle mogelijke schade te vermijden, maar het is wel van belang dat je er in ieder geval bewust van bent.
Wil je meer leren over KI en de ethiek erachter? De UU biedt het vak Ethics of Technology aan. Dit vak is toegankelijk voor niet-filosofen en geeft voldoende ruimte voor interessante debatten en nieuwe inzichten.
Bibliografie
Heaven, W. D. (8 juni 2023). Google DeepMind’s game-playing AI just found another way to make code faster. MIT Technology Review. https://www.technologyreview.com/2023/06/07/1074184/google-deepmind-game-ai-alphadev-algorithm-code-faster/
Nuyts, S. (4 december 2019). Beter bestralingsplan voor hoofd- en halskanker dankzij artificiële intelligentie. UZ Leuven. https://www.uzleuven.be/nl/nieuws/beter-bestralingsplan-voor-hoofd-en-halskanker-dankzij-artificiele-intelligentie
Vijgen, R. (14 februari 2022). Kijken naar de toekomst door kunstmatige ogen. VPRO. https://www.vpro.nl/programmas/tegenlicht/lees/artikelen/2022/kijken-naar-de-toekomst.html
Vreeman, J.C. (15 maart 2023). ProtoTree: het black box-karakter van deep learning-modellen aanpakken. Universiteit Twente. https://www.utwente.nl/nieuws/2021/6/1093748/prototree-het-black-box-karakter-van-deep-learning-modellen-aanpakken
Average Rating