Home » Actueel » Kunstmatige intelligentie en de maatschappij

Kunstmatige intelligentie en de maatschappij

“Een kunstmatige intelligentie oplossing kan leiden tot emotionele en daardoor ook morele afstand van het vraagstuk dat wordt behandeld”

Gemeenten gaan voor maatschappelijk verantwoord ondernemen (MVO), dit is verantwoord omgaan met milieu, mensen en maatschappij. Het gebruik van kunstmatige intelligentie, zelfstandig of via diensten en producten van andere bedrijven kan haaks op maatschappelijke verantwoord ondernemen staan. Werken met data, kunstmatige intelligentie en algoritme vraagt ontzettend veel energie en grondstoffen. Daarnaast heeft het naast privacy ook veel gevolgen voor mensen en de maatschappij.

In een drieluik wordt kunstmatige intelligentie belicht in relatie tot de thema’s milieu, mens en maatschappij. Wat zijn de risico’s en welke maatregelen kan een gemeente treffen om wel maatschappelijk verantwoord te ondernemen?

In dit artikel: kunstmatige intelligentie en de maatschappij.

Maatschappij

Kunstmatige intelligentie zorgt voor nieuwe vragen in onze informatiesamenleving. Bij de inzet van digitale technologie als kunstmatige intelligentie kan dit de publieke waarden raken van onze maatschappij. Het Rathenau Instituut signaleert dat o.a. de volgende twee publieke waarden worden geraakt door de inzet van kunstmatige intelligentie: ‘Controle over technologie’ en ‘Menselijke waardigheid’.

Controle over technologie

Zelflerende algoritmes volgen geen vooraf bepaalde set van regels maar maken gebruik van zelflerende statistische technieken. Daardoor kunnen de beslissingen die een algoritme maakt voor de mens ondoorgrondelijk worden. Met die toenemende automatisering rijst de vraag hoe er controle en toezicht gehouden kan worden op systemen en de overheid. Wanneer algoritmen geen rekening houden met onvoorziene situaties, zoals een oorlog of een virus die plotseling het land stil legt, kan dat dus tot onwenselijke gevolgen leiden. Een goed voorbeeld is het gebruik van algoritmen voor economische voorspellingen, als een oorlog of een pandemie plotseling uitbreekt, kunnen deze gebeurtenissen leiden tot grote veranderingen in de economie die niet worden voorspeld door de algoritmen. Dit kan leiden tot verkeerde voorspellingen en beslissingen die nadelig zijn voor bedrijven en individuen.

In 2023 start de Nederlandse overheid met een Landelijk Algoritmeregister, het register is een overzicht van de algoritmen die landelijke en decentrale overheden gebruiken bij hun dienstverlening. Per algoritme kan een inwoner of onderneming algemene informatie over de bedoeling en werking van het algoritme vinden. Op deze wijze kan ook feedback worden gegeven op het algoritme en mogelijke bias worden opgespoord. Daarnaast staat er meer gedetailleerde technische informatie. Het register is nog in ontwikkeling, maar wij sporen u aan om alvast actie te ondernemen, zie ook het artikel Wacht niet langer, we zijn al laat?

Menselijke waardigheid

Een kunstmatige intelligentie oplossing kan leiden tot emotionele en daardoor ook morele afstand van het vraagstuk dat wordt behandeld. De output uit het systeem in cijfers of een advies staat zwart op wit, de werkelijkheid is meer complex en kent meer variabelen en mensen dan het algoritme toelaat. Mocht een ambtenaar, door welke reden dan ook, uit het oog verliezen wat de implicatie is van een uitkomst in het systeem, kan het ongewenst veel schade aanrichten. Kortom, de gebruiker van een algoritme moet niet blind varen (of onder strenge condities) op het gegeven uit het model, maar altijd zelf de context erbij zoeken om onwenselijke situaties te voorkomen.

Neem bijvoorbeeld een ambtenaar die fraudezaken bekijkt door de ogen van een kunstmatige intelligentie oplossing. Zijn beslissing baseert hij zonder de context van de inwoners. Wanneer deze ambtenaar bijvoorbeeld een verzoek, subsidie of vergunning afwijst ziet hij niet wat de verdere gevolgen zijn van zijn actie op de directe persoon of personen die afhankelijk zijn van de directe persoon. Een persoon kan zonder werk komen te zitten, kinderen kunnen niet naar school, iemand met zorgbehoefte wordt niet geholpen. Misschien is het probleem van fraude verholpen, maar het vervolgvraagstuk is wellicht veel groter op de lange termijn.

De volgende stap kan zijn dat kunstmatige intelligentie alleen de beslissing neemt en de verantwoordelijke persoon uit het proces wordt gehaald. Op deze wijze kan de afstand tussen inwoners en de gemeente nog groter worden en is er minder oog voor de situatie van de inwoner.

Bewustzijn en gedeelde verantwoordelijkheid

De inzet van algoritme is een gedeelde verantwoordelijkheid waarbij zowel de politieke organisatie als de ambtelijke organisatie betrokken hoort te zijn. Kies daarom een gezamenlijk proces of methodiek om vooraf ethische vraagstukken van nieuwe algoritmen te bediscussiëren. Iedereen moet er over kunnen meepraten. Hiervoor is bewustzijn essentieel. Alle stakeholders zullen op de hoogte moeten zijn van de risico’s en kansen bij het gebruik van datagedreven besluitvormingen. Tegenwoordig zijn er veel instrumenten beschikbaar en bijeenkomsten die gemeenten zelf organiseren, denk aan:

  • data-awareness dag;
  • datagame;
  • data-vaardigheid assesment.

Ook landelijk zijn er steeds meer initiatieven en ontwikkelingen waar individuen of gemeenten kunnen aansluiten:

En denk aan tools die hierbij helpen om deze ethische afwegingen te maken:

Het laatste artikel

De boodschap van deze artikelenreeks is dat de inzet van kunstmatige intelligentie goed afgewogen moet worden tot de maatschappelijke waarden waar een gemeente voor staat. Mocht u nog aanvullende informatie willen of heeft u iets toe te voegen, dan vernemen wij dat graag.

Bronnen

Meer weten?

Voor meer informatie kunt u contact opnemen met Roel Ottens via telefoonnummer: 06 50 43 15 77 of via e-mail: r.ottens@telengy.nl.