AI klantenservice - Kunstmatige Intelligentie

Kunstmatige Intelligentie (AI) en gevolgschade voor burgers

Kunstmatige Intelligentie (AI) heeft steeds meer invloed op de burger. Gewild en ongewild. In bijvoorbeeld de klantenservice,  de financiële markten en op de werkvloer. Maar AI zorgt ook voor andere, grote, problemen. Bijvoorbeeld zelfmoord onder jongeren. Misbruik van eenzaamheid. Wie is verantwoordelijk voor de gevolgen van onbetrouwbare informatie van AI-systemen?

De opkomst van AI heeft een groot risico in zich op het gebied van betrouwbare, relevante, informatievoorziening. In een recent artikel schreef de SIDN ondermeer:

“Tussen september 2023 en september 2025 nam het bereik van AI-tools exponentieel toe in alle leeftijdsgroepen. Inmiddels gebruikt meer dan de helft van alle Nederlanders minimaal eens per maand een AI-tool. [..] Uit cijfers van GfK blijkt dat het gebruik van AI-tools sinds 2023 explosief is gestegen, vooral onder jongeren. ChatGPT is met afstand de dominante speler, gevolgd door Copilot (Microsoft) en Gemini (Google). [..] AI-gebruik correleert met een daling in het bezoek aan .nl-domeinnamen, waaronder ook alle belangrijke overheidsdomeinen. Vooral jongeren (13-24 jaar) en mobiele gebruikers laten een sterke afname zien.”

Het grote risico van de AI-samenvattingen van Google (Gemini) en informatie van ChatGPT is dat het een ongecontroleerde samenvattingen en informatie zijn welke soms ook niet de meest relevante, laat staan nieuwe, gegevens of informatie bevat.

Dit is ook een flinke uitdaging voor overheden. Want hoe zorg je dat mensen de juiste informatie wél te zien krijgen?

Het doel van Google is om mensen zo lang mogelijk op hun eigen site te houden en niet door te sturen naar de bron van hun informatie. Google gaf onlangs toe dat hun informatie met enige regelmaat niet betrouwbaar is. Al was het maar omdat zij het uit allerlei bronnen verzamelen, en niet van een betrouwbare deskundigen, en dit samenvatten tot “eigen” informatie.

Gevolgschade voor burgers

Dit kan consequenties hebben voor de gebruikers van deze AI-informatie. Wat als ze bijvoorbeeld op basis van informatie van ChatGPT of Google Gemini (te) laat of niet gegevens inleveren bij een gemeentelijke overheid of rijksdienst? Wat als zij gezondheidsadviezen van deze systemen overnemen welke ondeugdelijk zijn? Wie is verantwoordelijk voor deze informatie en de effecten van het toepassen er van? Om over de tragische zelfmoordgevallen maar te zwijgen.

Daarnaast is er ook de gevolgschade op het gebied van inkomensverlies. Wie vervangen wordt door een softwareproramma is niet alleen bij de eigen werkgever overbodig; dit programma of de functionaliteit wordt uiteraard ook elders ingezet. Thuis op de bank met een WW-uitkering.. veroorzaakt door AI. En met een beetje pech kom je nooit weer aan het werk en rol je de bijstand in. Als je die al krijgt want wanneer je partner een baan heeft boven bijstandsniveau of je enig “vermogen” hebt gespaard krijg je helemaal niets. Probeer dan je hypotheek nog maar eens te betalen?

Belangrijke vragen en problemen die hoognodig beantwoord moeten worden. Ik zou niet weten hoe. Maar hier ligt een uitdaging voor de overheid. Zij móeten regels stellen en de AI-producenten als Google en ChatGPT op zijn minst juridisch verantwoordelijk stellen voor gemankeerde informatie en de ‘gevolgschade’ er van.

Delen op: