Een arts vertrouwt op een algoritme dat een tumor mist.
Een AI-assistent bestelt een product dat nooit had mogen worden gekocht.
Een zelfrijdende auto reageert te laat.
De technologie is indrukwekkend, maar de vraag blijft pijnlijk simpel: wie draait op voor de schade? Een erg leuke vraag uit het publiek, die ik afgelopen week kreeg bij het geven van een keynote.
In de praktijk blijken het zelden de algoritmes te zijn die de rekening krijgen, maar de mensen en organisaties eromheen. De arts, de bank, de ontwikkelaar, of de gebruiker die op ‘akkoord’ klikte zonder de kleine lettertjes te lezen.
Volgens een wereldwijd onderzoek van Riskified gebruikt inmiddels 70% van de consumenten AI tijdens hun aankoopproces. Toch blijft onduidelijk wie aansprakelijk is als een AI-assistent een verkeerde bestelling plaatst of een fraudeur nadoet. In sectoren als zorg en financiën kan zo’n fout niet alleen geld, maar ook levens kosten.
In de zorg groeit de juridische onrust. De American Medical Association waarschuwt dat artsen in de toekomst mogelijk juist aansprakelijk worden gesteld als ze géén AI gebruiken, omdat dat als nalatig kan worden gezien. Dat creëert een wrange paradox: artsen die AI negeren kunnen worden aangeklaagd, maar ook artsen die AI volgen als het misgaat.
Ook in Europa schuift de verantwoordelijkheid tussen partijen. De nieuwe AI Act beschouwt AI-systemen als producten en legt de nadruk op de menselijke factor: de organisatie die de technologie inzet blijft verantwoordelijk. Toch blijft veel onduidelijk. De richtlijn die specifiek over aansprakelijkheid moest gaan, werd in 2025 ingetrokken na politieke onenigheid.
Bedrijven proberen ondertussen het risico te verleggen. OpenAI biedt klanten bijvoorbeeld een ‘copyright shield’ aan: ze betalen de advocaatkosten als het misgaat, maar niet de schade. Microsoft en Google hanteren vergelijkbare constructies. Of dat moreel houdbaar is, betwijfel ik.
Rechters staan nog aan het begin van dit juridische doolhof. In een Amerikaanse zaak waarin ChatGPT iemand ten onrechte van fraude beschuldigde, wees de rechter de aanklacht af, omdat AI “niet bewust kan liegen”. Een uitspraak die de vraag oproept: als de machine niet kan liegen, kan de mens achter de machine dan ook niet verantwoordelijk worden gehouden?
Technologie ontslaat in mijn optiek niemand van morele verantwoordelijkheid. De fout zit niet in de code, maar in de keuzes die mensen maken over hoe ze AI ontwerpen, testen en gebruiken. AI mag dan slimmer worden, maar aansprakelijkheid blijft voorlopig menselijk werk.