AI aansprakelijkheid: wie betaalt als je chatbot een fout maakt?
AI aansprakelijkheid: wie betaalt als je chatbot een fout maakt?
Je chatbot geeft een klant verkeerd advies. Je AI-tool stuurt een offerte met de verkeerde prijs. Je geautomatiseerde planning zet drie monteurs op dezelfde klus. Wie is er dan verantwoordelijk - jij, de softwareleverancier, of "de AI"?
Het is een vraag die steeds meer MKB-ondernemers bezighoudt. En met de EU AI Act die sinds 2025 stapsgewijs van kracht is, is het geen theoretische kwestie meer.
De EU AI Act: wat je moet weten
De Europese AI-verordening is de eerste uitgebreide AI-wet ter wereld. Sinds februari 2025 gelden de eerste verboden, en in de loop van 2026 worden steeds meer regels van kracht. De wet deelt AI-systemen in op risico:
- Onacceptabel risico: verboden (denk aan sociale scoring, manipulatieve AI)
- Hoog risico: strenge eisen (medische diagnose, kredietbeoordeling, HR-selectie)
- Beperkt risico: transparantieverplichting (chatbots moeten melden dat ze AI zijn)
- Minimaal risico: geen extra regels
De meeste AI-tools die MKB'ers gebruiken - chatbots, planningstools, geautomatiseerde e-mail - vallen in de categorie beperkt of minimaal risico. Maar dat betekent niet dat je nergens verantwoordelijk voor bent.
Jij bent de gebruiksverantwoordelijke
Hier zit de crux: de AI Act maakt onderscheid tussen de aanbieder (wie de AI bouwt) en de gebruiksverantwoordelijke (wie de AI inzet). Als jij een chatbot op je website plaatst, ben jij de gebruiksverantwoordelijke. Dat brengt verplichtingen met zich mee:
- Transparantie: Je moet klanten vertellen dat ze met AI communiceren
- Toezicht: Je moet de output controleren en ingrijpen bij fouten
- AI-geletterdheid: Sinds 2025 ben je verplicht om te zorgen dat je team begrijpt hoe de AI werkt
Die laatste is nieuw en wordt nog vaak onderschat. AI-geletterdheid is geen vaag advies - het staat letterlijk in de wet. Je medewerkers moeten begrijpen wat de AI doet, waar de beperkingen liggen en wanneer ze moeten ingrijpen.
Drie scenario's die misgaan
1. De chatbot die te veel belooft
Een installatiebedrijf zet een AI-chatbot in voor klantvragen. De bot belooft een klant dat een warmtepomp-installatie "binnen twee weken" geregeld is. In werkelijkheid is de levertijd zes weken. De klant houdt het bedrijf aan de belofte.
Wie is aansprakelijk? Het installatiebedrijf. De chatbot is jouw vertegenwoordiger. Wat de bot zegt, zeg jij. Net zoals je verantwoordelijk bent voor wat een medewerker aan de telefoon belooft.
2. De AI die verkeerde prijzen stuurt
Een groothandel automatiseert offertes met AI. Door een fout in de productdata genereert het systeem offertes met prijzen die 40% te laag zijn. Drie klanten accepteren de offerte voordat het wordt ontdekt.
Wie is aansprakelijk? Hangt ervan af. Als de AI-tool een bug had, kun je de aanbieder aanspreken. Maar als de fout in jouw productdata zat, ben je zelf verantwoordelijk. In de praktijk: je levert toch, of je onderhandelt. Maar de schade is voor jou.
3. De geautomatiseerde afwijzing
Een recruiter gebruikt AI om cv's te screenen. De tool wijst systematisch kandidaten boven de 50 af zonder duidelijke reden. Een afgewezen sollicitant stapt naar de rechter.
Wie is aansprakelijk? De recruiter als gebruiksverantwoordelijke. CV-screening met AI valt onder de AI Act als hoog-risico toepassing. Hier gelden strenge eisen voor transparantie, menselijk toezicht en non-discriminatie.
Hoe je je als MKB'er beschermt
Je hoeft geen juridisch team in te huren. Maar je moet wel een paar basismaatregelen nemen:
1. Stel grenzen aan wat je AI mag doen
Laat je chatbot geen harde beloftes doen over levertijden, prijzen of garanties. Bouw fallbacks in: "Voor een exacte prijs neem ik contact met je op." Dat is geen beperking - het is professioneel.
2. Controleer de output
"Set and forget" werkt niet met AI. Check regelmatig wat je AI-tools produceren. Lees de chatgesprekken. Bekijk de gegenereerde offertes. Het kost een half uur per week en voorkomt duizenden euro's aan problemen.
3. Train je team
AI-geletterdheid is verplicht, maar het is ook gewoon slim. Zorg dat iedereen die met AI-tools werkt begrijpt:
- Wat de tool wel en niet kan
- Wanneer ze moeten ingrijpen
- Hoe ze fouten herkennen en melden
4. Leg vast wat je doet
Documenteer welke AI-tools je gebruikt, waarvoor, en welke maatregelen je neemt. Als er ooit een klacht komt, wil je kunnen laten zien dat je zorgvuldig hebt gehandeld.
5. Check je leverancier
Vraag je AI-leverancier: voldoet het systeem aan de AI Act? Welke risicocategorie? Welke documentatie leveren ze? Een betrouwbare leverancier heeft hier antwoorden op.
Het goede nieuws
De AI Act is geen strafwet die MKB'ers het leven zuur wil maken. Het is een kwaliteitsstandaard. Bedrijven die AI goed implementeren - met de juiste guardrails, menselijk toezicht en transparantie - hebben niets te vrezen. Sterker nog: ze onderscheiden zich van concurrenten die AI roekeloos inzetten.
De boetes voor overtredingen kunnen oplopen tot 35 miljoen euro of 7% van de omzet. Maar die zijn gericht op ernstige schendingen door grote partijen. Voor MKB'ers is het veel relevanter om civiele aansprakelijkheid te voorkomen: klanten die je aanspreken op fouten van je AI.
Conclusie: AI inzetten is niet het risico - AI negeren wel
De bedrijven die nu nadenken over aansprakelijkheid en hun AI-implementatie serieus nemen, zijn straks de bedrijven die het vertrouwen van hun klanten winnen. Niet omdat ze geen AI gebruiken, maar omdat ze het goed doen.
Wil je weten of jouw AI-tools aan de regels voldoen? Of wil je AI inzetten met de juiste guardrails vanaf dag een? Doe de gratis AI-Scan en ontdek waar de kansen liggen - zonder de risico's.
Benieuwd wat AI voor jouw bedrijf kan doen?
Vraag een gratis AI-Scan aan en ontdek de mogelijkheden.
Gratis AI-Scan Aanvragen