De Europese toezichthouder EIOPA heeft een opinie uitgebracht over het verantwoord gebruik van kunstmatige intelligentie (AI) in de verzekeringssector. AI biedt kansen voor bijvoorbeeld snellere claimafhandeling, nauwkeuriger risicobeoordelingen en betere fraudedetectie. Tegelijkertijd brengt het ook risico’s met zich mee, zoals gebrek aan transparantie, mogelijke discriminatie en verhoogde cybersecuritydreigingen. EIOPA geeft in deze opinie richting aan hoe verzekeraars en intermediairs AI veilig en klantgericht kunnen toepassen.
Opinie EIOPA
EIOPA’s opinie richt zich op AI-systemen in verzekeringen die níet onder de categorie “verboden” of “hoog risico” vallen volgens de AI-verordening (AI Act). Voor deze systemen geldt dat bestaande wetgeving zoals de Solvency II-richtlijn, de Insurance Distribution Directive (IDD) en de Digital Operational Resilience Act (DORA) leidend blijft.
De kernboodschap van EIOPA is dat verzekeraars en tussenpersonen een risicogebaseerde en proportionele aanpak moeten hanteren. Dat begint met een impactanalyse van het AI-systeem, waarin onder meer de schaal van dataverwerking, de gevoeligheid van gegevens, de impact op klanten (inclusief kwetsbare groepen) en de mate van autonomie worden meegenomen.
Belangrijke pijlers in het voorgestelde governance- en risicobeheerkader zijn:
- Eerlijkheid en ethiek: zorg dat AI-besluiten in lijn zijn met klantbelang en vermijd bias.
- Datagovernance: borg kwaliteit, volledigheid en juistheid van data, inclusief data van derden.
- Documentatie: leg ontwerp, gebruikte data, keuzes en beperkingen van AI vast voor audit en toezicht.
- Transparantie en uitlegbaarheid: leg zowel intern als richting klanten begrijpelijk uit hoe AI-besluiten tot stand komen.
- Menselijk toezicht: definieer duidelijke rollen, verantwoordelijkheden en escalatieprocedures; bestuur en sleutelpersonen moeten kennis hebben van AI-toepassingen.
- Nauwkeurigheid, robuustheid en cybersecurity: test en monitor AI-systemen voortdurend en bescherm tegen manipulatie of dataverlies.
EIOPA benadrukt dat deze maatregelen proportioneel moeten worden toegepast: hoe groter de mogelijke impact, hoe strenger de beheersmaatregelen.
EIOPA stelt dat het verantwoord gebruik van AI geen optionele inspanning is, maar een integraal onderdeel van governance en compliance binnen de verzekeringsketen. Ook systemen die buiten de hoog-risicocategorie vallen, moeten worden beheerst met bestaande wettelijke kaders als leidraad. Transparantie, klantbelang en een zorgvuldige omgang met data zijn daarbij cruciaal.
Wat kunt u doen?
Als u AI wilt toepassen bij een verzekeringsproduct of -dienst, maak dan een zorgvuldige risicoanalyse. Op de website van EIOPA staat een Impact assessment die hiervoor goed bruikbaar is. Combineer deze met de risicoanalyse vanuit de AVG en de verplichting vanuit de Wft om te zorgen dat verzekeringsproducten en -diensten altijd in het belang van de klant zijn (Product Oversight Governance). Beoordeel tenslotte of er sprake is van advisering; als dat zo is, moeten ook gekwalificeerde adviesmedewerkers de toepassing beoordelen.
Wat kan SVC voor u doen?
SVC kan financieel dienstverleners helpen bij specifieke compliancevraagstukken over AI, ethiek en privacy. Wij bieden ondersteuning bij het opstellen van risicoanalyses, het implementeren van datagovernance en het inrichten van AI-beheerprocessen in lijn met wet- en regelgeving. Wilt u meer informatie? Neem dan contact met ons op.