Overslaan naar hoofdinhoud

Navigeren door de AI Act

Compliance en strategische kansen voor financiële instellingen

De AI Act van de EU is het eerste allesomvattende op risico gebaseerde regulatory voor AI in alle sectoren en stelt normen op voor AI-systemen met een hoog risico (HRAIS) en AI-modellen voor algemene doeleinden (GPAIM), die beide van cruciaal belang zijn voor financiële instellingen (FI's).

Meer informatie over Responsible AI Responsible AI

Compliance AI Act voor financiële instellingen: Belangrijkste verplichtingen en rollen

HRAIS omvat kritieke toepassingen zoals kredietscores, fraudedetectie en risicobeheer. Deze systemen beïnvloeden de financiële toegang en het consumentenvertrouwen. FI's die deze systemen gebruiken, hebben te maken met strenge verplichtingen, zoals risicobeoordelingen, transparantie en governance.

De specifieke verplichtingen van een FI onder de AI Act hangen af van de rol die de FI vervult, zoals aanbieder, uitroller, distributeur of importeur. Als FI's meerdere rollen vervullen, moeten ze voldoen aan alle eisen voor elke rol.

Voor GPAIMs gelden aanvankelijk transparantie- en governancenormen, maar aanvullende HRAIS-verplichtingen treden in werking wanneer modellen worden aangepast voor toepassingen met een hoog risico. Dit zorgt ervoor dat zowel toepassingen voor algemene doeleinden als toepassingen met een hoog risico compliant blijven binnen het raamwerk van de AI Act.

 

Welke belangrijke compliance brengt de AI Act met zich mee voor financiële instellingen?

AI-systemen met een hoog risico onder de AI Act moeten aan strenge eisen voldoen, waaronder verplichte documentatie, risicobeheer, transparantie en monitoring na de implementatie. Om aan deze eisen te voldoen zijn aanzienlijke middelen nodig en het kan een uitdaging zijn voor instellingen met bestaande systemen.

Vooroordelen beperken om eerlijkheid te garanderen in AI-modellen die cruciaal zijn voor beslissingen. Dit vereist niet alleen geavanceerde technische oplossingen, maar ook multifunctionele samenwerking tijdens de gehele AI-levenscyclus met uitgebreid toezicht.

 

Transparantie verwijst naar het zichtbaar en begrijpelijk maken van de algemene werking en het besluitvormingsproces van een AI-systeem, terwijl uitlegbaarheid zich richt op het verduidelijken van individuele beslissingen en uitkomsten. Voor financiële instellingen vormt dit een compliance omdat veel AI-systemen complex en moeilijk te interpreteren zijn, waardoor het moeilijk is om aan te tonen hoe beslissingen worden genomen, te voldoen aan regulatory normen en het vertrouwen van klanten en toezichthouders te behouden.

Effectieve bestuursstructuren implementeren om toezicht te houden en waar nodig actie te ondernemen.

Vereist de toewijzing van middelen en expertise omdat de implementatie van de vereisten van de AI Actgespecialiseerde vaardigheden vereist op het gebied van AI-ethiek, compliance, datawetenschap en risicobeheer. Daarnaast gaat het om integratie met governancestructuren en complexe classificatie en risicobeoordeling van AI-systemen, met name op het gebied van kredietscores, fraudedetectie en financieel advies.

Instellingen moeten nu al beginnen met de voorbereidingen om ervoor te zorgen compliance ze op tijd compliance en strategisch afgestemd zijn op hun AI-initiatieven.

  • Vanaf 2027: Regelmatige evaluaties en herzieningen.

De Commissie zal de AI Act regelmatig evalueren en herzien om ervoor te zorgen dat deze wordt aangepast aan nieuwe AI-innovaties, opkomende risico's en wereldwijde normen.

  • Eind 2026: Zandbakken Regulatory in de praktijk.

Van de lidstaten wordt verwacht dat ze tegen die datum ten minste één regulatory op nationaal niveau hebben opgezet.

  • Augustus 2026: Volledige compliance voor AI-systemen met een hoog risico.

Tegen die tijd moeten organisaties aantonen dat ze voldoen aan de wet, inclusief robuust risicomanagement, documentatie en rapportage voor AI-toepassingen met een hoog risico.

  • Eind 2025 tot begin 2026: Richtsnoer voor de uitvoering van artikel 6.

De Commissie zal naar verwachting richtsnoeren geven voor de praktische uitvoering van artikel 6, waaronder plannen voor monitoring na het in de handel brengen.

  • Augustus 2025: Compliance voor AI-systemen voor algemene doeleinden (GPAIMs).

Dit brengt transparantie-, governance- en documentatievereisten met zich mee. Er zullen bevoegde autoriteiten van lidstaten worden aangesteld en de Commissie zal jaarlijks verboden AI evalueren.

  • Februari 2025: Verbod op onacceptabele AI-systemen treedt in werking.

Onze deskundigen Responsible AI en AI Act

Louise van Koppen

Senior adviseur

Jakob Tjurlik

Business Analyst

Iris Wuisman

Partner

Mila Verhaag

Consultant

Klaar om uw Responsible AI vooruit te helpen?

Neem vandaag nog contact met ons op om te bespreken hoe we u kunnen helpen bij het navigeren door AI-regelgeving in Europa en hoe u uw instelling kunt positioneren voor duurzaam succes.