AI, waar hebben we het dan over?
Voordat we de inhoud van de AI Act bespreken, moeten we een voorliggende vraag beantwoorden; wat verstaan we onder AI. Er is veel over gesproken en de definitie is vaak gewijzigd. Uiteindelijk is voor het onderstaande gekozen om AI te kenmerken:
- Het betreft een machinaal systeem
- Is ontworpen om met verschillende niveaus van autonomie te werken
- Kan na de uitrol aanpassingsvermogen vertonen
- Genereert voor expliciete of impliciete doelstellingen output
- De output betreft voorspellingen, inhoud, aanbevelingen of beslissingen
- De output wordt afgeleid uit de ontvangen input
- Deze output kan invloed hebben op de fysieke of virtuele omgevingen.
Er is veel kritiek geleverd op deze en voorgaande definities. De praktijk zal een meer concretere invullingen gaan geven aan de scope van de term AI-systeem.
Verder bestaan er veel verschillende soorten van AI-systemen. Een soort wordt in de AI ACT specifiek beschreven en dat is het AI-model voor algemene doeleinden, beter bekend als Generatieve AI. Daarmee wordt een AI-model bedoeld dat een algemeen karakter heeft en om die reden breed inzetbaar is, zoals bijvoorbeeld voor het genereren van tekst, afbeeldingen of video’s.
De AI Act is formeel goedgekeurd en op 12 juli jl. gepubliceerd, waardoor deze op 1 augustus 2024 in werking treedt. Hoe is dit proces nu verlopen? Wat kunnen wij verwachten? En vooral wat kunnen of moeten we zelf doen? Bij de EUR werken we aan richtlijnen rondom AI en de invulling van de AI Act gericht op het verantwoord gebruik van AI. In lijn met de Erasmiaanse waarden staat hierbij de interactie tussen mens en AI centraal, begeleid door de vraag welke sociale impact we willen creëren als organisatie.
Voorbereiding
Vanaf 2018 tot 21 april 2021 is de Europese Commissie (EC) bezig geweest met het voorbereidend werk om tot een voorstel tot regulering van AI binnen de Europese Unie (EU) te komen. De EC heeft zich hierbij laten informeren door verschillende partijen. De high-level expert group (HLEG) werd opgericht, die een jaar later is gekomen met de Ethics guidelines for trustworthy AI .
Op 19 februari 2020 heeft de EC een Whitepaper On Artificial Intelligence uitgebracht waarin de ambitie, een wereldleider worden op het gebied van innovatie in de data-economie en de toepassingen ervan, is onderschreven, zoals ook uiteengezet in 2018 in de Europese datastrategie.
Ook de EU-leiders in de Europese Raad bogen zich inmiddels over de digitale transitie. Zij verzochten de EC om met voorstellen te komen om:
- de investeringen in AI zowel voor onderzoek als innovatie te vergroten,
- tot een betere coördinatie tussen de Europese onderzoekscentra te komen en een duidelijke,
- objectieve definitie te geven van "AI-systemen met een hoog risico".
Op 21 april 2021 is de EC met het voorstel van de AI Act gekomen, vergzeled van een impact assessment.Het impact assessment is een instrument om de risico’s en gevolgen van AI in kaart gebracht.
Wetgevingsproces
Vanaf dat moment is het daadwerkelijke wetgevingsproces gestart. Hoe zag dat eruit?
- Allereerst heeft de Raad van Europa, bestaande uit 27 ministers van lidstaten die digitalisering in hun portefeuille hebben, haar mening gevormd over het voorstel (via de zogenaamde "algemene oriëntatie"). De AI Act heeft immers rechtstreekse werking in de lidstaten.
- Vervolgens heeft het Europees Parlement, bestaande uit zo’n ruim 700 rechtstreeks gekozen volksvertegenwoordigers, zich over het voorstel gebogen. Dat leidde opnieuw tot een aantal voorgestelde wijzigingen die in juni 2023 bekend werden gemaakt.
- Vervolgens heeft het Europees Parlement, bestaande uit zo’n ruim 700 rechtstreeks gekozen volksvertegenwoordigers, zich over het voorstel gebogen. Dat leidde opnieuw tot een aantal Triloog.
- Dat leidde op 9 december 2023 tot het politiek akkoord.
- Op 21 mei 2024 is de AI Act aangenomen door de Europese Commissie.
Wat nu ?
Op 12 juli jl. is de AI Act officieel gepubliceerd in het EU-Publicatieblad. Dit betekent dat de AI Act op 1 augustus 2024 in werking treedt.
De volgende termijnen zijn belangrijk om in de gaten te houden:
- 2 Augustus 2024: voldoen aan verplichtingen van hoog risico AI-systemen, als zij al in gebruik zijn en een wijziging in hun ontwerp of het beoogde doel ondergaan.
- 2 November 2024: lidstaten hebben een toezichthoudende autoriteit aangewezen.
- 2 Februari 2025: staken van het gebruik van de verboden AI-systemen
- 2 Augustus 2025: voldoen aan de voorwaarden voor Generatieve AI en de lidstaten hebben voorschriften voor het vaststellen van sancties
- 2 Februari 2026: richtsnoeren voor de praktische uitvoering voor de beoordeling van AI systemen met een hoog risico gereed
- 2 Augustus 2026: voldoen aan bijna alle verplichtingen van de AI Act.
- 2 Augustus 2027: voldoen aan verplichtingen hoog risico AI systemen in producten
- 2 Augustus 2030: voldoen aan verplichtingen voor AI systemen die al door de overheid in gebruik waren voor de AI Act
Wat zijn de verboden AI-systemen en wat zijn hoog risico AI-systemen?
AI-systemen die een onaanvaardbaar risico met zich meebrengen zijn verboden. Daarbij kun je denken aan AI-systemen voor schadelijke manipulatie, ‘social scoring’ en emotieherkenning in het onderwijs.
De AI Act bestempelt verder AI-systemen als hoog risico als ze worden ingezet op bepaalde gebieden. Dit zijn bijvoorbeeld AI-systemen voor het evalueren van kandidaten voor een vacature of de toelating van studenten in het onderwijs
Wat kunnen we nog meer verwachten vanuit Europa?
De EC heeft recentelijk een Europees AI Office opgericht die de ontwikkeling en het gebruik van betrouwbare AI zal ondersteunen en tegelijkertijd bescherming moet bieden tegen AI-risico's. Dit AI Office vormt het centrum van AI-expertise en draagt zorg voor één Europees systeem voor AI governance.
Daarnaast heeft de EC een AI-innovatiepakket gelanceerd om startups en het MKB te ondersteunen bij de ontwikkeling van betrouwbare AI die voldoet aan de waarden en regels van de EU. Samen met het AI Office moet dit bijdragen aan de ontwikkeling van nieuwe use cases en opkomende toepassingen in de verschillende industriële ecosystemen van Europa en in de publieke sector.
De EC draagt bij aan het stimuleren van digitale technologieën en stelt daar steun voor beschikbaar (het meerjarig financieel kader). Het omvat verschillende instrumenten en financieringsprogramma’s zoals: Program Digital Europa en Horizon Europe (projecten met AI, Data & Robotics).
Wat kunnen we verwachten vanuit Nederland?
Sinds 2023 is de Autoriteit Persoonsgegevens aangewezen als coördinerend toezichthouder op algoritmes en AI, vanuit het Directie Coördinatie Algoritmes. In dit stadium richt het DCA zich op: het in kaart brengen van algoritmes en AI, het versterken van de (inter) samenwerking tussen toezichthouders, het werken aan richtlijnen voor verantwoorde inzet van AI en algoritmes en het coördineren van de voorbereiding van toezicht op de AI Act
De ontwikkelingen kunnen gevolgd worden in de haalfjaarlijks rapportages*. (alleen link in het Nederlands beschikbaar)
Wat betekent dit voor de EUR?
We hebben van de invoering van de AVG geleerd, dat wachten op het moment van inwerkingtreding niet wenselijk is. Om die reden werkt het AI@EUR programma al ruim een jaar hard aan:
En ook op andere plekken binnen de EUR werkt men hard aan richtlijnen en beleidstukken over AI. De Gebruikersrichtlijn Generatieve AI is inmiddels al gepubliceerd en binnenkort beschikt de EUR over een AI Toezichthouder. Momenteel wordt er een AI-strategie voor de EUR ontwikkeld, waarbij alle stakeholders vertegenwoordigd zijn en hun eigen rol krijgen. EDIS, CLI en ECDA coördineren deze inspanningen.
Wat kun jij doen ?
Mocht je op dit moment een AI-systeem gebruiken of ontwikkelen, meld dit dan bij ai@eur.nl. De focus ligt daarbij op de AI-systemen met een hoog risico en de Generatieve AI. Het AI@EUR team kan jou ondersteunen met een AI-assessment, zodat jij weet waar je rekening mee moet houden.
Voor wat betreft het inkopen van AI-systemen of systemen met AI, zijn er twee aspecten van belang:
- Inkoopeisen opstellen die voldoen aan de AI Act, zodat beoordeeld kan worden of (potentiële) leveranciers voldoen aan de AI Act
- Goede contractuele afspraken maken om de risico’s te beperken, bijvoorbeeld opstellen van Algemene Inkoopvoorwaarden voor AI-systemen.
Laat het ons weten als je hierover wilt meedenken.
Laten we gezamenlijk de krachten bundelen, zodat we op voornoemde deadlines voldoen aan de AI Act en bouwen aan verantwoordelijk en betrouwbaar gebruik van AI binnen de EUR.