Skip to content
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
2 changes: 1 addition & 1 deletion docs/over-het-algoritmekader/over-het-algoritmekader.md
Original file line number Diff line number Diff line change
Expand Up @@ -21,7 +21,7 @@ Het Algoritmekader is een website van het Ministerie van Binnenlandse Zaken en K

- alle wetten en regels, zoals de [AI-verordening](https://eur-lex.europa.eu/legal-content/NL/TXT/?uri=CELEX%3A32024R1689&qid=1723226664277) en de [Algemene wet bestuursrecht](https://wetten.overheid.nl/BWBR0005537/2022-11-01/1)

- belangrijke hulpmiddelen, zoals de [IAMA](https://www.rijksoverheid.nl/documenten/rapporten/2021/02/25/impact-assessment-mensenrechten-en-algoritmes) (Impact Assessment Mensenrechten en Algoritmes)
- belangrijke hulpmiddelen, zoals het [IAMA](https://www.rijksoverheid.nl/documenten/rapporten/2021/02/25/impact-assessment-mensenrechten-en-algoritmes) (Impact Assessment Mensenrechten en Algoritmes)
- adviezen en ervaringen van experts, zoals wetenschappers

## Versie 2.4
Expand Down
27 changes: 14 additions & 13 deletions docs/voldoen-aan-wetten-en-regels/hulpmiddelen/IAMA.md
Original file line number Diff line number Diff line change
Expand Up @@ -26,26 +26,26 @@ hide: navigation

<!-- tags -->

[Direct naar het IAMA](https://www.rijksoverheid.nl/documenten/rapporten/2021/02/25/impact-assessment-mensenrechten-en-algoritmes){ .button .md-button--secondary }
[Direct naar het IAMA](https://www.rijksoverheid.nl/documenten/rapporten/2026/02/16/impact-assessment-mensenrechten-en-algoritmes){ .button .md-button--secondary }

## Hulpmiddel
Het Impact Assessment voor Mensenrechten bij de inzet van Algoritmes (IAMA) is een instrument voor overheidsorganen om een interdisciplinaire dialoog en besluitvorming te faciliteren bij de ontwikkeling en inzet van algoritmische systemen.
Het IAMA stelt een reeks vragen die moeten worden besproken en beantwoord om een zorgvuldige afweging van de inzet van algoritmen te waarborgen.
Dit proces is onderverdeeld in drie fasen: voorbereiding, input en throughput, en output en toezicht, waarbij steeds aandacht wordt besteed aan het vierde onderdeel van het IAMA: de impact op mensenrechten.
Het IAMA fungeert als naslagwerk voor de besluitvorming en is gekoppeld aan andere relevante richtlijnen en instrumenten, zoals de [gegevensbeschermingseffectbeoordeling (ook wel DPIA)](../vereisten/avg-13-dpia-verplicht.md).
Hierdoor biedt het een overkoepelend kader dat helpt om algoritmen verantwoord te implementeren en mogelijke risico’s, zoals inbreuken op grondrechten, te identificeren en te mitigeren.
Het Impact Assessment Mensenrechten en Algoritmes (IAMA) is een instrument voor overheidsorganen dat een interdisciplinaire dialoog faciliteert en besluitvorming ondersteunt bij de ontwikkeling en inzet van algoritmische systemen. Het IAMA is toepasbaar op zowel AI-systemen als andere algoritmen. Het instrument richt zich vooral op de impact op grondrechten, maar biedt ook ruimte om andere relevante aandachtspunten vroegtijdig en gestructureerd in kaart te brengen. Zo helpt het om risico’s tijdig en zorgvuldig te beoordelen voordat een algoritme wordt ingezet. Het IAMA fungeert als naslagwerk voor de besluitvorming.

In februari 2026 is het IAMA geactualiseerd. De nieuwe versie sluit beter aan op praktijkervaringen binnen de overheid en op de AI-verordening. De actualisatie is gebaseerd op gebruikersfeedback en maakt het instrument overzichtelijker en beter toepasbaar. Tevens is er een apart [toelichtingsdocument](https://www.rijksoverheid.nl/documenten/rapporten/2026/02/16/toelichtingsdocument-impact-assessment-mensenrechten-en-algoritmes) aan toegevoegd.

Het IAMA wordt in het bijzonder aanbevolen voor hoog-risico AI-systemen en impactvolle algoritmen.

## Relevantie
Het IAMA kan op dit moment op veel politieke en internationale belangstelling rekenen.
In zowel de Eerste als Tweede Kamer zijn hierover [moties ingediend](https://www.tweedekamer.nl/kamerstukken/moties/detail?id=2022D12329&did=2022D12329) en vragen gesteld.
Daarbij is het IAMA een van de weinige instrumenten in de EU die een interdisciplinaire discussie rondom (de ontwikkeling, inzet en monitoring van) algoritmes, AI en grondrechten initieert en bevordert.
Het IAMA staat zowel nationaal als Europees in de belangstelling. In zowel de Eerste als Tweede Kamer zijn hierover moties ingediend en Kamervragen gesteld.

Met de inwerkingtreding van de AI-verordening in 2024 is het belang van impactanalyses verder toegenomen. Het IAMA ondersteunt overheidsorganisaties bij de nationale implementatie van deze regelgeving.

Het IAMA heeft enige overlap met de AIIA. Het AIIA is echter specifiek voor AI ontwikkeld, waar het IAMA toepasbaar is op alle soorten algoritmes.
Het IAMA heeft enige overlap met het Rijksmodel DPIA. Een DPIA richt zich op hoog-risico verwerkingen van persoonsgegevens. BZK heeft [een handreiking](https://www.cip-overheid.nl/producten-en-diensten/handreiking-gebruik-iama-samen-met-model-dpia-rijksdienst) opgesteld voor het gezamenlijk gebruik van het Rijksmodel DPIA en IAMA.

Het IAMA heeft ook enige overlap met het AIIA (AI Impact Assessment). Het AIIA is ontwikkeld door het ministerie van Infrastructuur en Waterstaat en richt zich specifiek op AI-systemen, terwijl het IAMA breder toepasbaar is op alle vormen van algoritmegebruik binnen de overheid.

## Auteur
Het IAMA is ontwikkeld door de [Utrecht Data School](https://dataschool.nl/iama/). De auteurs van het IAMA zijn prof. mr. Janneke Gerards, dr. Mirko Tobias Schäfer, Arthur Vankan en Iris Muis, allen werkzaam aan de Universiteit Utrecht. Opdrachtgever voor de ontwikkeling is het Ministerie van Binnenlandse Zaken.
Het IAMA is in 2021 ontwikkeld door de [Utrecht Data School](https://dataschool.nl/iama/). Opdrachtgever voor de ontwikkeling is het Ministerie van Binnenlandse Zaken.

## Bijbehorende vereisten { data-search-exclude }

Expand All @@ -56,11 +56,12 @@ Het IAMA is ontwikkeld door de [Utrecht Data School](https://dataschool.nl/iama/
<!-- list_maatregelen_on_hulpmiddelen_page -->

## Bronnen
[Impact Assessment Mensenrechten en Algoritmes](https://www.rijksoverheid.nl/documenten/rapporten/2021/02/25/impact-assessment-mensenrechten-en-algoritmes)
- [Impact Assessment Mensenrechten en Algoritmes](https://www.rijksoverheid.nl/documenten/rapporten/2026/02/16/impact-assessment-mensenrechten-en-algoritmes)
- [Toelichtingsdocument Impact Assessment Mensenrechten en Algoritmes](https://www.rijksoverheid.nl/documenten/rapporten/2026/02/16/toelichtingsdocument-impact-assessment-mensenrechten-en-algoritmes)
- [Handreiking gebruik IAMA samen met Model DPIA Rijksdienst](https://www.cip-overheid.nl/producten-en-diensten/handreiking-gebruik-iama-samen-met-model-dpia-rijksdienst)

## Voorbeeld

Benieuwd naar ervaringen in de praktijk? Bekijk het rapport [IAMA in Actie](https://www.rijksoverheid.nl/documenten/rapporten/2024/06/20/iama-in-actie-lessons-learned-van-15-iama-trajecten-bij-nederlandse-overheidsorganisaties) voor de lessons learned van 15 IAMA-trajecten bij Nederlandse overheidsorganisaties.


Heb jij een goed voorbeeld? Laat het ons weten!
Original file line number Diff line number Diff line change
@@ -0,0 +1,62 @@
---
title: Functioneringsgesprek AI
toelichting: Het Functioneringsgesprek AI is een hulpmiddel om te toetsen of een AI-systeem nog steeds naar behoren en volgens de oorspronkelijke intentie functioneert.
categorie:
- toetsingskader
vereiste:
- aia-09-menselijk-toezicht
- aia-18-corrigerende-maatregelen-voor-non-conforme-ai
- aia-22-gebruiksverantwoordelijken-monitoren-werking
- awb-01-zorgvuldigheidsbeginsel
maatregel:
- 0-org-00-inventariseren-algoritmes
- 0-org-12-periodieke-evaluatie-kwaliteit
- 1-pba-02-formuleren-doelstelling
- 2-owp-06-impactanalyse
- 5-ver-01-functioneren-in-lijn-met-doeleinden
- 5-ver-02-evalueer-nauwkeurigheid
- 5-ver-05-vertaling-wetgeving-naar-systeem
- 5-ver-06-evalueer-betrouwbaarheid
- 7-mon-05-evalueer-bij-veranderingen-in-data
- 7-mon-07-plan-continue-monitoring
levenscyclus:
- verificatie-en-validatie
- monitoring-en-beheer
- uitfaseren
onderwerp:
- governance
- technische-robuustheid-en-veiligheid
- menselijke-controle
rollen:
- jurist
- ontwikkelaar
- projectleider
- beleid-en-advies
hide: navigation
---

<!-- tags -->

[Direct naar het Functioneringsgesprek AI](https://functioneringsgesprek.dataschool.nl/){ .button .md-button--secondary }

## Hulpmiddel

Het Functioneringsgesprek voor AI is een tool ontwikkeld door Data School van de Universiteit Utrecht, in samenwerking met de Rijksinspectie Digitale Infrastructuur (RDI) en de Nederlandse Voedsel- en Warenautoriteit (NVWA). Het is een instrument om te testen hoe AI in verloop van tijd functioneert. Dit wordt gedaan op basis van 4 dimensies: werkzaamheden, prestaties, organisatie en ontwikkeling. Deze vragen worden doorlopen door de gebruiker van de AI, waarna het ingevulde functioneringsgesprek opgeslagen kan worden als interne documentatie en eventueel naar de toezichthouder gestuurd kan worden. De vragen bevatten toelichting om te helpen richting te scheppen in de beantwoording.

## Relevantie

Het functioneringsgesprek voor een AI kan worden gezien als een ‘regulier’ functioneringsgesprek, maar dan voor algoritmes en AI: het wordt periodiek ingezet om te beoordelen of de AI over verloop van tijd nog naar behoren functioneert. Het is belangrijk om te benadrukken dat het functioneringsgesprek géén instrument is om van tevoren te bepalen of het algoritme goed inzetbaar is. Het functioneringsgesprek gaat ervan uit dat er al een algoritme impact assessment uitgevoerd is. Het functioneringsgesprek is een test om over verloop van tijd – en na deze initiële toets – het functioneren van het algoritme te beoordelen. Dit kan bijvoorbeeld elk jaar zijn, of elke twee jaar. Ook kunnen er specifieke trigger events zich aandienen waardoor het inzetten van het functioneringsgesprek als noodzakelijk wordt geacht, naast een vast periodiek moment. Dit kan bijvoorbeeld het geval zijn wanneer de AI niet functioneert zoals verwacht en er afwijkende waarden zijn. Het ingevulde FG kan gebruikt worden als kwaliteitsdocument.

## Auteur

Dit werk is gemaakt door Data School van de Universiteit Utrecht onder creative commons [CC-BY NC 4.0](https://github.com/CentreForDigitalHumanities/Functioneringsgesprek-voor-AI/tree/main?tab=CC-BY-4.0-1-ov-file). Het mag niet worden gebruikt voor commerciële doeleinden. Het kan worden gebruikt voor niet-commerciële doeleinden. Je mag het werk aanpassen, onder de voorwaarden dat je Data School, Universiteit Utrecht noemt als oorspronkelijke auteur en het laat weten via dataschool@uu.nl.

De ontwikkeling van dit werk werd ondersteund door inzichten en financiering van de Rijksinspectie voor Digitale Infrastructuur (RDI), de Nederlandse Voedsel- en Warenautoriteit (NVWA) en de AI Labs van Universiteit Utrecht.

## Bijbehorende vereisten { data-search-exclude }

<!-- list_vereisten_on_maatregelen_page -->

## Bijbehorende maatregelen

<!-- list_maatregelen_on_hulpmiddelen_page -->