Skip to content
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
1 change: 1 addition & 0 deletions docs/levenscyclus/probleemanalyse.md
Original file line number Diff line number Diff line change
Expand Up @@ -14,6 +14,7 @@ Eerst onderzoek je het doel en het probleem van de opdrachtgever, bijvoorbeeld:
* welke publieke waarden je daarbij moet beschermen of bereiken

Daarna onderzoek je of een algoritme of AI-systeem een geschikte manier is om het doel van de opdrachtgever te bereiken en het probleem op te lossen. Dit hangt van af van bijvoorbeeld:

* kosten van het verantwoord ontwikkelen van algoritmes en AI
* aantal medewerkers dat nodig is voor het verantwoord ontwikkelen van algoritmes en AI
* complexiteit van de oplossing
Expand Down
8 changes: 4 additions & 4 deletions docs/onderwerpen/menselijke-controle.md
Original file line number Diff line number Diff line change
Expand Up @@ -37,19 +37,19 @@ Wanneer en hoe je controle uitoefent, hangt af van het [soort algoritme en risic

Tijdens de ontwikkeling en het gebruik kun je menselijke controle op de volgende manieren uitoefenen:

1. _<span lang="en">Human in the loop</span>_
_<span lang="en">Human in the loop</span>_

Bij dit model speelt de mens een actieve rol in elke fase van het algoritme. Deze variant geeft de meeste controle en invloed, maar kan leiden tot vertraagde of minder efficiënte besluitvorming, vooral bij real-time of zeer complexe taken waarbij snelheid cruciaal is. Een voorbeeld van toepassen van human-in-the-loop is het nakijken en beoordelen van de output van een algoritme door een mens, telkens voordat een beslissing wordt genomen. Het verwerken van data gebeurt alleen in opdracht van de mens en het algoritme of AI-model neemt geen autonome beslissingen.

2. _<span lang="en">Human on the loop</span>_
_<span lang="en">Human on the loop</span>_

Hier behoudt de mens toezicht en kan ingrijpen wanneer dat nodig is om te garanderen dat een model veilig en ethisch opereert. Dit model biedt daardoor een balans tussen autonome besluitvorming en menselijke controle. Het is vooral nuttig in situaties waarin afwijkende keuzes of acties van het algoritme grote gevolgen kunnen hebben. De menselijke operator houdt de werking van het algoritme in de gaten en staat klaar om in te grijpen of beslissingen terug te draaien wanneer nodig.

3. _<span lang="en">Human above the loop</span>_
_<span lang="en">Human above the loop</span>_

In dit model houdt de mens toezicht op een hoger niveau, met een focus op strategische en ethische keuzes, in plaats van dat de menselijke operator zich bezighoudt met directe operationele beslissingen. Dit stelt de mens in staat in te grijpen wanneer kritieke morele, juridische of sociale zorgen ontstaan om het model op de langere termijn bij te sturen. De menselijke tussenkomst is gericht op het bepalen van beleid en de richtlijnen voor algoritmes. Het gaat daarbij niet alleen over het definiëren van operationele procedures maar ook het maken van bepaalde ethische overwegingen, het zorgen voor naleving van regelgeving en het overwegen van de implicaties van de inzet van algoritmes op de lange termijn.

4. _<span lang="en">Human before the loop</span>_
_<span lang="en">Human before the loop</span>_

Hier maakt de mens vooraf ethische en morele afwegingen die in het algoritme zelf worden ingebouwd. Hoewel het model in productie autonoom opereert, zal de menselijke input gedurende de ontwikkeling ervoor zorgen dat het model ook in complexe situaties volgens de juiste (ethische)afwegingen keuzes en acties onderneemt.

Expand Down
4 changes: 2 additions & 2 deletions docs/soorten-algoritmes-en-ai/generatieve-ai.md
Original file line number Diff line number Diff line change
Expand Up @@ -12,7 +12,7 @@ Generatieve AI is een vorm van kunstmatige intelligentie. Je gebruikt prompts, o
Meestal draaien generatieve AI-toepassingen op <span lang="en">_large language models_</span> (LLMs). Dit houdt in dat de applicatie getraind is op grote hoeveelheden data, waaruit het heeft 'geleerd' om patronen en structuren te herkennen. Op basis van die patronen voorspelt het getrainde model het meest logische volgende element in bijvoorbeeld een zin. AI-chatbots, zoals ChatGPT, Gemini en Microsoft CoPilot, genereren hierdoor lopende zinnen en alinea's. Deze antwoorden zijn niet altijd betrouwbaar. Geeft een chatbot onjuiste informatie, dan heet dit 'hallucineren.'

## Verantwoord gebruik door de overheid
De overheid heeft [één standpunt voor het gebruik van generatieve AI](https://www.rijksoverheid.nl/documenten/publicaties/2025/04/22/het-overheidsbrede-standpunt-voor-de-inzet-van-generatieve-ai) opgesteld. Dit standpunt geldt voor alle overheidsorganisaties.
De overheid heeft [één standpunt voor het gebruik van generatieve AI](https://www.rijksoverheid.nl/documenten/rapporten/2025/04/16/het-overheidsbrede-standpunt-voor-de-inzet-van-generatieve-ai) opgesteld. Dit standpunt geldt voor alle overheidsorganisaties.

Generatieve AI biedt veel kansen. De overheid stimuleert overheidsorganisaties om deze technologie te gebruiken bij het zoeken naar nieuwe oplossingen voor problemen. Bijvoorbeeld als hulpmiddel voor brainstormen, softwareontwikkeling en tekstbewerking.

Expand Down Expand Up @@ -41,7 +41,7 @@ Het is van belang dat generatieve AI op een juiste en verantwoorde manier wordt
* Als je bij een Rijkskennisinstituut werkt, kun je ook gebruik maken van het [RKI-kader voor generatieve AI](../assets/documents/Kader-verantwoord-gebruik-generatieveAI-RKIs.pdf) (PDF) om je wat meer praktische handvatten te geven.

## Bronnen
* [Overheidsbreed standpunt voor de inzet van generatieve AI](https://www.rijksoverheid.nl/documenten/publicaties/2025/04/22/het-overheidsbrede-standpunt-voor-de-inzet-van-generatieve-ai)
* [Overheidsbreed standpunt voor de inzet van generatieve AI](https://www.rijksoverheid.nl/documenten/rapporten/2025/04/16/het-overheidsbrede-standpunt-voor-de-inzet-van-generatieve-ai)
* [Overheidsbrede handreiking generatieve AI](https://www.rijksoverheid.nl/documenten/publicaties/2025/04/22/overheidsbrede-handreiking-generatieve-ai)
* [Open Source Initiative](https://opensource.org/ai/open-source-ai-definition)
* [RKI-kader voor generatieve AI](../assets/documents/Kader-verantwoord-gebruik-generatieveAI-RKIs.pdf) (PDF)
Expand Down
2 changes: 1 addition & 1 deletion docs/soorten-algoritmes-en-ai/wat-is-een-algoritme.md
Original file line number Diff line number Diff line change
Expand Up @@ -29,7 +29,7 @@ Zelflerende technieken zijn in elk geval:

* **Supervised learning (gecontroleerd leren)**: Je algoritme leert van gegevens die je labelt met informatie. Je biedt bijvoorbeeld foto’s aan met de labels: dit is wel een kat, dit is geen kat. Voorbeeld: [Virtuele assistent Gem](https://algoritmes.overheid.nl/nl/algoritme/gm0553/12751163/virtuele-gemeente-assistent-gem).
* **Unsupervised learning (ongecontroleerd leren)**: Je laat het algoritme zelf patronen en structuren ontdekken in ongestructureerde gegevens zonder labels. Je biedt bijvoorbeeld foto’s aan van dieren die het algoritme zelf moet groeperen. Voorbeeld: [Polis](https://algoritmes.overheid.nl/nl/algoritme/pv28/14379550/polis) voor participatieplatformen.
* **Reinforcement learning (bekrachtiginsleren)**: Het algoritme leert door straf en beloning. Het doel is zo hoog mogelijk scoren in zo min mogelijk tijd. Je geeft bijvoorbeeld punten als het algoritme foto’s sorteert die op katten lijken. Dit proces is vergelijkbaar met hoe mensen leren door ervaring. Bij reinforcement learning leert het AI-model autonoom bij. Bij _<span lang="en">online reinforcement learning</span>_ kan het model in productie ook nog continu zichzelf bijstellen. Je kunt er ook voor kiezen dit alleen in trainingsfase te doen, en het model 'bevroren' in te zetten. Voorbeeld van reinforcement learning: [I-VRI](https://algoritmes.overheid.nl/nl/algoritme/pv28/34151769/intelligente-verkeersregelinstallatie-ivri) voor verkeerslichten.
* **Reinforcement learning (bekrachtigingsleren)**: Het algoritme leert door straf en beloning. Het doel is zo hoog mogelijk scoren in zo min mogelijk tijd. Je geeft bijvoorbeeld punten als het algoritme foto’s sorteert die op katten lijken. Dit proces is vergelijkbaar met hoe mensen leren door ervaring. Bij reinforcement learning leert het AI-model autonoom bij. Bij _<span lang="en">online reinforcement learning</span>_ kan het model in productie ook nog continu zichzelf bijstellen. Je kunt er ook voor kiezen dit alleen in trainingsfase te doen, en het model 'bevroren' in te zetten. Voorbeeld van reinforcement learning: [I-VRI](https://algoritmes.overheid.nl/nl/algoritme/pv28/34151769/intelligente-verkeersregelinstallatie-ivri) voor verkeerslichten.
* **Deep learning**: Supervised, unsupervised of reinforcement learning gecombineerd met diepe neurale netwerken. Dit zijn kunstmatige neurale netwerken met veel verschillende lagen. Hierdoor kun je nog ingewikkeldere problemen oplossen. Voorbeeld: [Geautomatiseerde gezichtsvergelijking bij het RNI-inschrijfproces](https://algoritmes.overheid.nl/nl/algoritme/oorg10103/18814864/geautomatiseerde-gezichtsvergelijking-bij-het-rniinschrijfproces).

## AI-systeem
Expand Down