diff --git a/docs/levenscyclus/probleemanalyse.md b/docs/levenscyclus/probleemanalyse.md
index 36c3f1f4cd..5d894678ca 100644
--- a/docs/levenscyclus/probleemanalyse.md
+++ b/docs/levenscyclus/probleemanalyse.md
@@ -14,6 +14,7 @@ Eerst onderzoek je het doel en het probleem van de opdrachtgever, bijvoorbeeld:
* welke publieke waarden je daarbij moet beschermen of bereiken
Daarna onderzoek je of een algoritme of AI-systeem een geschikte manier is om het doel van de opdrachtgever te bereiken en het probleem op te lossen. Dit hangt van af van bijvoorbeeld:
+
* kosten van het verantwoord ontwikkelen van algoritmes en AI
* aantal medewerkers dat nodig is voor het verantwoord ontwikkelen van algoritmes en AI
* complexiteit van de oplossing
diff --git a/docs/onderwerpen/menselijke-controle.md b/docs/onderwerpen/menselijke-controle.md
index 3c8b7ea82b..c16b602a4f 100644
--- a/docs/onderwerpen/menselijke-controle.md
+++ b/docs/onderwerpen/menselijke-controle.md
@@ -37,19 +37,19 @@ Wanneer en hoe je controle uitoefent, hangt af van het [soort algoritme en risic
Tijdens de ontwikkeling en het gebruik kun je menselijke controle op de volgende manieren uitoefenen:
-1. _Human in the loop_
+_Human in the loop_
Bij dit model speelt de mens een actieve rol in elke fase van het algoritme. Deze variant geeft de meeste controle en invloed, maar kan leiden tot vertraagde of minder efficiënte besluitvorming, vooral bij real-time of zeer complexe taken waarbij snelheid cruciaal is. Een voorbeeld van toepassen van human-in-the-loop is het nakijken en beoordelen van de output van een algoritme door een mens, telkens voordat een beslissing wordt genomen. Het verwerken van data gebeurt alleen in opdracht van de mens en het algoritme of AI-model neemt geen autonome beslissingen.
-2. _Human on the loop_
+_Human on the loop_
Hier behoudt de mens toezicht en kan ingrijpen wanneer dat nodig is om te garanderen dat een model veilig en ethisch opereert. Dit model biedt daardoor een balans tussen autonome besluitvorming en menselijke controle. Het is vooral nuttig in situaties waarin afwijkende keuzes of acties van het algoritme grote gevolgen kunnen hebben. De menselijke operator houdt de werking van het algoritme in de gaten en staat klaar om in te grijpen of beslissingen terug te draaien wanneer nodig.
-3. _Human above the loop_
+_Human above the loop_
In dit model houdt de mens toezicht op een hoger niveau, met een focus op strategische en ethische keuzes, in plaats van dat de menselijke operator zich bezighoudt met directe operationele beslissingen. Dit stelt de mens in staat in te grijpen wanneer kritieke morele, juridische of sociale zorgen ontstaan om het model op de langere termijn bij te sturen. De menselijke tussenkomst is gericht op het bepalen van beleid en de richtlijnen voor algoritmes. Het gaat daarbij niet alleen over het definiëren van operationele procedures maar ook het maken van bepaalde ethische overwegingen, het zorgen voor naleving van regelgeving en het overwegen van de implicaties van de inzet van algoritmes op de lange termijn.
-4. _Human before the loop_
+_Human before the loop_
Hier maakt de mens vooraf ethische en morele afwegingen die in het algoritme zelf worden ingebouwd. Hoewel het model in productie autonoom opereert, zal de menselijke input gedurende de ontwikkeling ervoor zorgen dat het model ook in complexe situaties volgens de juiste (ethische)afwegingen keuzes en acties onderneemt.
diff --git a/docs/soorten-algoritmes-en-ai/generatieve-ai.md b/docs/soorten-algoritmes-en-ai/generatieve-ai.md
index b83df7039e..36add8fc16 100644
--- a/docs/soorten-algoritmes-en-ai/generatieve-ai.md
+++ b/docs/soorten-algoritmes-en-ai/generatieve-ai.md
@@ -12,7 +12,7 @@ Generatieve AI is een vorm van kunstmatige intelligentie. Je gebruikt prompts, o
Meestal draaien generatieve AI-toepassingen op _large language models_ (LLMs). Dit houdt in dat de applicatie getraind is op grote hoeveelheden data, waaruit het heeft 'geleerd' om patronen en structuren te herkennen. Op basis van die patronen voorspelt het getrainde model het meest logische volgende element in bijvoorbeeld een zin. AI-chatbots, zoals ChatGPT, Gemini en Microsoft CoPilot, genereren hierdoor lopende zinnen en alinea's. Deze antwoorden zijn niet altijd betrouwbaar. Geeft een chatbot onjuiste informatie, dan heet dit 'hallucineren.'
## Verantwoord gebruik door de overheid
-De overheid heeft [één standpunt voor het gebruik van generatieve AI](https://www.rijksoverheid.nl/documenten/publicaties/2025/04/22/het-overheidsbrede-standpunt-voor-de-inzet-van-generatieve-ai) opgesteld. Dit standpunt geldt voor alle overheidsorganisaties.
+De overheid heeft [één standpunt voor het gebruik van generatieve AI](https://www.rijksoverheid.nl/documenten/rapporten/2025/04/16/het-overheidsbrede-standpunt-voor-de-inzet-van-generatieve-ai) opgesteld. Dit standpunt geldt voor alle overheidsorganisaties.
Generatieve AI biedt veel kansen. De overheid stimuleert overheidsorganisaties om deze technologie te gebruiken bij het zoeken naar nieuwe oplossingen voor problemen. Bijvoorbeeld als hulpmiddel voor brainstormen, softwareontwikkeling en tekstbewerking.
@@ -41,7 +41,7 @@ Het is van belang dat generatieve AI op een juiste en verantwoorde manier wordt
* Als je bij een Rijkskennisinstituut werkt, kun je ook gebruik maken van het [RKI-kader voor generatieve AI](../assets/documents/Kader-verantwoord-gebruik-generatieveAI-RKIs.pdf) (PDF) om je wat meer praktische handvatten te geven.
## Bronnen
-* [Overheidsbreed standpunt voor de inzet van generatieve AI](https://www.rijksoverheid.nl/documenten/publicaties/2025/04/22/het-overheidsbrede-standpunt-voor-de-inzet-van-generatieve-ai)
+* [Overheidsbreed standpunt voor de inzet van generatieve AI](https://www.rijksoverheid.nl/documenten/rapporten/2025/04/16/het-overheidsbrede-standpunt-voor-de-inzet-van-generatieve-ai)
* [Overheidsbrede handreiking generatieve AI](https://www.rijksoverheid.nl/documenten/publicaties/2025/04/22/overheidsbrede-handreiking-generatieve-ai)
* [Open Source Initiative](https://opensource.org/ai/open-source-ai-definition)
* [RKI-kader voor generatieve AI](../assets/documents/Kader-verantwoord-gebruik-generatieveAI-RKIs.pdf) (PDF)
diff --git a/docs/soorten-algoritmes-en-ai/wat-is-een-algoritme.md b/docs/soorten-algoritmes-en-ai/wat-is-een-algoritme.md
index 7baa702962..368a309908 100644
--- a/docs/soorten-algoritmes-en-ai/wat-is-een-algoritme.md
+++ b/docs/soorten-algoritmes-en-ai/wat-is-een-algoritme.md
@@ -29,7 +29,7 @@ Zelflerende technieken zijn in elk geval:
* **Supervised learning (gecontroleerd leren)**: Je algoritme leert van gegevens die je labelt met informatie. Je biedt bijvoorbeeld foto’s aan met de labels: dit is wel een kat, dit is geen kat. Voorbeeld: [Virtuele assistent Gem](https://algoritmes.overheid.nl/nl/algoritme/gm0553/12751163/virtuele-gemeente-assistent-gem).
* **Unsupervised learning (ongecontroleerd leren)**: Je laat het algoritme zelf patronen en structuren ontdekken in ongestructureerde gegevens zonder labels. Je biedt bijvoorbeeld foto’s aan van dieren die het algoritme zelf moet groeperen. Voorbeeld: [Polis](https://algoritmes.overheid.nl/nl/algoritme/pv28/14379550/polis) voor participatieplatformen.
-* **Reinforcement learning (bekrachtiginsleren)**: Het algoritme leert door straf en beloning. Het doel is zo hoog mogelijk scoren in zo min mogelijk tijd. Je geeft bijvoorbeeld punten als het algoritme foto’s sorteert die op katten lijken. Dit proces is vergelijkbaar met hoe mensen leren door ervaring. Bij reinforcement learning leert het AI-model autonoom bij. Bij _online reinforcement learning_ kan het model in productie ook nog continu zichzelf bijstellen. Je kunt er ook voor kiezen dit alleen in trainingsfase te doen, en het model 'bevroren' in te zetten. Voorbeeld van reinforcement learning: [I-VRI](https://algoritmes.overheid.nl/nl/algoritme/pv28/34151769/intelligente-verkeersregelinstallatie-ivri) voor verkeerslichten.
+* **Reinforcement learning (bekrachtigingsleren)**: Het algoritme leert door straf en beloning. Het doel is zo hoog mogelijk scoren in zo min mogelijk tijd. Je geeft bijvoorbeeld punten als het algoritme foto’s sorteert die op katten lijken. Dit proces is vergelijkbaar met hoe mensen leren door ervaring. Bij reinforcement learning leert het AI-model autonoom bij. Bij _online reinforcement learning_ kan het model in productie ook nog continu zichzelf bijstellen. Je kunt er ook voor kiezen dit alleen in trainingsfase te doen, en het model 'bevroren' in te zetten. Voorbeeld van reinforcement learning: [I-VRI](https://algoritmes.overheid.nl/nl/algoritme/pv28/34151769/intelligente-verkeersregelinstallatie-ivri) voor verkeerslichten.
* **Deep learning**: Supervised, unsupervised of reinforcement learning gecombineerd met diepe neurale netwerken. Dit zijn kunstmatige neurale netwerken met veel verschillende lagen. Hierdoor kun je nog ingewikkeldere problemen oplossen. Voorbeeld: [Geautomatiseerde gezichtsvergelijking bij het RNI-inschrijfproces](https://algoritmes.overheid.nl/nl/algoritme/oorg10103/18814864/geautomatiseerde-gezichtsvergelijking-bij-het-rniinschrijfproces).
## AI-systeem