Skip to content

Commit 096697a

Browse files
committed
also change NL SDG and AI ACT Implementation tool iframe
1 parent e3376d9 commit 096697a

File tree

2 files changed

+11
-9
lines changed

2 files changed

+11
-9
lines changed

content/nederlands/technical-tools/SDG.md

Lines changed: 3 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -19,6 +19,8 @@ Synthetische data generatie (SDG) – een artificiële dataset die de statistisc
1919

2020
{{< container_close >}}
2121

22+
{{< iframe src="https://local-first-bias-detection.s3.eu-central-1.amazonaws.com/synthetic-data.html?lang=nl" title="Synthetische data generatie tool" icon="fas fa-search" height="800px" >}}
23+
2224
{{< container_open title="Hoe kan SDG gebruikt worden voor het testen van bias in AI systemen?" icon="fas fa-project-diagram" id="bias-testing" >}}
2325

2426
SDG stelt derde partijen in staat om datasets op een privacy-vriendelijke manier te auditeren. Er is momenteel echter nog onvoldoende kennis hoe en wanneer SDG een geschikte methode is voor bias testing. Allereerst is het niet altijd nodig om geavanceerde SDG-methoden in te zetten. Vaak is het publiceren van eenvoudige univariate of bivariate aggregatie statistiek over de data in kwestie afdoende. Ten tweede, SDG kan op vele manieren worden toegepast. Denk aan parametrische, non-parametrische, copula-gebaseerde schatting- en inferentiemethoden. De meest geschikte SDG-methode hangt af van de structuur van de dataset. De keuze voor de meest geschikte SDG-methode is daarom context-specifiek. Bij Algorithm Audit werken we aan deze open vragen, en bouwen we publieke kennis op hoe vormen van privacy-behoudenden methoden voor datadeling (SDG of alternatieven) concreet kunnen worden ingezet voor AI bias testing. Door onze technische en kwalitatieve expertise rond SDG samen te brengen draagt Algorithm Audit bij aan dit collectieve leerproces.
@@ -33,7 +35,7 @@ Ondanks dat er vele commerciële APIs zijn die automatisch synthetische data gen
3335

3436
#### Eerdere toepassing
3537

36-
Onderzoeksjournalisten van [Lighthouse Reports](https://www.lighthousereports.com/suspicion-machines-methodology/) hebben een per abuis gedeelde dataset publiekelijk kunnen delen met behulp van SDG. Het delen van deze data heeft het mogelijk gemaakt dat bias in een omvangrijke dataset van de gemeente Rotterdam aan het licht is gekomen. De niet-representatieve dataset is in het verleden gebruikt om een (inmiddels non-actief) machine learning-gedreven risicotaxatie-algoritme op te trainen.
38+
Onderzoeksjournalisten van [Lighthouse Reports](https://www.lighthousereports.com/suspicion-machines-methodology/) hebben een per abuis gedeelde dataset publiekelijk kunnen delen met behulp van SDG. Het delen van deze data heeft het mogelijk gemaakt dat bias in een omvangrijke dataset van de gemeente Rotterdam aan het licht is gekomen. De niet-representatieve dataset is in het verleden gebruikt om een (inmiddels non-actief) machine learning-gedreven risicotaxatie-algoritme op te trainen.
3739

3840
#### AI Verordening
3941

content/nederlands/technical-tools/implementation-tool.md

Lines changed: 8 additions & 8 deletions
Original file line numberDiff line numberDiff line change
@@ -16,30 +16,30 @@ image: /images/svg-illustrations/case_repository.svg
1616

1717
{{< container_open icon="fa-solid fa-laptop-code" title="Is mijn datagedreven toepassing een impactvol algoritme of AI-systeem?" id="intro" >}}
1818

19-
Implementatie van de AI-verordening brengt lastige vragen met zich mee. Wat is de reikwijdte van de AI-systeem definitie? Aan de hand van welke criteria kan de risicocategorie van een AI-systeem worden geidentificeerd? Onderstaande tool helpt gebruikers en ontwikkelaars bij implementatie van de AI-verordening middels twee dynamische vragenlijsten:
19+
Implementatie van de AI-verordening brengt lastige vragen met zich mee. Wat is de reikwijdte van de AI-systeem definitie? Aan de hand van welke criteria kan de risicocategorie van een AI-systeem worden geidentificeerd? Onderstaande tool helpt gebruikers en ontwikkelaars bij implementatie van de AI-verordening middels twee dynamische vragenlijsten:
2020

2121
1. Identificatie van AI-systeem en impactvolle algoritmes
2222
2. Identificatie van risicocategorie en verboden toepassingen.
2323

2424
De vragenlijsten zijn ontworpen om AI-systemen en de bijbehorende risicocategorie te identificeren aan de hand van eenvoudige vragen.
2525

26-
Omdat niet alle algoritmes met invloed op burgers een AI-systeem zijn, houdt de eerste vragenlijst ook rekening met *impactvolle algoritmes*. De term 'impactvolle algoritmes' wordt gebruik door de Rijksoverheid om te verwijzen naar algoritmes die niet voldoen aan de AI-systeem definitie uit de AI-verordening, maar waar wel risicobeheersmaatregelen voor ingericht dienen te worden. Meer informatie kan worden gevonden in de <a href="https://algoritmes.pleio.nl/attachment/entity/f1a35292-7ea6-4e47-93fa-b3358e9ab2e0" target="_blank">Handreiking Algoritmeregister</a> van het Ministerie van Binnenlandse Zaken en Koningkrijksrelaties.
26+
Omdat niet alle algoritmes met invloed op burgers een AI-systeem zijn, houdt de eerste vragenlijst ook rekening met _impactvolle algoritmes_. De term 'impactvolle algoritmes' wordt gebruik door de Rijksoverheid om te verwijzen naar algoritmes die niet voldoen aan de AI-systeem definitie uit de AI-verordening, maar waar wel risicobeheersmaatregelen voor ingericht dienen te worden. Meer informatie kan worden gevonden in de <a href="https://algoritmes.pleio.nl/attachment/entity/f1a35292-7ea6-4e47-93fa-b3358e9ab2e0" target="_blank">Handreiking Algoritmeregister</a> van het Ministerie van Binnenlandse Zaken en Koningkrijksrelaties.
2727

2828
Alle mogelijke uitkomsten van de beslisboom zijn weergeven in het [figuur](/nl/technical-tools/implementation-tool/#outcome) beneden op deze webpagina.
2929

3030
{{< container_close >}}
3131

32-
{{< webapp id="webapp" appId="AIActImplementationTool" src="https://ai-documentation.s3.eu-central-1.amazonaws.com/AI-Act-Questionnaire-v1.0.0.js" title="" >}}
32+
{{< iframe src="https://ai-documentation.s3.eu-central-1.amazonaws.com/index.html?lang=nl" title="" icon="" height="500px" >}}
3333

3434
{{< container_open icon="fas fa-layer-group" title="Uitkomsten vragenlijsten" id="outcome" >}}
3535

3636
De uitkomst van de eerste vragenlijst wordt schematisch weergeven in onderstaand figuur. Er wordt onderscheid gemaakt tussen:
3737

38-
* Algoritmes: vallen buiten de reikwijdte van de AI-verordening, behoeven geen extra beheersmaatregelen
39-
* Impactvolle algoritmes: vallen buiten de reikwijdte van de AI-verordening, behoeven wel extra beheersmaatregelen
40-
* AI-systemen: vallen binnen de reikwijdte van de AI-verordening, behoeven geen extra beheersmaatregelen voor hoog-risico AI-systemen
41-
* Hoog risico AI-systemen: vallen binnen de reikwijdte van de AI-verordening, behoeven extra beheersmaatregelen voor hoog-risico AI-systemen
42-
* Verboden AI-systemen: vallen binnen de reikwijdte van de AI-verordening, dit type AI-systemen zijn verboden in
38+
- Algoritmes: vallen buiten de reikwijdte van de AI-verordening, behoeven geen extra beheersmaatregelen
39+
- Impactvolle algoritmes: vallen buiten de reikwijdte van de AI-verordening, behoeven wel extra beheersmaatregelen
40+
- AI-systemen: vallen binnen de reikwijdte van de AI-verordening, behoeven geen extra beheersmaatregelen voor hoog-risico AI-systemen
41+
- Hoog risico AI-systemen: vallen binnen de reikwijdte van de AI-verordening, behoeven extra beheersmaatregelen voor hoog-risico AI-systemen
42+
- Verboden AI-systemen: vallen binnen de reikwijdte van de AI-verordening, dit type AI-systemen zijn verboden in
4343

4444
<br> <br> <img src="/images/ai-act-implementation-tool/Venn diagram_NL.png" alt="drawing" width="600"/>
4545

0 commit comments

Comments
 (0)