You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Based on our case-based experience with auditing risk profiling systems, Algorithm Audit publishes a public standard providing qualitative and qualitative safeguards for responsible use of these type of algorithms.
26
+
Based on our case-based experience with auditing risk profiling systems, Algorithm Audit publishes a public standard providing qualitative and qualitative safeguards for responsible use of this type of algorithms.
27
27
28
28
This standard provides a concise step-by-step guide for the responsible use of profiling algorithms in the public domain, but can also be utilized in the private sector.
29
29
30
30
Deployers of profiling systems should not wait for European harmonised standards, as developed in support of the AI Act, to regulate profiling systems, because:
31
31
32
-
1. AI Act standards have a broad scope (all type of AI-systems) and are therefore ineffective to regulate specific algorithmic applications, such as profiling
33
-
2. Classic rule-based profiling systems, that are based on rules defined solely by natural persons, do not fall under the definition of an AI-system and are therefore not in scope of the AI Act
32
+
1. AI Act standards have a broad scope (namely: all type of AI-systems) and are therefore ineffective to regulate specific algorithmic applications, such as profiling;
33
+
2. Classic rule-based profiling systems, that are based on rules defined solely by natural persons (see recital (12)), do not fall under the definition of an AI-system and are therefore not in scope of the AI Act;
34
34
3. AI Act standards will only be available behind the paywall of standardisation organisations and therefore impede public knowledge building about responsible algorithms.
35
35
36
-
In the Netherlands, ‘simple’ rule-based profiling systems have been deployed irresponsibly for over the last 15 years. This public standard aims to contribute to concise risk management measures that can be implemented today to deploy profiling more responsibly.
36
+
In the Netherlands, ‘simple’ rule-based profiling systems have often been deployed irresponsibly for over the last 15 years. This public standard aims to contribute to concise risk management measures that can be implemented today to deploy profiling more responsibly.
Voortbouwend op onze ervaring met het auditeren van risicoprofileringsmethoden heeft Algorithm Audit een publieke standaard opgesteld met kwalitatieve en kwantitatieve waarborgen voor de verantwoorde inzet van dit type algoritmes.
27
27
28
-
The standaard biedt een concreet stappenplan voor de verantwoorde inzet van profileringsalgoritmes voor toepassing in de publieke sector. De standaard kan ook in de private sector worden gebruikt.
28
+
De standaard biedt een concreet stappenplan voor de verantwoorde inzet van profileringsalgoritmes voor toepassing in de publieke sector. De standaard kan ook in de private sector worden gebruikt.
29
29
30
-
Ontwikkelaars van profileringsmethoden moeten om verschillende redenen niet wachten op Europese geharmoniseerde normen, die ter ondersteuning van de AI Verordening worden ontwikkeld, om profileringssystemen te reguleren:
30
+
Er zijn verschillende redenen waarom ontwikkelaars van profileringsmethoden niet moeten wachten op Europese geharmoniseerde normen, die ter ondersteuning van de AI Verordening worden ontwikkeld, om profileringssystemen te reguleren:
31
31
32
-
1. AI Verordeningen geharmonizeerde normen hebben een brede reikwijdte (alle type AI-systemen) en zijn daarom ineffectief om specifieke algoritische toepassingen te reguleren, zoals profilering
33
-
2. Klassieke regelgebaseerde systemen, waarvan regels door de mens zijn opgesteld, vallen niet onder de definitie van een AI-systeem en vallen daarmee buiten de reikwijdte van de AI Verordening
34
-
3. AI Verordeningen geharmonizeerde normen zullen enkel beschikbaar komen achter de betaalmuur van standaardiseringsorganisaties en hinderen daarmee publieke kennisopbouw over de verantwoorde inzet van algoritmes.
32
+
1. AI Verordeningen geharmonizeerde normen hebben een brede reikwijdte (namelijk: alle type AI-systemen) en zijn daarom ineffectief om specifieke algoritische toepassingen te reguleren, zoals profilering;
33
+
2. Klassieke regelgebaseerde systemen, waarvan regels door de mens zijn opgesteld (zie pre-ambule overweging 12), vallen niet onder de definitie van een AI-systeem en vallen daarmee buiten de reikwijdte van de AI Verordening;
34
+
3. AI Verordeningen geharmonizeerde normen zullen enkel beschikbaar zijn achter de betaalmuur van standaardiseringsorganisaties en hinderen daarmee publieke kennisopbouw over de verantwoorde inzet van algoritmes.
35
35
36
36
In Nederland hebben ‘simpele’ regelgebaseerde profileringsalgoritmes de afgelopen 15 jaar tot veel ophef geleid. Deze publieke standaard beoogt een bijdrage te leveren aan risicobeheersmaatregelen om de methoden op een meer verantwoorde manier in te zetten.
0 commit comments