Skip to content

Commit bc7486c

Browse files
authored
Merge pull request #662 from olivier514/patch-1
Update LLM00_Preface.md
2 parents 8752e89 + c03621e commit bc7486c

File tree

1 file changed

+9
-8
lines changed

1 file changed

+9
-8
lines changed

2_0_vulns/translations/fr-FR/LLM00_Preface.md

Lines changed: 9 additions & 8 deletions
Original file line numberDiff line numberDiff line change
@@ -1,20 +1,21 @@
11
## Letter from the Project Leads
22

3-
The OWASP Top 10 for Large Language Model Applications started in 2023 as a community-driven effort to highlight and address security issues specific to AI applications. Since then, the technology has continued to spread across industries and applications, and so have the associated risks. As LLMs are embedded more deeply in everything from customer interactions to internal operations, developers and security professionals are discovering new vulnerabilities—and ways to counter them.
3+
Le OWASP Top 10 for Large Language Model Application (LLM) a vu le jour en 2023 dans le cadre d’un effort communautaire visant à mettre en évidence et traiter les problèmes de sécurité spécifiques aux dispositifs de l’IA. Depuis, la technologie a continué à proliférer dans divers secteurs et applications, tout comme les risques qui y sont associés. Au fur et à mesure de l’intégration de LLM de plus en plus avancé dans tous les domaines — des interactions avec la clientèle aux processus internes — les équipes de développement et les spécialistes en sécurité découvrent de nouvelles vulnérabilités et les moyens d’en contrer l’exploitation.
44

5-
The 2023 list was a big success in raising awareness and building a foundation for secure LLM usage, but we've learned even more since then. In this new 2025 version, we’ve worked with a larger, more diverse group of contributors worldwide who have all helped shape this list. The process involved brainstorming sessions, voting, and real-world feedback from professionals in the thick of LLM application security, whether by contributing or refining those entries through feedback. Each voice was critical to making this new release as thorough and practical as possible.
5+
La liste de 2023 a été un réel succès, favorisant la sensibilisation et établissant une base solide pour un usage sécurisé des LLM. Mais nous en approfondissons encore plus notre compréhension depuis. Dans cette nouvelle version de 2025, nous avons travaillé avec un groupe élargi, avec des contributions plus diversifiées, à travers le monde, qui ont grandement aidé à la façonner. Le processus a impliqué des séances de réflexions, des votes et des retours d’expériences professionnelles concrètes, de personnes directement impliquées dans la sécurisation des applications LLM, que ce soit en contribuant ou en affinant les entrées par leurs commentaires. Chaque voix a été essentielle pour rendre cette nouvelle édition aussi exhaustive et pratique que possible.
66

7-
### What’s New in the 2025 Top 10
87

9-
The 2025 list reflects a better understanding of existing risks and introduces critical updates on how LLMs are used in real-world applications today. For instance, **Unbounded Consumption** expands on what was previously Denial of Service to include risks around resource management and unexpected costs—a pressing issue in large-scale LLM deployments.
8+
### Quoi de neuf dans le Top 10 2025 ?
109

11-
The **Vector and Embeddings** entry responds to the community’s requests for guidance on securing Retrieval-Augmented Generation (RAG) and other embedding-based methods, now core practices for grounding model outputs.
10+
La liste de 2025 reflète une meilleure compréhension des risques existants et intègre des mises à jour critiques quant à l'usage effectif des modèles de langage (LLM) dans les applications d'aujourd'hui. Par exemple, **Consommation Illimitée** élargit ce qui était auparavant Déni de Service afin de prendre en compte les risques liés à la gestion des ressources et aux coûts imprévus: un enjeu majeur dans les déploiements à grande échelle de LLM.
1211

13-
We’ve also added **System Prompt Leakage** to address an area with real-world exploits that were highly requested by the community. Many applications assumed prompts were securely isolated, but recent incidents have shown that developers cannot safely assume that information in these prompts remains secret.
12+
L’entrée **vecteurs et représentations vectorielles** répond aux demandes de la communauté pour des directives relatives à la sécurisation des processus de Génération augmentée par récupération (RAG), et autres méthodes basées sur les intégrations, qui sont désormais des pratiques courantes afin d’assurer un ancrage contextuel des sorties de modèles.
1413

15-
**Excessive Agency** has been expanded, given the increased use of agentic architectures that can give the LLM more autonomy. With LLMs acting as agents or in plug-in settings, unchecked permissions can lead to unintended or risky actions, making this entry more critical than ever.
14+
Nous avons également ajouté **Fuite de requête système** pour traiter ce sujet de vulnérabilités avérées, largement sollicité par la communauté. De nombreuses applications présument les invites de requêtes protégées par un isolement sécurisé mais des incidents récents ont montré que les développeurs ne peuvent pas tenir pour acquis que les informations transmises dans ces requêtes restent secrètes.
1615

17-
### Moving Forward
16+
**Agentivité excessive** a été élargie en raison de l'utilisation croissante d'architectures agentiques qui peuvent donner plus d'autonomie au LLM. Lorsqu'ils agissent à titre d'agents ou configurateur de paramètres de plugiciels, les permissions non contrôlées peuvent entraîner des actions involontaires ou exposées à des risques, rendant cette entrée plus critique que jamais.
17+
18+
### Surmonter les obstacles
1819

1920
Like the technology itself, this list is a product of the open-source community’s insights and experiences. It has been shaped by contributions from developers, data scientists, and security experts across sectors, all committed to building safer AI applications. We’re proud to share this 2025 version with you, and we hope it provides you with the tools and knowledge to secure LLMs effectively.
2021

0 commit comments

Comments
 (0)