Skip to content

Commit 6f8272e

Browse files
authored
Merge pull request #678 from LaisRast/translations/ar-SY
docs: remvoe English from titles
2 parents 80d7407 + 6ed9768 commit 6f8272e

11 files changed

+156
-155
lines changed

2_0_vulns/translations/ar-SY/LLM00_Preface.md

Lines changed: 11 additions & 10 deletions
Original file line numberDiff line numberDiff line change
@@ -1,6 +1,6 @@
11
## رسالة من قادة المشروع
22

3-
بدأ مشروع OWASP لأهم 10 مخاطر في تطبيقات النماذج اللغوية الكبيرة في عام 2023 كمبادرة يقودها المجتمع لتسليط الضوء على مشكلات الأمان الخاصة بتطبيقات الذكاء الاصطناعي ومعالجتها. ومنذ ذلك الحين, استمرت هذه التقنية في الانتشار عبر مختلف الصناعات والتطبيقات, وكذلك ازدادت المخاطر المرتبطة بها. ومع تكامل النماذج اللغوية الكبيرة بشكل أعمق في كل شيء, من تفاعلات العملاء إلى العمليات الداخلية, بدأ المطورون ومتخصصو الأمن في اكتشاف ثغرات جديدة وطرق لمعالجتها.
3+
بدأ مشروع أواسب لأهم 10 مخاطر في تطبيقات النماذج اللغوية الكبيرة في عام 2023 كمبادرة يقودها المجتمع لتسليط الضوء على مشكلات الأمان الخاصة بتطبيقات الذكاء الاصطناعي ومعالجتها. ومنذ ذلك الحين, استمرت هذه التقنية في الانتشار عبر مختلف الصناعات والتطبيقات, وكذلك ازدادت المخاطر المرتبطة بها. ومع تكامل النماذج اللغوية الكبيرة بشكل أعمق في كل شيء, من تفاعلات العملاء إلى العمليات الداخلية, بدأ المطورون ومتخصصو الأمن في اكتشاف ثغرات جديدة وطرق لمعالجتها.
44

55
كانت قائمة عام 2023 ناجحة في رفع مستوى الوعي وبناء أساس لاستخدام آمن للنماذج اللغوية الكبيرة, لكننا تعلمنا المزيد منذ ذلك الحين. في إصدار 2025 الجديد هذا, عملنا مع مجموعة أكبر وأكثر تنوعًا من المساهمين من جميع أنحاء العالم, ساهموا جميعًا في تشكيل هذه القائمة. شمل هذا العمل جلسات عصف ذهني, وتصويتات, وتعليقات من الواقع العملي قدمها متخصصون في أمن تطبيقات النماذج اللغوية, سواء من خلال المساهمة أو تحسين الإدخالات استنادًا إلى الملاحظات. كانت كل مساهمة ضرورية لجعل هذا الإصدار الجديد شاملًا وعمليًا قدر الإمكان.
66

@@ -22,25 +22,26 @@
2222

2323
#### ستيف ويلسون
2424
قائد المشروع
25-
OWASP لأهم 10 مخاطر في تطبيقات النماذج اللغوية الكبيرة
26-
LinkedIn: https://www.linkedin.com/in/wilsonsd/
25+
أواسب لأهم 10 مخاطر في تطبيقات النماذج اللغوية الكبيرة
26+
لينكدإن: https://www.linkedin.com/in/wilsonsd
2727

2828
#### آدز دوسون
2929
القائد التقني وقائد إدخالات الثغرات
30-
OWASP لأهم 10 مخاطر في تطبيقات النماذج اللغوية الكبيرة
31-
LinkedIn: https://www.linkedin.com/in/adamdawson0/
30+
أواسب لأهم 10 مخاطر في تطبيقات النماذج اللغوية الكبيرة
31+
لينكدإن: https://www.linkedin.com/in/adamdawson0
3232

3333
### فريق الترجمة العربية
3434
#### ليث رستناوي
35-
LinkedIn: https://www.linkedin.com/in/laith-rastanawi/
35+
لينكدإن: https://www.linkedin.com/in/laith-rastanawi
3636

3737
#### عمر العقاد
38-
LinkedIn: https://www.linkedin.com/in/omar-a-994238200
38+
لينكدإن: https://www.linkedin.com/in/omar-a-994238200
3939

4040

4141
### حول هذه الترجمة
42-
نظرًا للطبيعة التقنية والحساسة لقائمة OWASP لأهم 10 مخاطر في تطبيقات النماذج اللغوية الكبيرة, فقد اخترنا عمدًا الاعتماد على مترجمين بشريين فقط في إعداد هذه الترجمة. يتمتع المترجمون المدرجون أعلاه بمعرفة تقنية عميقة بالمحتوى الأصلي, إلى جانب الطلاقة اللغوية اللازمة لإنجاح هذه الترجمة.
42+
نظرًا للطبيعة التقنية والحساسة لقائمة أواسب لأهم 10 مخاطر في تطبيقات النماذج اللغوية الكبيرة, فقد اخترنا عمدًا الاعتماد على مترجمين بشريين فقط في إعداد هذه الترجمة. يتمتع المترجمون المدرجون أعلاه بمعرفة تقنية عميقة بالمحتوى الأصلي, إلى جانب الطلاقة اللغوية اللازمة لإنجاح هذه الترجمة.
4343

4444
#### تالِش سيبارسان
45-
قائد الترجمة, OWASP لأهم 10 مخاطر في تطبيقات الذكاء الاصطناعي (LLM)
46-
LinkedIn: https://www.linkedin.com/in/talesh/
45+
قائد الترجمة
46+
أواسب لأهم 10 مخاطر في تطبيقات النماذج اللغوية الكبيرة
47+
لينكدإن: https://www.linkedin.com/in/talesh

2_0_vulns/translations/ar-SY/LLM01_PromptInjection.md

Lines changed: 17 additions & 17 deletions
Original file line numberDiff line numberDiff line change
@@ -1,4 +1,4 @@
1-
## LLM01:2025 حقن التعليمات (Prompt Injection)
1+
## LLM01:2025 حقن التعليمات
22

33
### الوصف
44

@@ -31,40 +31,40 @@
3131

3232
تُعد ثغرات حقن التعليمات (Prompt Injection) ممكنة الحدوث بسبب طبيعة الذكاء الاصطناعي التوليدي. ونظرًا للتأثير الاحتمالي (Stochastic) الكامن في آلية عمل النماذج، فإنه من غير الواضح ما إذا كانت هناك طرق وقائية مضمونة تمامًا ضد حقن التعليمات. ومع ذلك، يمكن للتدابير التالية أن تُخفف من أثر هجمات حقن التعليمات:
3333

34-
#### 1. تقييد سلوك النموذج (Constrain model behavior)
34+
#### 1. تقييد سلوك النموذج
3535
زوّد النموذج بتعليمات واضحة ضمن التعليمات النظامية (System Prompt) تحدد دوره، وقدراته، وحدوده. قم بفرض الالتزام الصارم بالسياق، وقيّد الاستجابات بمهام أو مواضيع محددة، ووجّه النموذج إلى تجاهل أي محاولات لتعديل التعليمات الجوهرية.
36-
#### 2. تحديد والتحقق من تنسيقات المخرجات المتوقعة (Define and validate expected output formats)
36+
#### 2. تحديد والتحقق من تنسيقات المخرجات المتوقعة
3737
حدّد تنسيقات مخرجات واضحة، واطلب من النموذج تقديم تبريرات تفصيلية مع ذكر المصادر عند الحاجة.استخدم شيفرة حتمية (Deterministic Code) للتحقق من التزام النموذج بهذه التنسيقات.
38-
#### 3. تنفيذ تصفية المدخلات والمخرجات (Implement input and output filtering)
38+
#### 3. تنفيذ تصفية المدخلات والمخرجات
3939
حدّد الفئات الحساسة وبناء قواعد لتحديد ومعالجة مثل هذا المحتوى. طبّق مرشحات دلالية (Semantic Filters) واستخدم تقنيات فحص السلاسل النصية لاكتشاف المحتوى غير المسموح به. قيّم المخرجات باستخدام إطار RAG Triad الذي يشمل: تقييم مدى ارتباط السياق (Context Relevance)، الاستناد إلى مصادر دقيقة (Groundedness)، وملاءمة السؤال والإجابة (Question/Answer Relevance) وذلك لتحديد المخرجات التي قد تكون خبيثة أو غير آمنة.
40-
#### 4. فرض ضوابط الامتيازات ومبدأ الحد الأدنى من الوصول (Enforce privilege control and least privilege access)
40+
#### 4. فرض ضوابط الامتيازات ومبدأ الحد الأدنى من الوصول
4141
زوّد التطبيق برموز وصول (API Tokens) خاصة به للوظائف القابلة للتوسعة، وتعامل مع هذه الوظائف من خلال الشيفرة البرمجية بدلاً من تمريرها إلى النموذج. قيّد امتيازات الوصول الخاصة بالنموذج إلى الحد الأدنى اللازم لأداء مهامه المقصودة فقط.
42-
#### 5. طلب الموافقة البشرية على الإجراءات عالية المخاطر (Require human approval for high-risk actions)
42+
#### 5. طلب الموافقة البشرية على الإجراءات عالية المخاطر
4343
طبق ضوابط "الإنسان في الحلقة" (Human-in-the-Loop) للعمليات المميزة لمنع الإجراءات غير المصرح بها.
44-
#### 6. فصل وتحديد المحتوى الخارجي (Segregate and identify external content)
44+
#### 6. فصل وتحديد المحتوى الخارجي
4545
افصل المحتوى غير الموثوق به بشكل واضح ومُعلَن، وميّزه بوضوح عن بقية المحتوى، وذلك لتقليل تأثيره على تعليمات المستخدم أو مدخلاته.
46-
#### 7. إجراء اختبارات هجومية ومحاكاة الهجمات (Conduct adversarial testing and attack simulations)
46+
#### 7. إجراء اختبارات هجومية ومحاكاة الهجمات
4747
قم بإجراء اختبارات اختراق (Penetration Testing) ومحاكاة لسيناريوهات الهجوم بشكل منتظم،مع التعامل مع النموذج كطرف غير موثوق به (Untrusted User) لاختبار فعالية حدود الثقة (Trust Boundaries) وآليات التحكم في الوصول (Access Controls).
4848

4949
### مثال على سيناريوهات الهجوم
5050

51-
#### السيناريو #1: الحقن المباشر (Direct Injection)
51+
#### السيناريو #1: الحقن المباشر
5252
يقوم المهاجم بحقن تعلمية في روبوت دردشة دعم العملاء، يوجهه لتجاهل الإرشادات السابقة، واستعلام مخازن البيانات الخاصة، وإرسال رسائل بريد إلكتروني، مما يؤدي إلى وصول غير مصرح به وتصعيد الامتيازات.
53-
#### السيناريو #2: الحقن غير المباشر (Indirect Injection)
53+
#### السيناريو #2: الحقن غير المباشر
5454
يستخدم أحد المستخدمين نموذج لغة كبير (LLM) لتلخيص صفحة ويب تحتوي على تعليمات خفية، مما يدفع النموذج إلى إدراج صورة ترتبط بعنوان URL، ويؤدي ذلك إلى تسريب محتوى المحادثة الخاصة.
55-
#### السيناريو #3: الحقن غير المقصود (Unintentional Injection)
55+
#### السيناريو #3: الحقن غير المقصود
5656
تقوم إحدى الشركات بإدراج تعليمات ضمن وصف وظيفي تطلب فيها التعرف على الطلبات المكتوبة بواسطة الذكاء الاصطناعي. يقوم أحد المتقدمين — دون علم بهذه التعليمات — باستخدام نموذج لغة لتحسين سيرته الذاتية، مما يؤدي دون قصد إلى تفعيل آلية اكتشاف المحتوى الاصطناعي.
57-
#### السيناريو #4: التأثير المتعمّد على النموذج (Intentional Model Influence)
57+
#### السيناريو #4: التأثير المتعمّد على النموذج
5858
يقوم المهاجم بتعديل مستند في مستودع (repository) يستخدمه تطبيق توليد المعلومات المعزز بالاسترجاع (RAG). عندما يعيد استعلام المستخدم المحتوى المعدل، تقوم التعليمات الخبيثة بتغيير مخرجات النموذج، مما يؤدي إلى نتائج مضللة.
59-
#### السيناريو #5: حقن الشيفرة (Code Injection)
59+
#### السيناريو #5: حقن الشيفرة
6060
يستغل المهاجم ثغرة (CVE-2024-5184) في مساعد البريد الإلكتروني المدعوم بالنموذج اللغوي الكبير لحقن تعلميات خبيثة، مما يسمح بالوصول إلى معلومات حساسة والتلاعب بمحتوى البريد الإلكتروني.
61-
#### السيناريو #6: تقسيم الحمولة (Payload Splitting)
61+
#### السيناريو #6: تقسيم الحمولة
6262
يقوم المهاجم بتحميل سيرة ذاتية تحتوي على تعلميات خبيثة مخفية. عندما يتم استخدام النموذج اللغوي الكبير لتقييم المرشح، تقوم التعلميات المخفية بالتلاعب باستجابة النموذج، مما يؤدي إلى توصية إيجابية على الرغم من محتويات السيرة الذاتية الفعلية.
63-
#### السيناريو #7: الحقن متعدد الوسائط (Multimodal Injection)
63+
#### السيناريو #7: الحقن متعدد الوسائط
6464
يقوم مهاجم بتضمين تعلمية خبيثة داخل صورة ترافق نصًا بريئًا. عندما يعالج الذكاء الاصطناعي متعدد الوسائط الصورة والنص في وقت واحد، تقوم التعلمية المخفية بتغيير سلوك النموذج، مما قد يؤدي إلى إجراءات غير مصرح بها أو الكشف عن معلومات حساسة.
65-
#### السيناريو #8: اللاحقة العدائية (Adversarial Suffix)
65+
#### السيناريو #8: اللاحقة العدائية
6666
يقوم المهاجم بإضافة سلسلة من الأحرف التي تبدو بلا معنى إلى التعلمية، مما يؤثر على مخرجات النموذج اللغوي الكبير بطريقة خبيثة، متجاوزًا تدابير الأمان.
67-
#### السيناريو #9: الهجوم متعدد اللغات / المُموّه (Multilingual/Obfuscated Attack)
67+
#### السيناريو #9: الهجوم متعدد اللغات / المُموّه
6868
يستخدم المهاجم لغات متعددة أو يشفر التعليمات الخبيثة (مثل استخدام Base64 أو الرموز التعبيرية) لتجنب المرشحات والتلاعب بسلوك النموذج اللغوي الكبير.
6969

7070
### روابط مرجعية

0 commit comments

Comments
 (0)