Skip to content

Commit c7aad65

Browse files
authored
Update LLM02_SensitiveInformationDisclosure.md
Signed-off-by: aristeidisz <[email protected]>
1 parent 7499501 commit c7aad65

File tree

1 file changed

+54
-54
lines changed

1 file changed

+54
-54
lines changed

2_0_vulns/translations/el-GR/LLM02_SensitiveInformationDisclosure.md

Lines changed: 54 additions & 54 deletions
Original file line numberDiff line numberDiff line change
@@ -1,87 +1,87 @@
1-
## LLM02:2025 Sensitive Information Disclosure
1+
## LLM02:2025 Αποκάλυψη Ευαίσθητων Πληροφοριών
22

3-
### Description
3+
### Περιγραφή
44

5-
Sensitive information can affect both the LLM and its application context. This includes personal identifiable information (PII), financial details, health records, confidential business data, security credentials, and legal documents. Proprietary models may also have unique training methods and source code considered sensitive, especially in closed or foundation models.
5+
Οι ευαίσθητες πληροφορίες μπορούν να επηρεάσουν τόσο τo LLM όσο και το πλαίσιο εφαρμογής του. Αυτό περιλαμβάνει προσωπικά ταυτοποιήσιμες πληροφορίες (PII), οικονομικά στοιχεία, αρχεία υγείας, εμπιστευτικά επιχειρηματικά δεδομένα, διαπιστευτήρια ασφαλείας και νομικά έγγραφα. Τα ιδιόκτητα μοντέλα μπορεί επίσης να έχουν μοναδικές μεθόδους εκπαίδευσης και πηγαίο κώδικα που θεωρούνται ευαίσθητα, ιδίως σε κλειστά ή ιδρυματικά μοντέλα.
66

7-
LLMs, especially when embedded in applications, risk exposing sensitive data, proprietary algorithms, or confidential details through their output. This can result in unauthorized data access, privacy violations, and intellectual property breaches. Consumers should be aware of how to interact safely with LLMs. They need to understand the risks of unintentionally providing sensitive data, which may later be disclosed in the model's output.
7+
Τα LLM, ειδικά όταν ενσωματώνονται σε εφαρμογές, κινδυνεύουν να εκθέσουν ευαίσθητα δεδομένα, ιδιόκτητους αλγορίθμους ή εμπιστευτικές λεπτομέρειες μέσω της εξόδου τους. Αυτό μπορεί να οδηγήσει σε μη εξουσιοδοτημένη πρόσβαση δεδομένων, παραβιάσεις της ιδιωτικότητας και παραβιάσεις της πνευματικής ιδιοκτησίας. Οι χρήστες θα πρέπει να γνωρίζουν πώς να αλληλεπιδρούν με ασφάλεια με τα LLM. Θα πρέπει να κατανοήσουν τους κινδύνους της ακούσιας παροχής ευαίσθητων δεδομένων, τα οποία μπορεί αργότερα να αποκαλυφθούν στην έξοδο του μοντέλου.
88

9-
To reduce this risk, LLM applications should perform adequate data sanitization to prevent user data from entering the training model. Application owners should also provide clear Terms of Use policies, allowing users to opt out of having their data included in the training model. Adding restrictions within the system prompt about data types that the LLM should return can provide mitigation against sensitive information disclosure. However, such restrictions may not always be honored and could be bypassed via prompt injection or other methods.
9+
Για να μειωθεί αυτός ο κίνδυνος, οι εφαρμογές LLM θα πρέπει να εκτελούν επαρκή εξυγίανση δεδομένων για να αποτρέψουν την είσοδο δεδομένων χρηστών στο μοντέλο εκπαίδευσης. Οι ιδιοκτήτες των εφαρμογών θα πρέπει επίσης να παρέχουν σαφείς πολιτικές όρων χρήσης, επιτρέποντας στους χρήστες να μην παρέχουν συγκατάθεση να συμπεριληφθούν τα δεδομένα τους στο μοντέλο εκπαίδευσης. Η προσθήκη περιορισμών στο πλαίσιο της προτροπής του συστήματος σχετικά με τους τύπους δεδομένων που θα πρέπει να επιστρέφει το LLM μπορεί να προσφέρει μετριασμό κατά της αποκάλυψης ευαίσθητων πληροφοριών. Ωστόσο, αυτοί οι περιορισμοί ενδέχεται να μην τηρούνται πάντα και να μπορούν να παρακαμφθούν μέσω έγχυσης προτροπών ή άλλων μεθόδων.
1010

11-
### Common Examples of Vulnerability
11+
### Συνήθη παραδείγματα ευπάθειας
1212

13-
#### 1. PII Leakage
14-
Personal identifiable information (PII) may be disclosed during interactions with the LLM.
15-
#### 2. Proprietary Algorithm Exposure
16-
Poorly configured model outputs can reveal proprietary algorithms or data. Revealing training data can expose models to inversion attacks, where attackers extract sensitive information or reconstruct inputs. For instance, as demonstrated in the 'Proof Pudding' attack (CVE-2019-20634), disclosed training data facilitated model extraction and inversion, allowing attackers to circumvent security controls in machine learning algorithms and bypass email filters.
17-
#### 3. Sensitive Business Data Disclosure
18-
Generated responses might inadvertently include confidential business information.
13+
#### 1. Διαρροή Προσωπικά Ταυτοποιήσιμων Πληροφοριών
14+
Προσωπικά ταυτοποιήσιμες πληροφορίες (PII) μπορεί να αποκαλυφθούν κατά τη διάρκεια αλληλεπιδράσεων με το LLM.
15+
#### 2. Έκθεση Ιδιόκτητου Αλγορίθμου
16+
Οι κακώς διαμορφωμένες έξοδοι του μοντέλου μπορούν να αποκαλύψουν ιδιόκτητους αλγορίθμους ή δεδομένα. Η αποκάλυψη δεδομένων εκπαίδευσης μπορεί να εκθέσει τα μοντέλα σε επιθέσεις αντιστροφής, όπου οι επιτιθέμενοι εξάγουν ευαίσθητες πληροφορίες ή ανακατασκευάζουν τις εισόδους. Για παράδειγμα, όπως καταδείχθηκε στην επίθεση «Proof Pudding» (CVE-2019-20634), η αποκάλυψη δεδομένων εκπαίδευσης διευκόλυνε την εξαγωγή και αντιστροφή μοντέλων, επιτρέποντας στους επιτιθέμενους να παρακάμπτουν τους ελέγχους ασφαλείας σε αλγορίθμους μηχανικής μάθησης και να παρακάμπτουν τα φίλτρα ηλεκτρονικού ταχυδρομείου.
17+
#### 3. Αποκάλυψη Ευαίσθητων Επιχειρηματικών Δεδομένων
18+
Οι παραγόμενες απαντήσεις ενδέχεται να περιλαμβάνουν εκ παραδρομής εμπιστευτικές επιχειρηματικές πληροφορίες.
1919

20-
### Prevention and Mitigation Strategies
20+
### Στρατηγικές πρόληψης και μετριασμού
2121

22-
#### Sanitization:
22+
#### Εξυγίανση:
2323

24-
#### 1. Integrate Data Sanitization Techniques
25-
Implement data sanitization to prevent user data from entering the training model. This includes scrubbing or masking sensitive content before it is used in training.
26-
#### 2. Robust Input Validation
27-
Apply strict input validation methods to detect and filter out potentially harmful or sensitive data inputs, ensuring they do not compromise the model.
24+
#### 1. Ενσωμάτωση Τεχνικών Εξυγίανσης Δεδομένων
25+
Εφαρμόστε την εξυγίανση δεδομένων για να αποτρέψετε την είσοδο δεδομένων χρηστών στο μοντέλο εκπαίδευσης. Αυτό περιλαμβάνει την εκκαθάριση ή την απόκρυψη ευαίσθητου περιεχομένου πριν από τη χρήση του στην εκπαίδευση.
26+
#### 2. Ισχυρή Επικύρωση Εισόδου
27+
Εφαρμόστε αυστηρές μεθόδους επικύρωσης εισόδου για τον εντοπισμό και το φιλτράρισμα δυνητικά επιβλαβών ή ευαίσθητων εισόδων δεδομένων, διασφαλίζοντας ότι δεν θέτουν σε κίνδυνο το μοντέλο.
2828

29-
#### Access Controls:
29+
#### Έλεγχοι πρόσβασης:
3030

31-
#### 1. Enforce Strict Access Controls
32-
Limit access to sensitive data based on the principle of least privilege. Only grant access to data that is necessary for the specific user or process.
33-
#### 2. Restrict Data Sources
34-
Limit model access to external data sources, and ensure runtime data orchestration is securely managed to avoid unintended data leakage.
31+
#### 1. Επιβολή Αυστηρών Ελέγχων Πρόσβασης
32+
Περιορίστε την πρόσβαση σε ευαίσθητα δεδομένα με βάση την αρχή των λιγότερων προνομίων. Χορηγήστε πρόσβαση μόνο σε δεδομένα που είναι απαραίτητα για τον συγκεκριμένο χρήστη ή διαδικασία.
33+
#### 2. Περιορισμός των Πηγών Δεδομένων
34+
Περιορίστε την πρόσβαση του μοντέλου σε εξωτερικές πηγές δεδομένων και διασφαλίστε την ασφαλή διαχείριση της ενορχήστρωσης δεδομένων κατά τη διάρκεια εκτέλεσης για την αποφυγή ακούσιας διαρροής δεδομένων.
3535

36-
#### Federated Learning and Privacy Techniques:
36+
#### Τεχνικές ομοσπονδιακής μάθησης και προστασίας της ιδιωτικότητας:
3737

38-
#### 1. Utilize Federated Learning
39-
Train models using decentralized data stored across multiple servers or devices. This approach minimizes the need for centralized data collection and reduces exposure risks.
40-
#### 2. Incorporate Differential Privacy
41-
Apply techniques that add noise to the data or outputs, making it difficult for attackers to reverse-engineer individual data points.
38+
#### 1. Αξιοποίηση της ομοσπονδιακής μάθησης (Federated Learning)
39+
Εκπαιδεύστε μοντέλα χρησιμοποιώντας αποκεντρωμένα δεδομένα που είναι αποθηκευμένα σε πολλούς διακομιστές ή συσκευές. Αυτή η προσέγγιση ελαχιστοποιεί την ανάγκη για κεντρική συλλογή δεδομένων και μειώνει τους κινδύνους έκθεσης.
40+
#### 2. Ενσωμάτωση Διαφορικής Ιδιωτικότητας
41+
Εφαρμόστε τεχνικές που προσθέτουν θόρυβο στα δεδομένα ή στις εξόδους, καθιστώντας δύσκολο για τους επιτιθέμενους να αντιστρέψουν την επεξεργασία μεμονωμένων σημείων δεδομένων.
4242

43-
#### User Education and Transparency:
43+
#### Εκπαίδευση χρηστών και διαφάνεια:
4444

45-
#### 1. Educate Users on Safe LLM Usage
46-
Provide guidance on avoiding the input of sensitive information. Offer training on best practices for interacting with LLMs securely.
47-
#### 2. Ensure Transparency in Data Usage
48-
Maintain clear policies about data retention, usage, and deletion. Allow users to opt out of having their data included in training processes.
45+
#### 1. Εκπαίδευση των χρηστών για την ασφαλή χρήση της LLM
46+
Παροχή οδηγιών για την αποφυγή της εισαγωγής ευαίσθητων πληροφοριών. Προσφέρετε εκπαίδευση σχετικά με τις βέλτιστες πρακτικές για την ασφαλή αλληλεπίδραση με τα LLM.
47+
#### 2. Διασφάλιση διαφάνειας στη χρήση δεδομένων
48+
Διατηρήστε σαφείς πολιτικές σχετικά με τη διατήρηση, τη χρήση και τη διαγραφή δεδομένων. Να επιτρέπετε στους χρήστες να επιλέγουν να μην συμπεριλαμβάνονται τα δεδομένα τους σε διαδικασίες κατάρτισης.
4949

50-
#### Secure System Configuration:
50+
#### Ασφαλής διαμόρφωση συστήματος:
5151

52-
#### 1. Conceal System Preamble
53-
Limit the ability for users to override or access the system's initial settings, reducing the risk of exposure to internal configurations.
54-
#### 2. Reference Security Misconfiguration Best Practices
55-
Follow guidelines like "OWASP API8:2023 Security Misconfiguration" to prevent leaking sensitive information through error messages or configuration details.
56-
(Ref. link:[OWASP API8:2023 Security Misconfiguration](https://owasp.org/API-Security/editions/2023/en/0xa8-security-misconfiguration/))
52+
#### 1. Απόκρυψη προοιμίου συστήματος
53+
Περιορίστε τη δυνατότητα των χρηστών να παρακάμπτουν ή να έχουν πρόσβαση στις αρχικές ρυθμίσεις του συστήματος, μειώνοντας τον κίνδυνο έκθεσης σε εσωτερικές ρυθμίσεις.
54+
#### 2. Βέλτιστες πρακτικές αποφυγής λανθασμένων ρυθμίσεων ασφαλείας
55+
Ακολουθήστε οδηγίες όπως το «OWASP API8:2023 Security Misconfiguration» για να αποφύγετε τη διαρροή ευαίσθητων πληροφοριών μέσω μηνυμάτων σφάλματος ή λεπτομερειών διαμόρφωσης.
56+
(Σύνδεσμος Αναφοράς:[OWASP API8:2023 Security Misconfiguration](https://owasp.org/API-Security/editions/2023/en/0xa8-security-misconfiguration/))
5757

58-
#### Advanced Techniques:
58+
#### Προχωρημένες τεχνικές:
5959

60-
#### 1. Homomorphic Encryption
61-
Use homomorphic encryption to enable secure data analysis and privacy-preserving machine learning. This ensures data remains confidential while being processed by the model.
62-
#### 2. Tokenization and Redaction
63-
Implement tokenization to preprocess and sanitize sensitive information. Techniques like pattern matching can detect and redact confidential content before processing.
60+
#### 1. Ομομορφική κρυπτογράφηση
61+
Χρησιμοποιήστε ομομορφική κρυπτογράφηση για να επιτρέψετε την ασφαλή ανάλυση δεδομένων και τη μηχανική μάθηση με διατήρηση της ιδιωτικότητας. Αυτό διασφαλίζει ότι τα δεδομένα παραμένουν εμπιστευτικά κατά την επεξεργασία τους από το μοντέλο.
62+
#### 2. Τεχικές Κωδικοποίησης (Tokenization) και Απόκρυψης (Redaction)
63+
Εφαρμόστε τη διαδικασία tokenization για την προεπεξεργασία και την εξυγίανση ευαίσθητων πληροφοριών. Τεχνικές όπως η αντιστοίχιση προτύπων μπορούν να ανιχνεύσουν και να διαγράψουν εμπιστευτικό περιεχόμενο πριν από την επεξεργασία.
6464

65-
### Example Attack Scenarios
65+
### Παραδείγματα σεναρίων επίθεσης
6666

67-
#### Scenario #1: Unintentional Data Exposure
68-
A user receives a response containing another user's personal data due to inadequate data sanitization.
69-
#### Scenario #2: Targeted Prompt Injection
70-
An attacker bypasses input filters to extract sensitive information.
71-
#### Scenario #3: Data Leak via Training Data
72-
Negligent data inclusion in training leads to sensitive information disclosure.
67+
#### Σενάριο #1: Ακούσια έκθεση δεδομένων
68+
Ένας χρήστης λαμβάνει μια απάντηση που περιέχει προσωπικά δεδομένα άλλου χρήστη λόγω ανεπαρκούς εξυγίανσης δεδομένων.
69+
#### Σενάριο #2: Στοχευμένη έγχυση προτροπής
70+
Ένας εισβολέας παρακάμπτει τα φίλτρα εισόδου για να αποσπάσει ευαίσθητες πληροφορίες.
71+
#### Σενάριο #3: Διαρροή δεδομένων μέσω δεδομένων εκπαίδευσης
72+
Η πλημμελής συμπερίληψη δεδομένων στην εκπαίδευση οδηγεί σε αποκάλυψη ευαίσθητων πληροφοριών.
7373

74-
### Reference Links
74+
### Σύνδεσμοι Αναφοράς
7575

7676
1. [Lessons learned from ChatGPT’s Samsung leak](https://cybernews.com/security/chatgpt-samsung-leak-explained-lessons/): **Cybernews**
7777
2. [AI data leak crisis: New tool prevents company secrets from being fed to ChatGPT](https://www.foxbusiness.com/politics/ai-data-leak-crisis-prevent-company-secrets-chatgpt): **Fox Business**
7878
3. [ChatGPT Spit Out Sensitive Data When Told to Repeat ‘Poem’ Forever](https://www.wired.com/story/chatgpt-poem-forever-security-roundup/): **Wired**
7979
4. [Using Differential Privacy to Build Secure Models](https://neptune.ai/blog/using-differential-privacy-to-build-secure-models-tools-methods-best-practices): **Neptune Blog**
8080
5. [Proof Pudding (CVE-2019-20634)](https://avidml.org/database/avid-2023-v009/) **AVID** (`moohax` & `monoxgas`)
8181

82-
### Related Frameworks and Taxonomies
82+
### Σχετικά πλαίσια και ταξινομήσεις
8383

84-
Refer to this section for comprehensive information, scenarios strategies relating to infrastructure deployment, applied environment controls and other best practices.
84+
Ανατρέξτε σε αυτή την ενότητα για αναλυτικές πληροφορίες, στρατηγικές σεναρίων σχετικά με την ανάπτυξη υποδομών, εφαρμοσμένους ελέγχους περιβάλλοντος και άλλες βέλτιστες πρακτικές.
8585

8686
- [AML.T0024.000 - Infer Training Data Membership](https://atlas.mitre.org/techniques/AML.T0024.000) **MITRE ATLAS**
8787
- [AML.T0024.001 - Invert ML Model](https://atlas.mitre.org/techniques/AML.T0024.001) **MITRE ATLAS**

0 commit comments

Comments
 (0)