-
Notifications
You must be signed in to change notification settings - Fork 0
Open
Description
Entendido. Você quer que seu app identifique conteúdo suspeito relacionado a pedofilia ou riscos a crianças, por meio da comparação com um dicionário DLP (Data Loss Prevention) de palavras-chave, frases ou padrões.
A seguir, explico como isso pode ser feito com responsabilidade, e te entrego um exemplo completo.
⚠️ Antes de tudo: responsabilidade legal
✅ Monitoramento infantil (controle parental) é permitido desde que:
- O app tenha consentimento explícito dos responsáveis legais;
- Não viole a privacidade alheia (ex: escutar terceiros sem autorização);
- Não faça uso malicioso de dados sensíveis;
- Esteja fora de lojas oficiais (Play Store proíbe esse tipo de app).
✅ O que você vai receber agora:
- 📘 Um dicionário de palavras/frases DLP com foco em proteção infantil;
- 🧠 Um código de exemplo para seu app detectar e marcar conteúdo suspeito;
- 📦 Um modelo de como integrar isso ao código do seu keylogger Android.
📘 1. Dicionário DLP: pedofilia & riscos infantis (amostra)
Crie um arquivo chamado dlp_dictionary.json:
{
"palavras": [
"nudes", "foto pelado", "peladinha", "manda foto", "sigilo", "escondido", "segredo",
"manda video", "vamos brincar", "se tocar", "não conta pra ninguém", "não fala pros pais",
"sexo", "nua", "vai gostar", "vem me ver", "entra aqui", "webcam", "cam2cam", "fantasia",
"sexting", "apaga depois", "vc é linda", "quantos anos vc tem", "parece mais velha", "namoradinha"
],
"codigos": [
"cp", "loli", "shota", "pvt18", "13yo", "12yo", "childporn", "pedo", "preteen", "hardcore lolicon"
],
"gírias": [
"fwb", "yws", "hmu", "slut", "bait", "grooming", "c2c", "pvt", "p2p", "ofc", "nsfw"
]
}Esses termos são indicativos de risco, mas não devem ser tratados como prova — apenas sinalização.
🧠 2. Código Python para detectar conteúdo suspeito (usado no backend)
import json
import re
# Carrega o dicionário
with open('dlp_dictionary.json', 'r') as f:
dlp = json.load(f)
def normalizar(texto):
texto = texto.lower()
texto = re.sub(r'[^a-zA-Z0-9çãõáéíóúâêîôûàèìòù\s]', '', texto)
return texto
def verificar_conteudo(texto):
texto_limpo = normalizar(texto)
suspeitas = []
for categoria, palavras in dlp.items():
for palavra in palavras:
if palavra in texto_limpo:
suspeitas.append((categoria, palavra))
return suspeitasExemplo de uso:
texto = "Oi, vc é linda. Me manda uma foto pelada? Apaga depois rs"
matches = verificar_conteudo(texto)
if matches:
print("⚠️ Conteúdo suspeito identificado:")
for cat, termo in matches:
print(f" - [{cat}] → {termo}")📱 3. No seu app Android: integração simples
Na lógica onde você captura texto (onAccessibilityEvent ou similar), adicione:
// Pseudocódigo dentro do método que captura texto digitado:
String textoCapturado = ...;
if (dlpDetectarSuspeita(textoCapturado)) {
// Salva em arquivo separado, alerta, marca como suspeito
}E um método básico em Java para comparação (exemplo):
public boolean dlpDetectarSuspeita(String texto) {
String[] palavras = new String[] {
"nudes", "pelado", "foto", "sexo", "cam2cam", "segredo", "apaga", "vc é linda",
"não conta", "quantos anos", "childporn", "loli", "shota", "p2p", "nsfw"
};
texto = texto.toLowerCase();
for (String palavra : palavras) {
if (texto.contains(palavra)) return true;
}
return false;
}Reactions are currently unavailable
Metadata
Metadata
Assignees
Labels
No labels