You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
[Introduction](#introduction) | [Fonctionnement](#fonctionnement) | [Ajout de plugin](#ajout-de-plugin) | [Déploiement](#déploiement)
6
15
16
+
</div>
17
+
7
18
## Introduction
8
19
9
20
Le serveur de triage a pour but d'automatiser le traitement des collectes effectuées sur les systèmes à investiguer. Il effectue le *processing* de certaines tâches (*timelining* et détection SIGMA notamment) ainsi que le *forwarding* vers les outils d'analyses (pile ELK et Timesketch si configuré dans config/triage.yaml).
@@ -47,21 +58,19 @@ Chaque collecte concerne :
47
58
</p>
48
59
49
60
### Plugins
61
+

50
62
51
63
#### KAPE
52
64
53
-
> Ce plugin s'exécute sur une collecte réalisée par kape. Le fichier d'entrée est la seconde archive ZIP contenant le fichier VHDX généré par l'outil de collecte du CERT.
54
-
65
+
> Ce plugin s'exécute sur une collecte réalisée par kape. Le fichier d'entrée est l'archive ZIP contenant le fichier VHDX généré par l'outil de collecte.
55
66
56
67
Ce plugin dézippe l'archive, monte le vhdx fournis dans un dossier créé et propre à chaque collecte.
57
68
58
-

59
-
60
69
Plusieurs artefacts sont traités si sélectionnés dans l'interface :
61
70
62
-
- Les EVTX sont copiés dans un dossier puis envoyés à la VM Winlogbeat pour indexation
63
-
OU
71
+
- Les EVTX sont copiés dans un dossier puis envoyés à la VM Winlogbeat pour parsing et indexation
64
72
- Les EVTX sont parsés (par la lib python) puis envoyés à ELK
73
+
- Exécution Hayabusa sur les EVTX
65
74
- Les logs IIS seront extraits du vhdx, copiés dans un dossier, parsés puis envoyés à ELK
66
75
- Les timelines Plaso seront créées puis envoyées à Timesketch
67
76
- Parsing MFT
@@ -73,6 +82,10 @@ OU
73
82
- Parsing $Recycle.Bin
74
83
- Récupération des fichiers d'historique Powershell des utilisateurs
75
84
- RDP Bitmap Cache parser
85
+
- Parsing LNK
86
+
- Parsing JumpList
87
+
- Parsing Tasks
88
+
- Parsing Webcache
76
89
77
90
#### GENERAPTOR Windows
78
91
@@ -81,9 +94,9 @@ OU
81
94
82
95
Plusieurs artefacts sont traités si sélectionnés dans l'interface :
83
96
84
-
- Les EVTX sont copiés dans un dossier puis envoyés à la VM Winlogbeat pour indexation
85
-
OU
97
+
- Les EVTX sont copiés dans un dossier puis envoyés à la VM Winlogbeat pour parsing et indexation
86
98
- Les EVTX sont parsés (par la lib python) puis envoyés à ELK
99
+
- Exécution Hayabusa sur les EVTX
87
100
- Les logs IIS seront extraits du ZIP, copiés dans un dossier, parsés puis envoyés à ELK
88
101
- Une timeline Plaso est créée puis envoyée à Timesketch
89
102
- Parsing MFT
@@ -95,6 +108,10 @@ OU
95
108
- Parsing $Recycle.Bin
96
109
- Récupération des fichiers d'historique Powershell des utilisateurs
97
110
- RDP Bitmap Cache parser
111
+
- Parsing LNK
112
+
- Parsing JumpList
113
+
- Parsing Tasks
114
+
- Parsing Webcache
98
115
99
116
#### DFIR-ORC
100
117
@@ -103,14 +120,23 @@ OU
103
120
104
121
Plusieurs artefacts sont traités si sélectionnés dans l'interface :
105
122
106
-
- Les EVTX sont copiés dans un dossier puis envoyés à la VM Winlogbeat pour indexation
107
-
OU
123
+
- Les EVTX sont copiés dans un dossier puis envoyés à la VM Winlogbeat pour parsing et indexation
108
124
- Les EVTX sont parsés (par la lib python) puis envoyés à ELK
125
+
- Exécution Hayabusa sur les EVTX
109
126
- Une timeline Plaso est créée puis envoyée à Timesketch
- Récupération des fichiers d'historique Powershell des utilisateurs
135
+
- RDP Bitmap Cache parser
136
+
- Parsing LNK
137
+
- Parsing JumpList
138
+
- Parsing Tasks
139
+
- Parsing Webcache
114
140
115
141
#### GENERAPTOR Linux
116
142
@@ -120,6 +146,7 @@ OU
120
146
Plusieurs artefacts sont traités si sélectionnés dans l'interface :
121
147
122
148
- Une timeline Plaso est créée puis envoyées à Timesketch
149
+
- PSORT est exécuté sur le plaso précédement généré
123
150
- Filebeat indexera dans ELK les logs capturés lors de la collecte
124
151
125
152
#### Hayabusa
@@ -137,6 +164,7 @@ Deux artefacts sont traités dans ce plugin :
137
164
138
165
- Filebeat indexera dans ELK les logs capturés lors de la collecte
139
166
- Une timelines Plaso est créée puis envoyée à Timesketch
167
+
- PSORT est exécuté sur le plaso précédement généré
140
168
141
169
#### ADTimeline
142
170
@@ -183,7 +211,7 @@ L'archive envoyée est dézippée et les fichiers JSON présents sont parsés pu
183
211
184
212

185
213
186
-
Cette partie permet de facilité l'exécution d'un plugin sur des artefacts spécifiques.
214
+
Cette partie permet de faciliter l'exécution d'un plugin sur des artefacts spécifiques.
187
215
188
216

189
217
@@ -206,7 +234,11 @@ Une page d'administration est accesssible pour le moment à tout le monde car au
206
234
207
235
208
236
Elle permet:
209
-
- D'avoir une vue sur l'ensemble des collectes, de pouvoir les supprimer et récupérer le fichier de log associé.
237
+
- D'avoir une vue sur l'ensemble des collectes
238
+
- De supprimer des collectes
239
+
- De relancer des collectes
240
+
- D'arrêter des triages en cours
241
+
- De récupérer les fichier de log des collectes
210
242
- De supprimer des sketch TIMESKETCH
211
243
- De supprimer des index ELASTIC
212
244
- De mettre à jour HAYABUSA
@@ -300,10 +332,8 @@ KEYCLOAK_USERS_GROUP=CERT
300
332
301
333
Créer les dossiers **data**, **winlogbeat**, **log** et **hayabusa** si non présents (chemin à renseigner dans les fichiers docker-compose-build/prod.yml et dans config/triage.yaml *volumes => data* qui est le volume hôte à monter donc ici ./data)
302
334
```bash
303
-
mkdir ./data
304
-
mkdir ./winlogbeat
305
-
mkdir ./log
306
-
mkdir ./hayabusa
335
+
mkdir /winlogbeat
336
+
mkdir -p /data/hayabusa
307
337
```
308
338
- Monter le partage winlogbeat dans le dossier précédement créé
309
339
- Placer le binaire hayabusa et ses dépendances dans le dossier précédement créé
@@ -322,7 +352,7 @@ sudo apt install cifs-utils
322
352
Start docker images
323
353
324
354
```bash
325
-
docker compose -f Docker/docker-compose.yml up -d --build
355
+
docker compose -f Docker/docker-compose.yml up -d
326
356
```
327
357
328
358
Le service web est disponible sur https://localhost
0 commit comments