|
2 | 2 | title: Gen AI - Observability Settings |
3 | 3 | --- |
4 | 4 |
|
5 | | -# Le menu *Gen AI - Observability Settings* |
| 5 | +# The _Gen AI - Observability Settings_ Menu |
6 | 6 |
|
7 | | -- L'observabilité des modèles de langage (LLM Observability) aide à surveiller, d'analyser et de comprendre le comportement des modèles de langage à grande échelle. |
8 | | -- Cela inclut la collecte de données sur leurs performances, la détection d'anomalies et la compréhension des erreurs qu'ils peuvent produire. |
9 | | -- L'objectif est de garantir que ces modèles fonctionnent de manière fiable, transparente, en fournissant des informations qui permettent d'améliorer leur performance et de corriger les problèmes potentiels. |
10 | | -- Plus précisément, nous pourrons : |
11 | | - - Voir les différents enchainements d'appels de LLM avec le prompt d'entrée et de sortie |
12 | | - - Analyser les portions de documents contextuels utilisés |
13 | | - - Suivre les informations et les métriques sur les coûts, le nombre de jetons consommés, la latence, etc. |
| 7 | +- **LLM Observability** helps monitor, analyze, and understand the behavior of large-scale language models. |
| 8 | +- This includes collecting data on their performance, detecting anomalies, and understanding the errors they may produce. |
| 9 | +- The goal is to ensure that these models operate reliably and transparently, providing insights that help improve their performance and address potential issues. |
| 10 | +- Specifically, we can: |
| 11 | + - View different sequences of LLM calls, including input and output prompts. |
| 12 | + - Analyze contextual document sections used. |
| 13 | + - Track information and metrics such as costs, token consumption, latency, etc. |
14 | 14 |
|
15 | | - |
16 | | -> Pour accéder à cette page il faut bénéficier du rôle **_botUser_**. |
17 | | -> <br />( plus de détails sur les rôles dans [securité]() ). |
| 15 | +> To access this page, you must have the **_botUser_** role. |
| 16 | +> <br />(More details on roles can be found in [security](../../../../../admin/securite#rôles)). |
18 | 17 |
|
19 | 18 | ## Configuration |
20 | | -Pour permettre à Tock de se connecter à un outil d'observabilité, un écran de configuration a été mis en place : |
| 19 | +To enable Tock to connect to an observability tool, a configuration screen has been set up: |
| 20 | + |
| 21 | + |
| 22 | + |
| 23 | +## Public URL Configuration |
21 | 24 |
|
22 | | - |
| 25 | +- The **Public URL** field allows specifying an externally accessible URL for observability tools such as Langfuse. |
| 26 | +- This URL will be used in the frontend interface to redirect users to observability traces, replacing the internal URL, which may not be publicly accessible. |
23 | 27 |
|
24 | | -## Utilisation |
| 28 | +## Usage |
25 | 29 |
|
26 | | -- Voici la [liste des fournisseurs d'observabilité des LLM](../../../../user/studio/gen-ai/providers/gen-ai-provider-observability.md) qui sont pris en compte par Tock. |
27 | | -- Veuillez vous référer à la documentation de chaque outil pour comprendre comment l'utiliser. |
| 30 | +- Here is the [list of LLM observability providers](../../providers/gen-ai-provider-observability) supported by Tock. |
| 31 | +- Please refer to each tool's documentation to understand how to use it. |
0 commit comments