Skip to content

Commit 2583a55

Browse files
committed
Update ClipTextEncode docs
1 parent 21bd33f commit 2583a55

File tree

7 files changed

+294
-61
lines changed

7 files changed

+294
-61
lines changed
Lines changed: 40 additions & 11 deletions
Original file line numberDiff line numberDiff line change
@@ -1,18 +1,47 @@
1-
The CLIPTextEncode node is designed to encode textual inputs using a CLIP model, transforming text into a form that can be utilized for conditioning in generative tasks. It abstracts the complexity of text tokenization and encoding, providing a streamlined interface for generating text-based conditioning vectors.
1+
`CLIP Text Encode (CLIPTextEncode)` acts like a translator, converting your creative text descriptions into a special "language" that AI can understand, helping the AI accurately interpret what kind of image you want to create.
22

3-
Besides normal text prompts, you can also use embedding models. For example, if you add an embedding model in the `ComfyUI/models/embeddings` directory, you can use this embedding model in the prompt.
4-
5-
For example, if the corresponding model name is `EasyNegative`, you can use `embedding:EasyNegative,` in the prompt to use this corresponding model.
3+
Imagine communicating with a foreign artist - you need a translator to help accurately convey the artwork you want. This node acts as that translator, using the CLIP model (an AI model trained on vast amounts of image-text pairs) to understand your text descriptions and convert them into "instructions" that the AI art model can understand.
64

75
## Inputs
86

9-
| Parameter | Data Type | Description |
10-
|-----------|-------------|-------------|
11-
| `text` | `STRING` | The 'text' parameter is the textual input that will be encoded. It plays a crucial role in determining the output conditioning vector, as it is the primary source of information for the encoding process. |
12-
| `clip` | CLIP | The 'clip' parameter represents the CLIP model used for text tokenization and encoding. It is essential for converting the textual input into a conditioning vector, influencing the quality and relevance of the generated output. |
7+
| Parameter | Data Type | Input Method | Default | Range | Description |
8+
|-----------|-----------|--------------|---------|--------|-------------|
9+
| text | STRING | Text Input | Empty | Any text | Like detailed instructions to an artist, enter your image description here. Supports multi-line text for detailed descriptions. |
10+
| clip | CLIP | Model Selection | None | Loaded CLIP models | Like choosing a specific translator, different CLIP models are like different translators with slightly different understandings of artistic styles. |
1311

1412
## Outputs
1513

16-
| Parameter | Data Type | Description |
17-
|-----------|--------------|-------------|
18-
| `CONDITIONING` | CONDITIONING | The output 'conditioning' is a vector representation of the input text, encoded by the CLIP model. It serves as a crucial component for guiding generative models in producing relevant and coherent outputs. |
14+
| Output Name | Data Type | Description |
15+
|-------------|-----------|-------------|
16+
| CONDITIONING | CONDITIONING | These are the translated "painting instructions" containing detailed creative guidance that the AI model can understand. These instructions tell the AI model how to create an image matching your description. |
17+
18+
## Usage Tips
19+
20+
1. **Basic Text Prompt Usage**
21+
- Write detailed descriptions like you're writing a short essay
22+
- More specific descriptions lead to more accurate results
23+
- Use English commas to separate different descriptive elements
24+
25+
2. **Special Feature: Using Embedding Models**
26+
- Embedding models are like preset art style packages that can quickly apply specific artistic effects
27+
- Currently supports .safetensors, .pt, and .bin file formats, and you don't necessarily need to use the complete model name
28+
- How to use:
29+
1. Place the embedding model file (in .pt format) in the `ComfyUI/models/embeddings` folder
30+
2. Use `embedding:model_name` in your text
31+
Example: If you have a model called `EasyNegative.pt`, you can use it like this:
32+
33+
```
34+
a beautiful landscape, embedding:EasyNegative, high quality
35+
```
36+
37+
3. **Prompt Weight Adjustment**
38+
- Use parentheses to adjust the importance of certain descriptions
39+
- For example: `(beautiful:1.2)` will make the "beautiful" feature more prominent
40+
- Regular parentheses `()` have a default weight of 1.1
41+
- Use keyboard shortcuts `ctrl + up/down arrow` to quickly adjust weights
42+
- The weight adjustment step size can be modified in settings
43+
44+
4. **Important Notes**
45+
- Ensure the CLIP model is properly loaded
46+
- Use positive and clear text descriptions
47+
- When using embedding models, make sure the file name is correct and compatible with your current main model's architecture
Lines changed: 41 additions & 10 deletions
Original file line numberDiff line numberDiff line change
@@ -1,18 +1,49 @@
1-
El nodo CLIPTextEncode está diseñado para codificar entradas textuales utilizando un modelo CLIP, transformando el texto en una forma que puede ser utilizada para el condicionamiento en tareas generativas. Abstrae la complejidad de la tokenización y codificación de texto, proporcionando una interfaz simplificada para generar vectores de condicionamiento basados en texto.
1+
`Codificar Texto CLIP (Prompt)` actúa como un traductor, convirtiendo tus descripciones textuales creativas en un "lenguaje" especial que la IA puede entender, ayudando así a la IA a interpretar con precisión qué tipo de imagen deseas crear.
22

3-
Además de los prompts de texto normales, también puedes usar modelos de incrustación. Por ejemplo, si agregas un modelo de incrustación en el directorio `ComfyUI/models/embeddings`, puedes usar este modelo en el prompt.
3+
## Principio de Funcionamiento
44

5-
Por ejemplo, si el nombre del modelo correspondiente es `EasyNegative`, puedes usar `embedding:EasyNegative,` en el prompt para usar este modelo correspondiente.
5+
Imagina que estás comunicándote con un artista extranjero - necesitas un traductor para transmitir con precisión la obra que deseas. Este nodo actúa como ese traductor, utilizando el modelo CLIP (un modelo de IA entrenado con grandes cantidades de pares de imagen y texto) para entender tus descripciones textuales y convertirlas en "instrucciones" que el modelo de arte de IA puede comprender.
66

77
## Entradas
88

9-
| Parámetro | Tipo de Dato | Descripción |
10-
|-----------|-------------|-------------|
11-
| `text` | `STRING` | El parámetro 'text' es la entrada textual que será codificada. Juega un papel crucial en la determinación del vector de condicionamiento de salida, ya que es la fuente principal de información para el proceso de codificación. |
12-
| `clip` | CLIP | El parámetro 'clip' representa el modelo CLIP utilizado para la tokenización y codificación de texto. Es esencial para convertir la entrada textual en un vector de condicionamiento, influyendo en la calidad y relevancia de la salida generada. |
9+
| Parámetro | Tipo de Dato | Método de Entrada | Valor Predeterminado | Rango | Descripción |
10+
|-----------|--------------|-------------------|---------------------|--------|-------------|
11+
| text | STRING | Entrada de texto | Vacío | Cualquier texto | Como instrucciones detalladas a un artista, ingresa aquí tu descripción de imagen. Admite texto multilínea para descripciones detalladas. |
12+
| clip | CLIP | Selección de modelo | Ninguno | Modelos CLIP cargados | Como elegir un traductor específico, diferentes modelos CLIP son como diferentes traductores con comprensiones ligeramente diferentes de los estilos artísticos. |
1313

1414
## Salidas
1515

16-
| Parámetro | Tipo de Dato | Descripción |
17-
|-----------|--------------|-------------|
18-
| `CONDITIONING` | CONDITIONING | La salida 'conditioning' es una representación vectorial del texto de entrada, codificada por el modelo CLIP. Sirve como un componente crucial para guiar los modelos generativos en la producción de salidas relevantes y coherentes. |
16+
| Nombre de Salida | Tipo de Dato | Descripción |
17+
|------------------|--------------|-------------|
18+
| ACONDICIONAMIENTO | CONDITIONING | Estas son las "instrucciones de pintura" traducidas que contienen directrices creativas detalladas que el modelo de IA puede entender. Estas instrucciones le indican al modelo de IA cómo crear una imagen que coincida con tu descripción. |
19+
20+
## Consejos de Uso
21+
22+
1. **Uso Básico de Prompts de Texto**
23+
- Escribe descripciones detalladas como si estuvieras redactando un breve ensayo
24+
- Las descripciones más específicas conducen a resultados más precisos
25+
- Usa comas en inglés para separar diferentes elementos descriptivos
26+
27+
2. **Función Especial: Uso de Modelos de Embedding**
28+
- Los modelos de embedding son como paquetes de estilos artísticos preestablecidos que pueden aplicar rápidamente efectos artísticos específicos
29+
- Actualmente soporta los formatos de archivo .safetensors, .pt y .bin, y no necesariamente necesitas usar el nombre completo del modelo
30+
- Cómo usar:
31+
1. Coloca el archivo del modelo de embedding (en formato .pt) en la carpeta `ComfyUI/models/embeddings`
32+
2. Usa `embedding:nombre_del_modelo` en tu texto
33+
Ejemplo: Si tienes un modelo llamado `EasyNegative.pt`, puedes usarlo así:
34+
35+
```
36+
a beautiful landscape, embedding:EasyNegative, high quality
37+
```
38+
39+
3. **Ajuste de Pesos de Prompts**
40+
- Usa paréntesis para ajustar la importancia de ciertas descripciones
41+
- Por ejemplo: `(beautiful:1.2)` hará que la característica "beautiful" sea más prominente
42+
- Los paréntesis simples `()` tienen un peso predeterminado de 1.1
43+
- Usa los atajos de teclado `ctrl + flechas arriba/abajo` para ajustar rápidamente los pesos
44+
- El tamaño del paso de ajuste de peso se puede modificar en la configuración
45+
46+
4. **Notas Importantes**
47+
- Asegúrate de que el modelo CLIP esté correctamente cargado
48+
- Usa descripciones textuales positivas y claras
49+
- Al usar modelos de embedding, asegúrate de que el nombre del archivo sea correcto y compatible con la arquitectura de tu modelo principal actual
Lines changed: 41 additions & 10 deletions
Original file line numberDiff line numberDiff line change
@@ -1,18 +1,49 @@
1-
Le nœud CLIPTextEncode est conçu pour encoder les entrées textuelles à l'aide d'un modèle CLIP, transformant le texte en une forme utilisable pour le conditionnement dans les tâches génératives. Il simplifie la complexité de la tokenisation et de l'encodage du texte, offrant une interface simplifiée pour générer des vecteurs de conditionnement basés sur le texte.
1+
`CLIP Text Encode (Prompt)` agit comme un traducteur, convertissant vos descriptions textuelles créatives en un "langage" spécial que l'IA peut comprendre, aidant ainsi l'IA à interpréter précisément le type d'image que vous souhaitez créer.
22

3-
En plus des invites textuelles normales, vous pouvez également utiliser des modèles d'incorporation. Par exemple, si vous ajoutez un modèle d'incorporation dans le répertoire `ComfyUI/models/embeddings`, vous pouvez utiliser ce modèle d'incorporation dans l'invite.
3+
## Principe de Fonctionnement
44

5-
Par exemple, si le nom du modèle correspondant est `EasyNegative`, vous pouvez utiliser `embedding:EasyNegative,` dans l'invite pour utiliser ce modèle correspondant.
5+
Imaginez que vous communiquez avec un artiste étranger - vous avez besoin d'un traducteur pour transmettre précisément l'œuvre que vous désirez. Ce nœud agit comme ce traducteur, utilisant le modèle CLIP (un modèle d'IA entraîné sur de vastes quantités de paires image-texte) pour comprendre vos descriptions textuelles et les convertir en "instructions" que le modèle d'art IA peut comprendre.
66

77
## Entrées
88

9-
| Paramètre | Type de Donnée | Description |
10-
|-----------|-------------|-------------|
11-
| `text` | `STRING` | Le paramètre 'text' est l'entrée textuelle qui sera encodée. Il joue un rôle crucial dans la détermination du vecteur de conditionnement de sortie, car il est la source principale d'information pour le processus d'encodage. |
12-
| `clip` | CLIP | Le paramètre 'clip' représente le modèle CLIP utilisé pour la tokenisation et l'encodage du texte. Il est essentiel pour convertir l'entrée textuelle en un vecteur de conditionnement, influençant la qualité et la pertinence de la sortie générée. |
9+
| Paramètre | Type de Donnée | Méthode d'Entrée | Valeur par Défaut | Plage | Description |
10+
|-----------|----------------|------------------|-------------------|--------|-------------|
11+
| text | STRING | Saisie de texte | Vide | Tout texte | Comme des instructions détaillées à un artiste, entrez ici votre description d'image. Supporte le texte multiligne pour des descriptions détaillées. |
12+
| clip | CLIP | Sélection de modèle | Aucun | Modèles CLIP chargés | Comme choisir un traducteur spécifique, différents modèles CLIP sont comme différents traducteurs avec des compréhensions légèrement différentes des styles artistiques. |
1313

1414
## Sorties
1515

16-
| Paramètre | Type de Donnée | Description |
17-
|-----------|--------------|-------------|
18-
| `CONDITIONING` | CONDITIONING | La sortie 'conditioning' est une représentation vectorielle du texte d'entrée, encodée par le modèle CLIP. Elle sert de composant crucial pour guider les modèles génératifs dans la production de sorties pertinentes et cohérentes. |
16+
| Nom de Sortie | Type de Donnée | Description |
17+
|---------------|----------------|-------------|
18+
| CONDITIONNEMENT | CONDITIONING | Ce sont les "instructions de peinture" traduites contenant des directives créatives détaillées que le modèle d'IA peut comprendre. Ces instructions indiquent au modèle d'IA comment créer une image correspondant à votre description. |
19+
20+
## Conseils d'Utilisation
21+
22+
1. **Utilisation Basique des Prompts Textuels**
23+
- Écrivez des descriptions détaillées comme si vous rédigiez un court essai
24+
- Des descriptions plus spécifiques mènent à des résultats plus précis
25+
- Utilisez des virgules anglaises pour séparer différents éléments descriptifs
26+
27+
2. **Fonction Spéciale : Utilisation des Modèles d'Embedding**
28+
- Les modèles d'embedding sont comme des packages de styles artistiques préréglés qui peuvent rapidement appliquer des effets artistiques spécifiques
29+
- Supporte actuellement les formats de fichiers .safetensors, .pt et .bin, et vous n'avez pas nécessairement besoin d'utiliser le nom complet du modèle
30+
- Comment utiliser :
31+
1. Placez le fichier du modèle d'embedding (au format .pt) dans le dossier `ComfyUI/models/embeddings`
32+
2. Utilisez `embedding:nom_du_modèle` dans votre texte
33+
Exemple : Si vous avez un modèle nommé `EasyNegative.pt`, vous pouvez l'utiliser ainsi :
34+
35+
```
36+
a beautiful landscape, embedding:EasyNegative, high quality
37+
```
38+
39+
3. **Ajustement des Poids des Prompts**
40+
- Utilisez des parenthèses pour ajuster l'importance de certaines descriptions
41+
- Par exemple : `(beautiful:1.2)` rendra la caractéristique "beautiful" plus prononcée
42+
- Les parenthèses simples `()` ont un poids par défaut de 1.1
43+
- Utilisez les raccourcis clavier `ctrl + flèches haut/bas` pour ajuster rapidement les poids
44+
- La taille des pas d'ajustement des poids peut être modifiée dans les paramètres
45+
46+
4. **Notes Importantes**
47+
- Assurez-vous que le modèle CLIP est correctement chargé
48+
- Utilisez des descriptions textuelles positives et claires
49+
- Lors de l'utilisation de modèles d'embedding, assurez-vous que le nom du fichier est correct et compatible avec l'architecture de votre modèle principal actuel

0 commit comments

Comments
 (0)