Skip to content

Commit ad0c49c

Browse files
Merge pull request #41 from CreatoonForge/localization-ko
Improve Korean help texts for CLIP encoder nodes (Flux, Hunyuan, SDXL, Refiner)
2 parents 851b834 + b0cf6be commit ad0c49c

File tree

4 files changed

+33
-28
lines changed
  • comfyui_embedded_docs/docs
    • ClipTextEncodeFlux
    • ClipTextEncodeHunyuanDit
    • ClipTextEncodeSdxlRefiner
    • ClipTextEncodeSdxl

4 files changed

+33
-28
lines changed

comfyui_embedded_docs/docs/ClipTextEncodeFlux/ko.md

Lines changed: 15 additions & 13 deletions
Original file line numberDiff line numberDiff line change
@@ -1,23 +1,25 @@
1-
`CLIP 텍스트 인코딩 (FLUX)`는 ComfyUI에서 Flux 아키텍처를 위해 특별히 설계된 고급 텍스트 인코딩 노드입니다. CLIP-L과 T5XXL 두 개의 인코더를 협력적으로 사용하여 키워드와 상세한 자연어 설명을 모두 처리할 수 있으며, Flux 모델에 더 정확하고 풍부한 텍스트 이해력을 제공하여 텍스트 기반 이미지 생성 품질을 향상시킵니다.
1+
`CLIP 텍스트 인코딩 (FLUX)`는 ComfyUI에서 Flux 아키텍처를 위해 설계된 고급 텍스트 인코딩 노드입니다.
2+
CLIP-L과 T5XXL 두 인코더를 함께 사용하여 키워드와 자연어 기반 프롬프트를 동시에 처리할 수 있으며, 이를 통해 Flux 모델의 텍스트 이해도를 높여 이미지 생성 품질을 향상시킵니다.
23

3-
이 노드는 두 인코더의 협업 메커니즘을 기반으로 합니다:
4-
1. `clip_l` 입력은 CLIP-L 인코더에서 처리되어 스타일, 주제 등 키워드 특성을 추출합니다(간결한 설명에 적합).
5-
2. `t5xxl` 입력은 T5XXL 인코더에서 처리되어 복잡하고 상세한 자연어 장면 설명을 이해하는 데 뛰어납니다.
6-
3. 두 인코더의 출력은 결합되어 `가이던스` 파라미터와 함께 통합 조건 임베딩(`조건`)을 생성하며, 하위 Flux 샘플러 노드에서 생성 결과와 텍스트 설명의 일치도를 제어합니다.
4+
이 노드는 이중 인코딩 구조를 기반으로 작동합니다:
5+
6+
1. `clip_l` 입력은 CLIP-L 인코더에서 처리되며, 스타일이나 주제 등 간결한 키워드 특성을 추출하는 데 적합합니다.
7+
2. `t5xxl` 입력은 T5XXL 인코더에서 처리되며, 복잡하고 상세한 자연어 장면 설명을 이해하는 데 효과적입니다.
8+
3. 두 인코더의 출력은 결합되어 `가이던스` 파라미터와 함께 통합 조건 임베딩(`조건`)을 생성합니다. 이 임베딩은 Flux 샘플러 노드에 전달되어, 생성 결과가 텍스트 설명과 얼마나 일치할지를 조절합니다.
79

810
## 입력
911

10-
| 파라미터 이름 | 데이터 유형 | 입력 방식 | 기본값 | 범위 | 설명 |
11-
|--------------|-------------|----------|--------|------|------|
12-
| `clip` | CLIP | 노드 입력 | 없음 | - | Flux 아키텍처를 지원하는 CLIP 모델(두 인코더 CLIP-L, T5XXL 포함)이어야 함 |
13-
| `clip_l` | STRING | 텍스트 박스 | 없음 | 최대 77토큰 | 스타일, 주제 등 간결한 키워드 설명에 적합 |
14-
| `t5xxl` | STRING | 텍스트 박스 | 없음 | 사실상 무제한 | 복잡한 장면, 세부 묘사 등 자연어 설명에 적합 |
15-
| `가이던스` | FLOAT | 슬라이더 | 3.5 | 0.0 - 100.0 | 텍스트 조건이 생성 과정에 미치는 영향도를 제어, 값이 높을수록 텍스트에 더 엄격하게 따름 |
12+
| 파라미터 이름 | 데이터 유형 | 입력 방식 | 기본값 | 범위 | 설명 |
13+
|-----------|----------|-------------|---------|-------|-------------|
14+
| `clip` | CLIP | 노드 입력 | 없음 | - | Flux 아키텍처를 지원하는 CLIP 모델(두 인코더 CLIP-L, T5XXL 포함)이어야 함 |
15+
| `clip_l` | STRING | 텍스트 박스 | 없음 | 최대 77토큰 | 스타일, 주제 등 간결한 키워드 설명에 적합 |
16+
| `t5xxl` | STRING | 텍스트 박스 | 없음 | 사실상 무제한 | 복잡한 장면, 세부 묘사 등 자연어 설명에 적합 |
17+
| `가이던스` | FLOAT | 슬라이더 | 3.5 | 0.0 - 100.0 | 텍스트 조건이 생성 과정에 미치는 영향도를 제어, 값이 높을수록 텍스트에 더 엄격하게 따름 |
1618

1719
## 출력
1820

19-
| 출력 이름 | 데이터 유형 | 설명 |
20-
|-----------|-------------|------|
21+
| 출력 이름 | 데이터 유형 | 설명 |
22+
|--------------|-------------|-------------|
2123
| `조건` | CONDITIONING | 두 인코더 임베딩과 가이던스 파라미터를 포함, 조건부 이미지 생성에 사용 |
2224

2325
## 사용 예시

comfyui_embedded_docs/docs/ClipTextEncodeHunyuanDit/ko.md

Lines changed: 5 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -1,13 +1,13 @@
1-
`CLIP 텍스트 인코딩 (HunyuanDiT)` 노드의 주요 기능은 입력 텍스트를 모델이 이해할 수 있는 형태로 변환하는 것입니다. 이것은 HunyuanDiT 모델의 이중 텍스트 인코더 아키텍처를 위해 특별히 설계된 고급 조건부 노드입니다.
2-
이 노드의 주요 역할은 번역가와 같아서, 우리의 텍스트 설명을 AI 모델이 이해할 수 있는 "기계어"로 변환합니다. `bert``mt5xl` 입력은 서로 다른 유형의 프롬프트 입력을 선호합니다.
1+
`CLIP 텍스트 인코딩 (HunyuanDiT)` 노드는 입력 문장을 AI 모델이 이해할 수 있는 ‘기계어’로 변환해 줍니다. 이 노드는 HunyuanDiT의 듀얼 텍스트 인코더 구조에 최적화된고급 컨디셔닝 노드로, 마치 번역가처럼 작동합니다
2+
참고로 `bert` 입력과 `mt5xl` 입력은 서로 다른 형태의 프롬프트를 더 잘 처리하도록 설계되어 있습니다
33

44
## 입력
55

66
| 매개변수 | Data Type | 설명 |
77
|----------|-----------|------|
8-
| `조건` | CLIP | 텍스트 토큰화와 인코딩에 사용되는 CLIP 모델 인스턴스로, 조건 생성의 핵심입니다. |
9-
| `bert` | STRING | 인코딩을 위한 텍스트 입력으로, 구문과 키워드를 선호하며 여러 줄과 동적 프롬프트를 지원합니다. |
10-
| `mt5xl` | STRING | 또 다른 인코딩용 텍스트 입력으로, 여러 줄과 동적 프롬프트(다국어)를 지원하며 완전한 문장과 복잡한 설명을 사용할 수 있습니다. |
8+
| `조건` | CLIP | CLIP 모델을 활용해 텍스트를 토큰화하고 인코딩합니다. 조건 생성의 핵심 역할을 합니다. |
9+
| `bert` | STRING | 구문과 키워드 중심의 텍스트 입력을 받으며, 여러 줄과 동적 프롬프트를 지원합니다. |
10+
| `mt5xl` | STRING | 또 다른 인코딩용 텍스트 입력으로, 여러 줄과 동적 프롬프트(다국어)를 지원하며 긴 문장이나 복잡한 설명도 입력할 수 있습니다. |
1111

1212
## 출력
1313

comfyui_embedded_docs/docs/ClipTextEncodeSdxl/ko.md

Lines changed: 4 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -1,4 +1,5 @@
1-
이 노드는 SDXL 아키텍처를 위해 특별히 커스터마이즈된 CLIP 모델을 사용하여 텍스트 입력을 인코딩하도록 설계되었습니다. 이중 인코더 시스템(CLIP-L과 CLIP-G)을 사용하여 텍스트 설명을 처리하여 더 정확한 이미지 생성을 가능하게 합니다.
1+
`CLIP 텍스트 인코딩 (SDXL)` 노드는 SDXL 아키텍처에 최적화된 CLIP 모델을 사용해 텍스트 입력을 인코딩하도록 설계되었습니다.
2+
이중 인코더 시스템(CLIP-L과 CLIP-G)을 통해 프롬프트를 처리하여 보다 정확한 이미지 생성을 지원합니다.
23

34
## 입력
45

@@ -11,8 +12,8 @@
1112
| `크롭 높이` | INT | 자르기 영역의 높이를 픽셀 단위로 지정합니다. 기본값 0. |
1213
| `목표 너비` | INT | 출력 이미지의 목표 너비입니다. 기본값 1024. |
1314
| `목표 높이` | INT | 출력 이미지의 목표 높이입니다. 기본값 1024. |
14-
| `text_g` | STRING | 전체 장면 설명을 위한 전역 텍스트 설명입니다. |
15-
| `text_l` | STRING | 세부 사항 설명을 위한 지역 텍스트 설명입니다. |
15+
| `text_g` | STRING | 전체 장면 묘사를 위한 자연어 프롬프트를 입력합니다.|
16+
| `text_l` | STRING | 세부 사항 강조를 위한 키워드 프롬프트를 입력합니다. |
1617

1718
## 출력
1819

comfyui_embedded_docs/docs/ClipTextEncodeSdxlRefiner/ko.md

Lines changed: 9 additions & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -1,16 +1,18 @@
1-
이 노드는 SDXL Refiner 모델을 위해 특별히 설계되었으며, 미적 점수와 차원 정보를 통합하여 텍스트 프롬프트를 조건 정보로 변환함으로써 생성 작업의 조건을 향상시키고 최종 정제 효과를 개선합니다. 전문 아트 디렉터처럼 작동하여 창의적 의도를 전달할 뿐만 아니라 정확한 미적 기준과 사양 요구사항을 작업에 주입합니다.
1+
`CLIP 텍스트 인코딩 (SDXL Refiner)` 노드는 SDXL Refiner 모델 전용으로, 텍스트 프롬프트에 미적 점수와 차원 정보(가로·세로 크기)를 결합해 보다 정밀한 생성 조건을 만들어 줍니다. 마치 전문 아트 디렉터처럼, 창작 의도뿐 아니라 미적 기준과 출력 사양까지 함께 반영해 최종 결과물의 완성도를 높입니다.
22

33
## SDXL Refiner 소개
44

5-
SDXL Refiner는 SDXL 기본 모델을 기반으로 이미지 세부 사항과 품질 향상에 중점을 둔 특수 정제 모델입니다. 이 과정은 아트 리터처와 함께 작업하는 것과 같습니다:
5+
SDXL Refiner는 SDXL 기본 모델로 생성된 결과물에 디테일을 더하고 품질을 끌어올리는 역할을 합니다.
6+
비유하자면, 작업물을 넘겨받아 마지막 손질을 맡는 전문 보정 디자이너와도 같습니다.
67

7-
1. 먼저, 기본 모델에 의해 생성된 예비 이미지나 텍스트 설명을 받습니다
8-
2. 그 다음, 정확한 미적 점수 매기기와 차원 매개변수를 통해 정제 과정을 안내합니다
9-
3. 마지막으로, 전체적인 품질을 향상시키기 위해 고주파 이미지 세부 사항 처리에 집중합니다
8+
1. 먼저, 기본 모델이 만든 예비 이미지나 텍스트 설명을 넘겨받습니다.
9+
2. 이후, 미적 점수와 텍스트 인코딩에 사용될 이미지 크기 설정값(가로·세로)을 기준으로 정제 방향을 조정합니다.
10+
3. 마지막으로, 머리카락이나 질감처럼 미세한 디테일(고주파 영역)을 다듬어 이미지를 보다 깔끔하고 정돈된 형태로 마무리합니다.
1011

1112
Refiner는 두 가지 방식으로 사용될 수 있습니다:
12-
- 기본 모델에 의해 생성된 이미지의 후처리를 위한 독립적인 정제 단계로
13-
- 생성의 저노이즈 단계에서 처리를 인계받는 전문가 통합 시스템의 일부로
13+
14+
- 기본 모델이 만든 이미지를 사후 보정(Post-processing)하는 독립 정제 단계로 사용하거나,
15+
- 생성이 거의 완료된 마지막 단계에서 정제 작업을 맡는 방식으로도 활용할 수 있습니다.
1416

1517
## 입력
1618

0 commit comments

Comments
 (0)