|
| 1 | +--- |
| 2 | +title: "IDEFICS 简介:最先进视觉语言模型的开源复现" |
| 3 | +thumbnail: /blog/assets/idefics/thumbnail.png |
| 4 | +authors: |
| 5 | +- user: HugoLaurencon |
| 6 | +- user: davanstrien |
| 7 | +- user: stas |
| 8 | +- user: Leyo |
| 9 | +- user: SaulLu |
| 10 | +- user: TimeRobber |
| 11 | + guest: true |
| 12 | +- user: skaramcheti |
| 13 | + guest: true |
| 14 | +- user: aps |
| 15 | + guest: true |
| 16 | +- user: giadap |
| 17 | +- user: yjernite |
| 18 | +- user: VictorSanh |
| 19 | +translators: |
| 20 | +- user: MatrixYao |
| 21 | +- user: zhongdongy |
| 22 | + proofreader: true |
| 23 | +--- |
| 24 | + |
| 25 | +# IDEFICS 简介: 最先进视觉语言模型的开源复现 |
| 26 | + |
| 27 | +<!-- {blog_metadata} --> |
| 28 | +<!-- {authors} --> |
| 29 | + |
| 30 | +我们很高兴发布 IDEFICS ( **I**mage-aware **D**ecoder **E**nhanced à la **F**lamingo with **I**ninterleaved **C**ross-attention **S** ) 这一开放视觉语言模型。 IDEFICS 基于 [Flamingo](https://huggingface.co/papers/2204.14198),Flamingo 作为最先进的视觉语言模型,最初由 DeepMind 开发,但目前尚未公开发布。与 GPT-4 类似,该模型接受任意图像和文本输入序列并生成输出文本。IDEFICS 仅基于公开可用的数据和模型 (LLaMA v1 和 OpenCLIP) 构建,它有两个变体: 基础模型和指令模型。每个变体又各有 90 亿参数和 800 亿参数两个版本。 |
| 31 | + |
| 32 | +最先进的人工智能模型的开发应该更加透明。IDEFICS 的目标是重现并向 AI 社区提供与 Flamingo 等大型私有模型的能力相媲美的公开模型。因此,我们采取了很多措施,以增强其透明度: 我们只使用公开数据,并提供工具以供大家探索训练数据集; 我们分享我们在系统构建过程中的 [在技术上犯过的错误及学到的教训](https://github.com/huggingface/m4-logs/blob/master/memos/README.md),并在模型最终发布前使用对抗性提示来评估模型的危害性。我们希望 IDEFICS 能够与 [OpenFlamingo](https://huggingface.co/openflamingo) (Flamingo 的另一个 90 亿参数的开放的复现模型) 等模型一起,为更开放的多模态 AI 系统研究奠定坚实的基础。 |
| 33 | + |
| 34 | +你可以在 Hub 上试一试我们的 [演示](https://huggingface.co/spaces/HuggingFaceM4/idefics_playground) 及 [模型](https://huggingface.co/HuggingFaceM4/idefics-80b-instruct)! |
| 35 | + |
| 36 | +<p align="center"> |
| 37 | + <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/blog/idefics/woodstock_ai.png" width="600" alt="截图 - 让 IDEFICS 生成有关 HF Woodstock of AI 聚会的诗"/> |
| 38 | +</p> |
| 39 | + |
| 40 | +## IDEFICS 是什么? |
| 41 | + |
| 42 | +IDEFICS 是一个 800 亿参数的多模态模型,其接受图像和文本序列作为输入,并生成连贯的文本作为输出。它可用于回答有关图像的问题、描述视觉内容、创建基于多张图像的故事等。 |
| 43 | + |
| 44 | +IDEFICS 是 Flamingo 的开放复刻版,在各种图像文本理解基准上的性能可与原始闭源模型相媲美。它有两个版本 - 800 亿参数版和 90 亿参数版。 |
| 45 | + |
| 46 | +<p align="center"> |
| 47 | + <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/blog/idefics/Figure_Evals_IDEFICS.png" width="600" alt="Flamingo,OpenFlamingo 及 IDEFICS 性能对比图"/> |
| 48 | +</p> |
| 49 | + |
| 50 | +我们还提供了两个指令微调变体 [idefics-80B-instruct](https://huggingface.co/HuggingFaceM4/idefics-80b-instruct) 及 [idefics-9B-instruct](https://huggingface.co/HuggingFaceM4/idefics-9b-instruct),可用于对话场景。 |
| 51 | + |
| 52 | +## 训练数据 |
| 53 | + |
| 54 | +IDEFICS 基于由多个公开可用的数据集组成的混合数据集训练而得,它们是: 维基百科、公开多模态数据集 (Public Multimodal Dataset) 和 LAION,以及我们创建的名为 [OBELICS](https://huggingface.co/datasets/HuggingFaceM4/OBELICS) 的新的 115B 词元数据集。OBELICS 由从网络上抓取的 1.41 亿个图文文档组成,其中包含 3.53 亿张图像。 |
| 55 | + |
| 56 | +我们提供了 OBELICS 的 [交互式可视化](https://atlas.nomic.ai/map/f2fba2aa-3647-4f49-a0f3-9347daeee499/ee4a84bd-f125-4bcc-a683-1b4e231cb10f) 页面,以供大家使用 [Nomic AI](https://home.nomic.ai/) 来探索数据集的内容。 |
| 57 | + |
| 58 | +<p align="center"> |
| 59 | + <a href="https://atlas.nomic.ai/map/f2fba2aa-3647-4f49-a0f3-9347daeee499/ee4a84bd-f125-4bcc-a683-1b4e231cb10f"> |
| 60 | + <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/blog/idefics/obelics_nomic_map.png" width="600" alt="OBELICS 的交互式可视化页面"/> |
| 61 | + </a> |
| 62 | +</p> |
| 63 | + |
| 64 | +你可在 [模型卡](https://huggingface.co/HuggingFaceM4/idefics-80b-instruct) 和我们的 [研究论文](https://huggingface.co/papers/2306.16527) 中找到 IDEFICS 架构、训练方法及评估数据等详细信息,以及数据集相关的信息。此外,我们还记录了在模型训练过程中得到的 [所思、所想、所学](https://github.com/huggingface/m4-logs/blob/master/memos/README.md),为大家了解 IDEFICS 的研发提供了宝贵的视角。 |
| 65 | + |
| 66 | +## 伦理评估 |
| 67 | + |
| 68 | +在项目开始时,经过一系列讨论,我们制定了一份 [伦理章程](https://huggingface.co/blog/ethical-charter-multimodal),以帮助指导项目期间的决策。该章程规定了我们在执行项目和发布模型过程中所努力追求的价值观,包括自我批判、透明和公平。 |
| 69 | + |
| 70 | +作为发布流程的一部分,我们内部对模型的潜在偏见进行了评估,方法是用对抗性图像和文本来提示模型,这些图像和文本可能会触发一些我们不希望模型做出的反应 (这一过程称为红队)。 |
| 71 | + |
| 72 | +请通过 [演示应用](https://huggingface.co/spaces/HuggingFaceM4/idefics_playground) 来试一试 IDEFICS,也可以查看相应的 [模型卡](https://huggingface.co/HuggingFaceM4/idefics-80b) 和 [数据集卡](https://huggingface.co/datasets/HuggingFaceM4/OBELICS),并通过社区栏告诉我们你的反馈!我们致力于改进这些模型,并让机器学习社区能够用上大型多模态人工智能模型。 |
| 73 | + |
| 74 | +## 许可证 |
| 75 | + |
| 76 | +该模型建立在两个预训练模型之上: [laion/CLIP-ViT-H-14-laion2B-s32B-b79K](https://huggingface.co/laion/CLIP-ViT-H-14-laion2B-s32B-b79K) 和 [huggyllama/llama-65b](https://huggingface.co/huggyllama/llama-65b)。第一个是在 MIT 许可证下发布的。而第二个是在一个特定的研究性非商用许可证下发布的,因此,用户需遵照该许可的要求直接填写 [Meta 的表单](https://docs.google.com/forms/d/e/1FAIpQLSfqNECQnMkycAp2jP4Z9TFX0cGR4uf7b_fBxjY_OjhJILlKGA/viewform) 来申请访问它。 |
| 77 | + |
| 78 | +这两个预训练的模型通过我们的新训练的参数相互连接。训练时,连接部分的参数会随机初始化,且其与两个冻结的基础模型无关。这一部分权重是在 MIT 许可证下发布的。 |
| 79 | + |
| 80 | +## IDEFICS 入门 |
| 81 | + |
| 82 | +IDEFICS 模型已上传至 Hugging Face Hub,最新版本的 `transformers` 也已支持该模型。以下是一个如何使用 IDEFICS 的代码示例: |
| 83 | + |
| 84 | +```python |
| 85 | +import torch |
| 86 | +from transformers import IdeficsForVisionText2Text, AutoProcessor |
| 87 | + |
| 88 | +device = "cuda" if torch.cuda.is_available() else "cpu" |
| 89 | + |
| 90 | +checkpoint = "HuggingFaceM4/idefics-9b-instruct" |
| 91 | +model = IdeficsForVisionText2Text.from_pretrained(checkpoint, torch_dtype=torch.bfloat16).to(device) |
| 92 | +processor = AutoProcessor.from_pretrained(checkpoint) |
| 93 | + |
| 94 | +# We feed to the model an arbitrary sequence of text strings and images. Images can be either URLs or PIL Images. |
| 95 | +prompts = [ |
| 96 | + [ |
| 97 | + "User: What is in this image?", |
| 98 | + "https://upload.wikimedia.org/wikipedia/commons/8/86/Id%C3%A9fix.JPG", |
| 99 | + "<end_of_utterance>", |
| 100 | + |
| 101 | + "\nAssistant: This picture depicts Idefix, the dog of Obelix in Asterix and Obelix. Idefix is running on the ground.<end_of_utterance>", |
| 102 | + |
| 103 | + "\nUser:", |
| 104 | + "https://static.wikia.nocookie.net/asterix/images/2/25/R22b.gif/revision/latest?cb=20110815073052", |
| 105 | + "And who is that?<end_of_utterance>", |
| 106 | + |
| 107 | + "\nAssistant:", |
| 108 | + ], |
| 109 | +] |
| 110 | + |
| 111 | +# --batched mode |
| 112 | +inputs = processor(prompts, add_end_of_utterance_token=False, return_tensors="pt").to(device) |
| 113 | +# --single sample mode |
| 114 | +# inputs = processor(prompts[0], return_tensors="pt").to(device) |
| 115 | + |
| 116 | +# Generation args |
| 117 | +exit_condition = processor.tokenizer("<end_of_utterance>", add_special_tokens=False).input_ids |
| 118 | +bad_words_ids = processor.tokenizer(["<image>", "<fake_token_around_image>"], add_special_tokens=False).input_ids |
| 119 | + |
| 120 | +generated_ids = model.generate(**inputs, eos_token_id=exit_condition, bad_words_ids=bad_words_ids, max_length=100) |
| 121 | +generated_text = processor.batch_decode(generated_ids, skip_special_tokens=True) |
| 122 | +for i, t in enumerate(generated_text): |
| 123 | + print(f"{i}:\n{t}\n") |
| 124 | +``` |
0 commit comments