简介
Ollama 刚刚宣布正式支持 Llama 3.2 Vision 模型。Llama 3.2 Vision 模型有两种规模:110 亿和 900 亿参数。在本文中,我将概述它们在不同情况下的表现,以及我对它们的个人看法。
Llama 3.2-Vision 指令调整模型针对视觉识别、图像推理、字幕和回答有关图像的一般问题进行了优化。这些模型在常见的行业基准上优于许多可用的开源和封闭多模式模型。
该模型还支持多种语言:
对于纯文本任务,官方支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。Llama 3.2 已针对除这 8 种受支持的语言之外的更广泛的语言进行过训练。请注意,对于图像+文本应用程序,英语是唯一受支持的语言。