现在 Llama 具备视觉能力并可以在你的设备上运行 - 欢迎利用 Llama 3.2
Llama 3.2 来了!今天,我们欢迎 Llama 系列的下一个版本加入 Hugging Face。这次,我们很高兴与 Meta 合作发布多模态和小型模型。在 Hub 上提供了十个开源模型 (5 个多模态模型和 5 个仅文本模型)。Llama 3.2 Vision 有两种尺寸: 11B 实用于在消费级 GPU 上的高效部署和开发,90B 实用于大规模应用。两种版本都有底子版和指令微调版。除了这四个多模态模型外,Meta 还发布了支持视觉的新版 Llama Guard。Llama Guard 3 是一个安全模型,可以分类模型输入和天生内容,包括检测有害的多模态提示或助手相应。
Llama 3.2 还包括可以在设备上运行的小型仅文本语言模型。它们有两种新巨细 (1B 和 3B),并提供底子版和指令版,具有强盛的能力。另有一个小型 1B 版本的 Llama Guard,可以与这些或更大的文本模型一起部署在生产用例中。
在发布的功能和集成中,我们有:
[*]Hub 上的模型检查点https://hf.co/collections/meta-llama/llama-32-66f448ffc8c32f949b04c8cf
[*]Hugging Face Transformers 和 TGI 对视觉模型的集成
[*]在 Google Cloud、Amazon SageMaker 和 DELL 企业中央的推理与部署集成
[*]利用transformers
页:
[1]