AI21 Labs推出Jamba 1.6版本,突破长文本处理极限并且支持多语言功能的全新体验

手游美科网 2025-04-05 16:22:58 阅读 0评论

AI21Labs 近日发布了其最新的 Jamba1.6系列大型语言模型,这款模型被称为当前市场上最强大、最高效的长文本处理模型。与传统的 Transformer 模型相比,Jamba 模型在处理长上下文时展现出了更高的速度和质量,其推理速度比同类模型快了2.5倍,标志着一种新的技术突破。

Jamba1.6系列包括 Jamba Mini(12亿参数)和 Jamba Large(94亿参数),并且专门针对商业应用进行了优化,具备函数调用、结构化输出(如 JSON)和基于现实的生成能力。这些模型的应用范围广泛,从企业级的智能助手到学术研究,均能发挥重要作用。

这款模型采用了名为 Jamba Open Model License 的开源许可协议,允许用户在遵循相关条款的前提下进行研究和商业使用。此外,Jamba1.6系列的知识截止日期为2024年3月5日,支持多种语言,包括英语、西班牙语、法语、葡萄牙语、意大利语、荷兰语、德语、阿拉伯语和希伯来语,确保其适应全球用户的需求。

在性能评测方面,Jamba Large1.6在多个基准测试中均表现优异。在 Arena Hard、CRAG 和 FinanceBench 等标准测试中,其分数均超过同类竞争对手,显示出其卓越的语言理解和生成能力。特别是在处理长文本方面,Jamba 模型的表现尤为突出。

为确保高效的推理,使用 Jamba 模型的用户需先安装相关的 Python 库,并且需要 CUDA 设备以支持模型的运行。用户可以通过 vLLM 或 transformers 框架来运行该模型。在大规模 GPU 的支持下,Jamba Large1.6可以处理长达256K 的上下文,这在之前的模型中是无法实现的。

模型:https://huggingface.co/ai21labs/AI21-Jamba-Large-1.6

划重点:

文章版权声明:除非注明,否则均为 手游美科网 原创文章,转载或复制请以超链接形式并注明出处。

发表评论

快捷回复: 表情:
评论列表 (暂无评论,人围观)

还没有评论,来说两句吧...

目录[+]