LTM-2-mini是Magic公司推出的支持1亿token上下文AI模型,能处理相当于1000万行代码或750本小说的内容。LTM-2-mini采用序列维度算法,计算效率比Llama 3.1 405B的注意力机制高出约1000倍,能够处理大规模代码库和相关文档,生成高质量代码,有望改变AI模型的运作方式。为了评估和优化模型的上下文处理能力,Magic团队设计了新的评估体系HashHop,通过多跳、无语义提示和无新近性偏差的方式,更准确地评估模型的性能。

LTM-baidu092-baidu09mini – Magic公司推出的支持1亿token上下文AI模型  第1张
(图片来源网络,侵删)
LTM-baidu092-baidu09mini – Magic公司推出的支持1亿token上下文AI模型  第2张
(图片来源网络,侵删)