5月13日消息,在零一万物成立一周年之际,零一万物 CEO 李开复博士携带千亿参数 Yi-Large 闭源模型亮相,宣布进军全球 SOTA 顶级大模型之首,在斯坦福最新的 AlpacaEval 2.0达到全球大模型 Win Rate 第一。除此之外,零一万物将早先发布的 Yi-34B、Yi-9B/6B 中小尺寸开源模型版本升级为 Yi-1.5系列,每个版本达到同尺寸中 SOTA 性能最佳。
零一万物本月同步官宣了从应用到生态的产品线:2C 生产力应用 “万知” 正式提供服务、赋能2B 生态的 “API 开放平台” 今日全球上线。在中国大模型进入第二年之际,李开复博士提出,国内大模型赛道的竞跑从狂奔到长跑,终局发展将取决于各个选手如何有效达到 “TC-PMF”(Product-Market-Technology-Cost Fit,技术成本 X 产品市场契合度)。大模型从训练到服务都很昂贵,算力紧缺是赛道的集体挑战,行业应当共同避免陷入不理性的 ofo 式流血烧钱打法,让大模型能够用健康良性的 ROI 蓄能长跑,奔赴属于中国的 AI 2.0变革。
在千亿参数规模的 Yi-Large模型方面,在第三方评测中,零一万物 Yi 模型在全球头部大模型的中英文双语 PK 上表现出色。最新出炉的斯坦福评测机构 AlpacaEval 2.0经官方认证的模型排行榜上,Yi-Large 模型的英语能力主要指标 LC Win Rate(控制回复的长度) 排到了世界第二,仅次于 GPT-4 Turbo,Win Rate 世界第一,此前国内模型中仅有 Yi 和 Qwen 曾经登上此榜单的前20。
斯坦福 AlpacaEval 2.0 Verified 认证模型类别,英语能力评测(2024年5月12日)
在中文能力方面,SuperCLUE 更新的四月基准表现中,Yi-Large 也位列国产大模型之首。在更全面的大模型综合能力评测中,Yi-Large 多数指标超越 GPT4、Claude3、Google Gemini 1.5等同级模型,达到首位。在通用能力、代码生成、数学推理、指令遵循方面都取得了领跑成绩,稳稳跻身世界范围内的第一梯队。
国际中英文评测数据集(2024年5月12日)
据介绍,值得注意的是,上述评测均是在零样本(0-shot)或少样本(4-shot/5-shot/8-shot)的前提下进行。在零样本或少样本的情况下,模型必须依赖于其在大量数据上训练时获得的知识和推理能力,而不是简单地记忆训练数据。这最大程度上避免了刷分的可能性,能更加客观真实地考验模型的深层次理解和推理能力。
发布会上,李开复博士还宣布,零一万物已启动下一代 Yi-XLarge MoE 模型训练,将冲击 GPT-5的性能与创新性。
Yi-XLarge 初期训练中评测(2024年5月12日)
在开源闭源双轨生态策略方面,Yi-1.5开源全面升级,Yi-1.5分为34B、9B、6B 三个版本,且提供了 Yi-1.5-Chat 微调模型可供开发者选择。从评测数据来看,Yi-1.5系列延续了 Yi 系列开源模型的出色表现,数学逻辑、代码能力全面增强的同时,语言能力方面也保持了原先的高水准。
据悉,以开源模型构建生态,以闭源模型展开 AI-First 探索,开源闭源双轨模型策略使得零一万物构建起了生态体系。目前,开源模型服务于全球的科研院校、学生、开发者、创业者人群;API 开放平台提供企业商用,协助企业实践 AI 2.0的智能化转型。同时,零一万物的闭源模型能力,正在探索与世界500强企业的大型战略合作。“开源闭源相互助力,确保零一万物本着 TC-PMF 的方法论,以更稳健的步伐奔向 AGI。”
在Yi 大模型 API 开放平台方面,今天,零一万物宣布面向国内市场一次性发布了包含 Yi-Large、Yi-Large-Turbo、Yi-Medium、Yi-Medium-200K、Yi-Vision、Yi-Spark 等多款模型 API 接口,保证客户能够在不同场景下都能找到最佳性能、最具性价比的方案,Yi API Platform 英文站同步对全球开发者开放试用申请。其中,千亿参数规模的 Yi-Large API 具备超强文本生成及推理性能,适用于复杂推理、预测,深度内容创作等场景;Yi-Large-Turbo API 则根据性能和推理速度、成本,进行了平衡性高精度调优,适用于全场景、高品质的推理及文本生成等场景。
值得一提的是,近期上线的一站式 AI 工作站“万知”(wanzhi.com 微信小程序“万知AI”)则是零一万物基于闭源模型 Yi-Large 所做出的 “模应一体” 2C 生产力应用。依托零一万物闭源模型的能力,万知在通用问答、多模态、长文本方面都有着不俗表现。据介绍,万知成为业内第一款真正实践了“AI-First”理念、创新性地将模型能力与应用场景完美融合的2C 应用产品。
李开复博士认为,PMF 这一概念已经不能完整定义以大模型为基础的 AI-First 创业,应当引入 Technology(技术)与 Cost(成本)组成四维概念——TC-PMF。“做 Technology-Cost Product-Market-Fit(TC-PMF),技术成本 X 产品市场契合度,尤其推理成本下降是个‘移动目标’,这比传统 PMF 难上一百倍。” 李开复博士表示。
零一万物的观点是,随着高性能计算硬件的迭代和模型优化技术的普及,大模型推理成本的大幅度下降已经成为可预见的趋势所在。在普惠点终将到来的前提下,能够率先察觉、并达到 TC-PMF 这一普惠点的玩家无疑会占尽先机。要做到这一点,模型、AI Infra、应用这“三位一体” 的优异能力缺一不可。基于此,零一万物将 “模基共建”、“模应一体”列为公司的顶层核心战略,在人才密度和协作方式上,也快速打磨出一整套能够媒合不同专业的精英人才进行跨界共创的组织能力。
李开复博士指出,ofo 式的补贴逻辑不再适用于 AI 2.0,希望大模型赛道的竞争聚焦于达成 TC-PMF。零一万物将以全球为目标市场,以更从容的姿态迎接必然被点燃的中国普惠AI市场。(定西)
本文系网易科技报道,更多新闻资讯和深度解析,关注我们。