今天,百度终于在面对 DeepSeek 的爆火之后,重新发布新一代大模型。分别包括了文心大模型 4.5 和文心大模型 X1。同时在官网上已经上线了这两款模型,而且已经是全部免费了。(老实说,这波 DeepSeek 真的是无差别攻击了所有的闭源大模型,使得它们不得不都开启免费了)
想要体验的可以去到官网尝试一下:
https://yiyan.baidu.com
从定位来看,文心 4.5 模型主要擅长多模态能力,而 X1 模型则像 DeepSeek-R1 模型一样,主要擅长推理能力。
再来看看官方放出的能力测试图来看,在多模态测试上,新的4.5 模型在多个测试集上都已经超过了 GPT-4o 模型。
在平均值对比上,文心大模型4.5 的平均得分为 77.77,高于 GPT-4o 的 73.92,说明它整体表现更好。在各基准测试的对比上,文心大模型4.5在大多数基准测试上优于 GPT-4o,特别是在 DocVQA 和 MathVista 任务上表现明显更好。说明文心大模型 4.5 更加适用于广泛的多模态任务。
在纯文本能力上,文心大模型 4.5 整体的平均值能力在 79.6,超过了 DeepSeek-V3 和 GPT-4.5 模型。
另一方面,文心大模型 4.5 在中文理解任务(C-Eval、CMMU、SimpleQA)上具有明显优势,适合中文任务。
而文心大模型 X1,能明显应该就是对标 DeepSeek-R1 和 GPT-o1 模型,X1具备了“长思维链”能力,有更加深度的思考。比如我这里问了经典的问题:9.9 和 9.11 哪个大。
它就能够很好的把分析思维给列举出来。
而且在我测试发现 X1 开启联网功能,可以调用多种工具,包括识别图片和文档。这也算是把这类的推理模型也拓展到了多模态应用的能力。
比如我这边上传了一张股票图让他进行识别:腾讯最近的股价
它也能够有效分析出整体的股价趋势等
在整体的 API 价格调用中,文心大模型 4.5 的输入输出价格低至 0.02 每千 token。相比之下,GPT-4.5 模型的API 调用价格需要 1.6 每千 token。在价格优势上确实可以比 GPT4.5 便宜多了。
再来看看 DeepSeek 的 API 调用价格,每千 token 需要0.01 价格,相比之下还是调用 DeepSeek的API 来得划算一点。
写在最后
百度在 DeepSeek 爆火后迅速应对,发布了全新一代大模型:文心 4.5 和文心 X1,并已在官网全面免费开放。其中,文心 4.5 主要擅长多模态任务,在多个测试集中超越 GPT-4o,尤其在 DocVQA 和 MathVista 任务上表现突出。其中文理解能力(C-Eval、CMMU、SimpleQA)也优于其他主流模型。
文心 X1 则对标 DeepSeek-R1,具备长思维链推理能力,并支持联网调用多种工具,拓展至多模态应用,如图像和文档分析。在 API 价格方面,文心 4.5 远低于 GPT-4.5,仅 0.02 元/千 token,具有显著性价比。
总的来说,百度为了能够在大模型内卷阶段不掉队,还是需要不断的提升自己模型的能力,还要搞以前那套收费肯定是行不通的了~