坚持不在豆包中接入DeepSeek的字节,在自研深度思考功能上又有了新动作。
继3月18日豆包APP全量上线深度思考功能后,时隔十天之后,近期豆包又对深度思考功能做了番更新,主要亮点在于将联网搜索能力直接融进了思考过程中,可以实现“边想边搜”。直白点理解,就相当于豆包把联网搜索键与深度思考键合二为一了。
此前,在DeepSeek R1爆火后,深度思考和联网搜索两大功能,一度成为AI助手类产品的设计新标准。
根据字母榜(ID:wujicaijing)实际体验,豆包上述二合一的新产品设计,除了在页面布局上直接消灭了联网搜索键外,更重要的内在改变是重构了大模型的推理过程。
DeepSeek R1在开启联网搜索后,其推理过程是先搜索网页,再根据网页内容展开思考,一般只进行一轮搜索。作为对比,豆包融合联网搜索的深度思考模式,则是先进行一番思考,然后基于思考去搜索相应网页,并结合网页具体内容再展开新的思考,往往会进行2-3轮的多轮搜索。
更形象地类比,“豆包等于把联网搜索做成了一个内置在深度思考功能内的Agent。”在国内从事大模型创业的李振看来,豆包深度思考内嵌入的联网搜索功能,做法上更像是OpenAI推出的Deep Research,或者是Grok 3推出的DeepSearch功能。
这些DeepSearch类Agent的一大特征,就在于可以操控网络浏览器获取实时信息,从而具备自主执行简单网络任务的能力。
但人类的日常生活中,并非事事都需要开启深度思考的Agent模式。豆包上述产品更新带来的一大问题就在于,通过强制将联网搜索嵌入深度思考过程,使得即便是面对简单问题,也需要机械式地进行多轮搜索,在用户体验上造成一些不必要的等待过程。当字母榜询问“今天北京天气”时,豆包在做了四轮搜索后,才给出了答案。
不过,值得一提的是,通过减掉联网搜索键,豆包在推动AI尽可能像人一样去搜索问题、寻找答案上,给出了自己的新尝试,某种程度上也相当于开始跟DeepSeek抢夺产品设计的定义权。
面对AI助手类产品越加越多的功能和按键,国内头部大厂产品经理刘凯(化名)将其归结为“抽象泄露”法则在AI领域的显现。
“抽象泄漏”,多指在软件开发时,本应隐藏实现细节的抽象化不可避免地暴露出底层细节与局限性,而抽象化本来目的就是向用户隐藏不必要公开的细节。
体现在AI类产品设计中,“即用户被迫理解不同的模型选择,如基础模型、推理模型的区别,以及勾选联网搜索和深度思考功能与否的差异等,越来越背离理想中的无缝体验。”刘凯说道。
但上述现象正有望随着模型迭代而改变。从Anthropic发布的全球首个混合模型Claude 3.7 Sonnet,到OpenAI CEO山姆·奥特曼预告中的大一统模型GPT-5,未来一个模型解决所有问题正逐渐成为共识,同样,未来一个按键就解决所有用户需求或许也将是产品演进的终局。
DeepSeek R1在年初爆火之后,联网搜索由此成为一个新的按键,标配在一众AI助手产品中。
最新(可能也是主流大模型公司中最后一家)选择跟进的是Anthropic,其在近日宣布聊天机器人Claude即将启用网络搜索功能,打破了自身一直维持的“自给自足”设计理念,开始提供更多实时检索信息,来回应用户的需求呼唤。
R1之前,AI助手类产品中并没有联网搜索独立按键的身影。
2022年底ChatGPT刚刚发布时,并不能进行联网搜索,大模型所提供的信息截止到2021年7月份,也暂不具备从其经验中学习的能力。
当2023年3月份百度文心一言发布后,其对外宣传的产品亮点之一,便是引入了检索增强(RAG)技术,在给模型补上获取实时信息的短板之外,还可以起到帮助削弱模型幻觉的作用。
DeepSeek在R1推理模型上新设计的联网搜索按键,则在此前检索增强技术的基础上,使得模型获取网页的数量和丰富度,进一步提高。同样以查询“今天北京天气”为例,不开启深度思考和联网搜索,仅靠检索增强支持的基础模型,一般能够检索个位数的网页链接,开启联网搜索后的深度思考模式下,模型获取的网页链接数量则飙升到数十个。
目前,根据DeepSeek给出的回答,其模型知识库仅更新到2024年7月,所以在没有勾选联网搜索的情况下,面对“今天北京天气”的询问,R1会告诉用户自己无法提供实时天气数据,并建议用户开启联网搜索功能。
之所以进入到推理模型后,大模型厂商才开始将联网搜索拆分出来,单独设计了一个新的按键,其首要原因便在于控制算力消耗成本。人工智能商业化专家丁坤博士告诉字母榜,深度思考功能本身调用的算力就更大,如果每次推理还要再进行一番联网搜索,会将算力资源的消耗量推向新高。
R1爆火之后,英伟达创始人黄仁勋就对外多次强调,推理模型正在消耗更多的计算能力,“(推理模型)可以消耗100倍以上的计算资源,而未来的推理模型将消耗更多的计算资源。”
此外,从用户体验侧考量,丁坤博士认为,深度思考和联网搜索功能分开,则可以平衡用户对生成答案更快和更好之间的需求。对于那些没有时效性的问题,用户便可以只勾选深度思考,从而更快获取答案。
豆包一反行业常态,将联网搜索和深度思考合二为一的背后,也有着自己的诸多考量。
国内头部大厂产品经理刘凯(化名)向字母榜分析道,在产品增长中,内部往往会关注一个重要指标即用户漏斗,其分为获取、激活、留存、转化变现四大阶段。
在获取新用户上,国内外AI厂商都越来越看重“好奇流量”,“只要一个产品看起来有一些不一样的神奇功能,或者哪怕没有落地,还只是炫酷的演示Demo,就会吸引用户快速尝试。”刘凯进一步指出,激发好奇流量的手段之一,便是对产品进行微优化。
有时候,一个很小的产品变化,也会大大提高AI产品的活跃用户基数,例如去年凭借率先押注长文本出圈的Kimi,今年率先展示思维链的DeepSeek,它们都借助一次产品更新,在好奇流量的加持下,获得了梦寐以求的病毒式传播机会。
但并不是每一次产品更新,都能成功引来“好奇流量”。年初,晚于DeepSeek R1近两天发布的豆包1.5 Pro大模型,尽管在预训练和推理成本上还要低于DeepSeek V3,但却因为模型体验不如前者,而未能在舆论场上激起太多水花。
这次,豆包消灭联网搜索的产品优化之举,在过去一周左右时间后,也暂未迎来行业破圈效应。
但在国内一众AI助手产品中,豆包又有着更迫切的规模增长需求。
DeepSeek爆火之前,豆包是中国月活用户数最多的AI助手应用。在被DeepSeek赶超后,据晚点LatePost爆料,2月份的All Hands全员会上,字节CEO梁汝波列出了2025年的重点目标,其中之一便是要求团队加强规模效应,继续做大豆包用户群。
QuestMobile向《财经》提供的数据显示,截至3月4日,DeepSeek、豆包日活跃用户分别是4885万、2947万。而梁汝波今年对豆包的DAU也提出了新目标,晚点LatePost报道中,今年豆包的 DAU 目标是超过 5000 万。这意味着,在未来三个季度内,豆包日活用户规模,差不多要翻一倍。
支撑豆包追求更大规模用户,以及顶着算力消耗压力将联网搜索融入深度思考功能中的底气之一,都离不开字节在GPU上的充裕储备。
受益于推荐算法时期积累的芯片使用量,2023 年时,有媒体报道字节GPU储备已超过10 万块;在外媒最新报道中,2025年字节AI算力采购预算将高达900 亿元以上。
在豆包做出尝试的功能融合方面,已经有大模型厂商选择了跟进。
在功能融合之前,一场围绕模型的融合试验,在过去一个月内已经频繁上演。
3月25日,DeepSeek官宣V3版本更新。新版本V3-0324虽然不是推理模型,但却有了一丝丝的R1味道。官方技术报告中透露,V3-0324和之前的V3使用的base模型相通,但改进了后训练方法,并借鉴了R1推理模型训练过程中的强化学习技术。
几乎同一时期,腾讯新上线的混元T1正式版推理模型,则在保证内容精细和准确度的前提下,通过首次将混合Mamba架构无损应用于超大型推理模型,将快慢思考结合了起来,从而达到缩短用户等待生成结果时间的效果。
不止国内,国外大模型公司也都在往模型融合统一的道路上迈进。
此前奥特曼在谈及GPT-5的计划时就曾经说道,模型和产品功能太复杂,未来OpenAI将实现统一,o3推理模型不再单独发布,GPT-4.5也将是OpenAI最后一个非链式思维的基础模型。
Anthropic更是抢先OpenAI一步,在2月底发布了“全球首个混合模型”Claude 3.7 Sonnet,在单一架构上整合了实时应答(Fast Thinking)和深度思考(Slow Thinking)。用户不需要在不同的模型间进行切换,而是靠模型自行判断当前问题是否需要深度思考。
未来,随着模型回归一统,在刘凯看来,模型载体之上的一系列功能按键,也有望回归更加简洁的设计,最终使得AI产品体验无限趋近于人。
之所以当前阶段一众AI助手产品加入了五花八门的功能标签,背后则是大模型产品用户渗透率还比较低的现实困境。“大部分用户还是抱着好奇心态,尝鲜过后要么想不起来用,要么不知道打开后该问什么。”刘凯表示。
基于此,眼下的AI助手类产品,为了激发用户的体验热情,往往会借鉴搜索引擎的设计理念,如向用户推送弹窗消息,在输入框下方主动设置一些供人点击的新闻链接等。
除了用户使用频率不高之外,大模型技术尚未进入成熟稳定期,也是促使其产品功能标签众多的原因之一。
国内外的一众大模型厂商,目前其实都是基于一个非确定性系统极高的模型来设计产品,这导致的一种情况是,大多数AI厂商以“模型思维来主导产品设计,而非应用思维。”李振举例称,ChatGPT起初也只是为了展示OpenAI的模型能力而构建的,并不完全是为了打造一款面向消费者端的大众应用。
就连奥特曼都在近期接受采访时坦承,当时内部只是在以一个研究实验室的标准来运行,根本没有想过会成为一家消费科技公司。
但随着模型普及教育的不断深入,越来越多大模型厂商开始重视起核心用户体验,“这就是产品一步步更像人的演化过程。”李振解释道。
参考资料:
《智谱AI CEO张鹏:当下被忽略的大模型“反共识”》腾讯科技
《字节AI再创业:独立组织、全链条的饱和出击》晚点LatePost
《字节大模型全员会,朱文佳和吴永辉一起聊了方向、组织和开源》极客公园
《Sam Altman :GPT-5 将免费开放,DeepSeek 教训了我们》APPSO
《2025 APP流量竞争新观察》QuestMobile
欢迎在评论区留言~
如需开白请加小编微信:dongfangmark