声明:本文来自于微信公众号数字生命卡兹克,作者:卡兹克,授权站长之家转载发布。
Google最近的动作真的多。
感觉就是趁着OpenAI存粮打完了,疯狂的撒豆子一样往外面撒更新。
昨天晚上11点多,他们又发了一个关于Gemini的更新(其实功能礼拜天就上了,我也不知道他们为啥今天才发推文)。
就是这个东西。
这玩意,他会根据你的过往的所有Google搜索记录,来让模型更懂你,给你更加个性化的搜索的回答。
然后就是上周五,Google又发了Deep Research的更新,现在,底座换成了Gemini2.0Flash Thinking,基座比之前的1.5Pro能力还是强太多了。而且,是100w token的上下文。
再就是上周四,几乎全网火爆的Gemini2.0原生多模态,被玩出了各种花来。
更别提同样在上周开源的Geeme3,以27B超小尺寸击败了DeepSeek v3、o3-mini等等。
Google这一周的动作,密集的有点离谱了。
但是每一个更新,都是实打实的,都是值得OpenAI,开个20分钟直播发布会的玩意。
在体验了几天以后,我想说,Gemini2.0,感觉还是被低估了,这波更新之后,已经成为我现在用的仅次于ChatGPT第二多的AI Chatbot产品。
因为,体验和生态。
这3个新功能,我们一个一个来说。
第一个就是上周四更新的那个Gemini2.0的用嘴改图。我也写过一篇文章了:Gemini2.0的“用嘴改图”终于上线了,这是AI绘图的新范式。就不过多赘述了,只能说特别强。
网址在此:https://aistudio.google.com/,记得开魔法。
给大家看两个好玩的case吧。
比如用嘴一键去水印。
或者一键换衣服。
甚至X上有一个贼好玩的,直接给自己换了个背景。
“你已经上班迟到了,你甚至还没离开家……你没有借口,于是你拍了一张今天健身的照片,然后打开 Gemini2.0flash expremental输入如下指令:展示这位女士在 N 线14街站台的一张自拍照,她竖起大拇指点赞,背景中有一群沮丧的 MTA 工作人员正在维修轨道。头顶上方,一个小型 LED 屏幕显示日期:2025年3月13日。”
就,看着非常有用。
然后就是更新的第二个功能,Deep Research。
我也会用整篇文章,最大的篇幅,来聊这个功能。
我先表明态度,OpenAI的Deep Research和o1pro这两个功能,是我至今还愿意为它付费200刀/月如此高昂价格的原因。
当你用过Deep Research后,我相信,你一定会被其做震撼。
我自己是金融行业出来的,也跟N多金融领域的行业研究员还有科研的朋友交流过,大家基本的反馈都是作为老手,自己也起码要干10个小时以上才能到达Deep Research生产的研究报告的质量。
但是很多人可能不知道,Deep Research这个功能,其实是Google去年12月份,第一个发的。
但是吧,当时的底座,用的是Gemini1.5pro,那个模型,真的太烂了= =效果完全不够看。
随后才是2月份,OpenAI基于o3微调了一个模型,抄了一个他们的Deep Research,把效果打到了新的高度,也让Deep Research这玩意,第一次跑了圈。
后面就是Preplyxity和Grok3,这两个虽然也推出了类似的功能,但是名字其实都叫Deep Search,纯粹的AI搜索。跟Deep Research几乎没啥关系。
Deep Research其实本质上是一个Agent产品,用户提出问题后,会跟Agent一样,先拆解目标进行规划,最后进行搜索、合成,产出一篇报告。
所以你能看到,最核心最核心的一步,其实是第一步,先拆解目标进行规划,这个东西非常的考验模型的规划能力。
而规划能力,就是逻辑能力的反应,所以你也可以说,这就是在深度考验,模型的智能水平。
人OpenAI,用的是最牛逼最先进的o3微调,你Google,居然在2024年12月份,用的还是跟Sora同期的Gemini1.5pro,我都不知道用啥理由去理解Google,只能说都过去8个月了,他们还是忘不了当年被OpenAI狙击的痛,所以至今还对Gmini1.5pro耿耿于怀念念不忘。。。
但是这一次,Google终于反应过来了,把基座模型,换成了Gemini2.0Flash Thinking Experimental,他们目前最新的推理模型。
虽然我觉得他们应该用2.0Pro Thinking甚至是2.5才对。。。
你现在可以在Gemini的官网用到:
https://gemini.google.com/
左上角切换到Deep Research模型或者下面对话框那打开Deep Research按钮,都行。
现在有个比较牛逼的点是,它免费。
OpenAI的Deep Research贵到离谱,Plus会员(20刀/月)每个月智能用10次,产出10份报告,即使是Pro会员(200刀/月),每个月也只有150次。没氪金的用户,更是连体验资格都没有。
而这次,Google至少做了一个非常良心的事,即使你是免费用户,也可以体验到,真正的Deep Research了,而不是那种垃圾Deep Search。
每个免费用户,每个月可以用X次,具体次数我把他们网站翻了个遍,也没看到哪里写清楚了。
只有这么一句。
反正可以白嫖,不行就换号大法启动嘛,多大点事。
也给大家看一下效果。
比如我最近其实对一直在研究电影工业,也有部分工作是做这一块,那么有一家公司是我一直想研究的,就是漫威。
所以我就把这段Prompt扔了进去。
“全面、系统地分析漫威(Marvel)在电影工业化进程中的布局与经验,涵盖历史背景、核心战略、制片体系、商业模式、营销策略、技术应用,以及它如何与迪士尼等合作方共同塑造全球化、跨媒体的超级英雄宇宙。通过多角度调研与论证,提炼漫威在现代电影工业发展的成功要素,并思考未来趋势与经验教训。”
跟OpenAI的Deep Research的不同是,他会给你把框架和节奏拆完,让你清晰的看到后面它会执行哪些步骤,你点击开始研究之后,他才会去整个互联网上去搜索。而OpenAI的Deep Research,是会在搜索的过程中,动态调整目标的。
当然你也可以修改方案,点击以后用嘴改就行了。
而OpenAI的Deep Research是会给你补全范围,提问题,来激发你没考虑到的部分。
在起手式上,OpenAI还是要强于Google的。
随后就是搜索阶段。
Gemini会默认展示思维过程,而且会用了巨大的UI画幅去重点展示,搜了超级多的网站,甚至还有youtube。
在思考了10分钟之后,一份报告,就会放在你的面前。
非常坦诚的讲,这份电影工业化报告的质量,是没有OpenAI生产的详细和深度的。
搜索的很准,它搜了将近220个网站,我点进去看了一半,确实都很相关。但是最后的报告整合上,拉了胯了。
能解答我的一些疑惑,但是并没有到那种直出即可用的地步。
而OpenAI的Deep Research,是可以达到这个程度的。
可能还是受限于底层模型的原因,但凡我觉得Google换成Gemini2.0Pro Thinking,效果都可能会大幅提升,不过那样的,可能又没法免费了。。。
不过我的做科研朋友告诉我,他觉得,在科研领域上,Google比OpenAI好用,得益于Google30年的搜索积累,和在google学术上的布局,搜索的精准度上会比OpenAI强非常多,最后得到的报告,也比OpenAI要好。
但是科研这块我不懂,可能需要大家再去多测试一下,可以在评论区反馈。
总结就是,GeminiDeep Research模型能力拉了点,但是搜索能力很强,报告整合能力拉跨;OpenAIDeep Research搜索的精准度中规中矩,但是基座模型太强,整合能力无敌。
我这里也非常客观的讲一句我的理解。
Deep Research这种东西,会极高极快速的拉高你获取高信息密度知识的上限,会大幅改变教育、研究的工作体系。
过往,无论是因为囊中羞涩,还是因为别的,没有用过Deep Research,那我非常的真诚的建议你,Gemini的这个Deep Research,趁着目前还免费。
薅秃它。真的。
无论是做行业报告、还是做书籍总结、还是科学研究等等等等。
先用起来。真的。你会感受到,另一片天地。
最后,用简短的篇幅,聊聊更新的第三个功能,Personalization。
当你第一次点进去的时候,会提示你,是否要跟你自己的Google账号相关联。
关联了以后,Gemini就可以根据你过往的搜索记录,来给你针对性的、个性化的回答了。
用Google搜索的越多,他就会越懂你,所以,你懂我什么意思把...
但是我发现了一个BUG,就是当我问题中有字母的时候,它的回答,就会变成英文,这个还让人挺懊恼的。
但是,从这点依然能看出,Google在做产品上,终于开始把自己过往30年的积累,逐渐的往Gemini中融入了。
这种巨头的生态积累,还是不容小觑的。
这一周密集的更新,个顶个都是很棒的功能,更别提Google手上还有个AI视频的王炸,Veo2。
Google,感觉还是有点被低估了。
AI还远未触及顶点。
人类也远未见识到它的极限。
ChatGPT源码推荐:小狐狸ChatGPT付费创作系统完全开源源码