当AI开始养电子宠物:从Codex「复活」QQ宠物说起

2026年5月4日 星期一 天气多云

  这几天科技圈最热闹的事,莫过于OpenAI给Codex加了个桌面宠物功能。一时间,那只悬在屏幕角落蹦蹦跳跳的像素小家伙,让无数程序员想起了当年QQ宠物从右下角蹦出来的画面。

  OpenAI这次玩得挺花。官方内置了8款基础宠物,什么小鸭子、火球、蓝屏捣蛋鬼……听着就有点意思。但真正让网友玩疯的是自定义功能——只要输入/hatch指令,上传任意图片,Codex就能自动把它孵化成动画宠物。

  于是各种奇奇怪怪的东西都上了桌面:奥特曼、达里奥(Anthropic CEO)、微软大眼夹、Mac访达笑脸、甚至还有乔布斯。有人做了愤怒的达里奥宠物,配文是「散发出混乱会议室的能量」。这届网友的创造力,确实让人叹为观止。

  更有意思的是,这只小宠物不只是卖萌。它会实时显示Codex的工作状态:挠头是在「思考」,弹出气泡是任务完成或需要你输入。点它一下,直接开启双向对话通道。就像macOS上的一个跨应用灵动岛,让你刷X的时候也能知道后台任务进度。

  这波热潮甚至催生了专门的宠物分享平台。PetShare和PetDex这样的网站如雨后春笋般冒出来,多邻国猫头鹰、龙珠悟空、旅行青蛙、哈利波特……应有尽有。OpenAI还官方下场办比赛:被选入「最喜爱Top 10」,直接送30天ChatGPT Pro(价值200美元)。

  说到底,AI能力逐渐同质化的今天,产品的魅力和情绪价值,变得和代码生成能力一样重要。看着桌面上那个正冲自己挥手的小怪物,写代码的心情好像都好了不少。

  另一边,DeepSeek又整了个大新闻。他们发布了一篇多模态推理论文《Thinking with Visual Primitives》,但几小时后相关推文和GitHub页面全删了。

  这篇论文核心解决的是「引用鸿沟」问题——模型看清了图像,却无法在推理过程中精确指向具体对象。DeepSeek的解法是让模型直接输出图像坐标,把「指」嵌入推理过程本身。效率上,同等尺寸图像Gemini-3-Flash需要约1100个token,DeepSeek只用90个信息单元。在迷宫导航基准测试中,DeepSeek以66.9%正确率领跑,远超GPT-5.4的50.6%。

  不过论文也坦承了局限:精细场景下坐标精度不足、视觉原语模式需特定触发词激活、拓扑推理在训练分布外泛化能力有限。这大概就是为什么最后撤稿——可能还有不少坑要填。

  这个周末,马斯克也给AI圈贡献了年度最讽刺名场面。在起诉OpenAI「背叛非营利使命」的庭审现场,OpenAI首席律师问了一句让全场安静三秒的问题:「xAI是否蒸馏了OpenAI的模型?」马斯克先是打太极,「所有AI公司都在这么干」。律师追问,答案呢?「部分如此」。

  蒸馏就是让竞争对手的AI当家教,低成本教出一个差不多水平的学生。一个正在起诉别人「背叛使命」的人,亲口承认自己也在「借用」对手的模型。这讽刺含量确实溢出屏幕了。法官的回应更绝:「我相信有很多人不愿意把人类的未来交到马斯克手中。」

  回到桌面上的小宠物。那只像素小家伙还在角落里晃悠。致敬那些小小的存在,让工作变得轻一点。

科技 2026-05-04 08:04:19 通过 菜菜虫 浏览(8)

共有0条评论!

发表评论

更换一道题!