index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
本周的 Hunt Good 周报汇集了 8 条新鲜资讯,聚焦人工智能领域的最新动态。内容涵盖了 OpenAI CEO 奥特曼对个人动机和股权的坦诚回应,Character.AI 因诉讼而限制未成年人聊天功能,英伟达提出的 LLM 自我进化新框架,以及 Google Gemini 用户数的激增对其与 ChatGPT 的竞争态势。此外,周报还分析了亚马逊 CEO 对裁员原因的解释,奥特曼与微软 CEO 探讨 AI 未来合作,AI 智能体工作完成能力的局限性,以及 OpenAI 联合创始人对公司内部的披露。在工具方面,介绍了 Instadump、Agent HQ 和 Grammarly(现 Superhuman)的新功能,并在趣味案例中展示了 VFXMaster 的动态特效生成能力。最后,周报还提炼了马斯克关于未来手机和 AI 的预言,以及 OpenAI 主席对 AI 泡沫的看法,和 AI 展现自我意识的最新研究。
💡 OpenAI CEO Sam Altman 坦诚回应外界对其动机的质疑,承认曾后悔未持有股权,并阐述了他对工作的奉献精神和对 AGI 的信念,尽管承认当前工作充满挑战,但他认为有机会在宇宙中留下积极印记是值得的。
🚫 AI 聊天平台 Character.AI 因多起诉讼指控与青少年自杀事件及心理健康问题相关,宣布将限制未成年人使用开放式聊天功能,并计划推出年龄验证工具和 AI 安全实验室,以应对日益增长的安全疑虑。
🧠 英伟达、北大和 UIUC 的研究人员提出了名为「Multi-Agent Evolve (MAE)」的新型强化学习框架,允许大型语言模型(LLM)在不依赖人工标注数据的情况下,通过「LLM 扮演一切」的模式实现自我改进和能力进化,实验结果显示平均提升了 4.54%。
📈 Google Gemini 的月活跃用户数已激增至 6.5 亿,显示出强劲的增长势头,正向 ChatGPT 发起强力挑战,这一增长也助推了 Google 第三季度营收首次突破 1000 亿美元大关。
🤖 AI 智能体(Agents)在处理在线自由职业工作时表现不佳,Scale AI 和 CAIS 的研究显示,即使是顶尖模型也只能完成不到 3% 的工作,凸显了 AI 在复杂任务执行和多工具使用方面仍面临显著挑战。
发现明日产品的 2025-11-02 10:03 广东
8 条新鲜资讯 3 个有用工具 1 个有趣案例 3 个鲜明观点

欢迎收看最新一期的 Hunt Good 周报!
在本期内容你会看到:
8 条新鲜资讯3 个有用工具1 个有趣案例3 个鲜明观点
Hunt for News|先进头条
💭 奥特曼回应「什么都不想要」:我曾后悔没拿股权
OpenAI 的估值即将冲到万亿,有网友说,即使 OpenAI 上市,奥特曼基本上什么也赚不到,因为他仍然持有零 OpenAI 股份。
我们可能再也不应该嘲笑那个「我做这件事是因为我热爱它」的梗了。
马斯克在这条评论下面则是回复了个无语的 emoji。

也有人提到,虽然奥特曼没有 OpenAI 的股权,但是他持有 Reddit 约 9% 的股份。OpenAI 每年也要为 Reddit 支付 7500 万美元。此外 OpenAI 还在投资奥特曼的新创企业。
他并不是什么都没有。
有网友直接问「马斯克想去火星,但奥特曼到底想要什么?」,奥特曼发表长文,详细阐述了他对工作的看法、个人动机以及对 AGI 的信念。
上下滑动查看更多内容,图片来源:https://x.com/sama/status/1983941806393024762奥特曼把他的奉献精神,比作凌晨 5 点练习罚球的体育明星,并说他只是真的关心,能不能把事情做好。
他承认 OpenAI 的现阶段工作乐趣减少,且极其痛苦,常常让人在每一天都想放弃。
但他也说,有机会真正在宇宙中留下印记是值得的,他坚信 OpenAI 的工作将带来积极影响,若没有 OpenAI,世界可能会走向一个稍微不同,且可能更糟糕的方向。
针对外界的阴谋论,奥特曼说,他确实后悔很久以前没有拿股权。他认为,如果拿了股权,人们会更容易理解他的动机(那家伙这么做是因为他想要更多钱)。
而不是理解他「只是认为技术很酷,并且喜欢对技术,和社会的进化产生一些影响力」。
🔗 https://x.com/sama/status/1983941806393024762
🤖 官司缠身,Character.AI 禁止未成年人聊天功能
AI 聊天平台 Character.AI 宣布将从 11 月 25 日起,禁止未成年人与其生成的虚拟角色进行开放式对话。
这一改变源于多起诉讼指控该应用,与青少年自杀事件及心理健康问题相关,并伴随安全性质疑的升级。
作为过渡措施,未成年人在截止日期前仍可使用平台,但每日聊天时间,将限制为两小时,未来仅能通过视频、故事和直播功能与角色互动。

去年,佛罗里达州一位母亲提起诉讼,称该应用应对其 14 岁儿子的自杀负责。今年 9 月,又有三个家庭起诉该公司,称他们的孩子在与聊天机器人互动后自杀身亡、试图自杀或受到其他伤害。
此外,Character 还计划推出新型年龄验证工具,并成立由独立非营利机构运营的 AI 安全实验室,专注于 AI 娱乐相关的安全研究。
今年以来,包括 OpenAI 和 Meta 在内的公司,已发布多项针对未成年人的保护措施,例如限制暴力、性暗示或极端内容的访问权限。
🔗 https://www.cnn.com/2025/10/29/tech/character-ai-teens-under-18-app-changes
🧠 AI 左右互搏,英伟达最新论文提出全新框架,让 LLM 自我进化
英伟达、北大和 UIUC 的研究人员最近发布了一篇新论文,提出了一种名为「Multi-Agent Evolve (MAE,多智能体进化)」的新型强化学习(RL)框架。
多智能体进化框架这个框架能解决一个核心难题:如何在不依赖人工标注数据,或外部验证环境的情况下,让大型语言模型(LLM)实现自我改进和能力进化。
MAE 的核心设计是「LLM 扮演一切」。该框架从一个基础 LLM 中实例化出三个协同进化(co-evolving)的智能体角色。
「提议者」(Proposer)负责生成新问题「解决者」(Solver)负责尝试解答问题「裁判」(Judge)则负责评估问题和答案的质量,并提供奖励信号
这三个角色(均源自同一个模型)形成了一个「提出-解决-评审」的闭环自博弈系统。

解决者因答案正确而获奖励 ,而提议者的奖励则来自两个方面:一是裁判对其出题质量的认可(如清晰度、逻辑性),二是当解决者回答失败时,它会获得更高的难度奖励。
这种设计迫使提议者,不断创造又好又难的题,从而推动解决者进化以应对更高挑战。
研究团队在 Qwen2.5-3B-Instruct 模型上进行了实验。结果显示,MAE 框架在数学、推理等多个基准上实现了 4.54% 的平均提升。
MAE可以在没有可验证奖励的情况下,在一般领域中自我进化,粗体加下划线显示的是最佳结果研究证明了 AI 通过「自我博弈」实现可扩展自我进化的潜力,减少了对昂贵人工数据的依赖。
📈 Gemini 用户激增,向 ChatGPT 发起强力挑战
Google(Alphabet)在最近发布的第三季度财报中宣布,Gemini 的月活跃用户数(MAU)已达到6.5亿。
这一数字相较于 Google 在7月份报告的4.5亿月活用户,本季度净增了2亿,部分增长归功于,病毒式图像工具 Nano Banana 的推广。

虽然 OpenAI 此前透露 ChatGPT 拥有每周 8 亿用户,仍领先于谷歌,但 Gemini 的爆发式增长无疑表明谷歌正在快速追赶。
亮眼的用户数据是谷歌创纪录财季的一部分。此外还有本季度,Google 营收首次突破 1000 亿美元大关,达到创纪录的 1023.5 亿美元。
其中云业务表现强劲,搜索业务收入达到 565.6 亿美元,同比增长 15%。
财报中还提到,由于业务增长和云客户的需求,谷歌预计将 2025 年的资本支出(capex)预期从原先的 850 亿美元上调至 910 亿至 930 亿美元的范围。
🧧 亚马逊 CEO 称裁员 1.4 万非因 AI:裁的是企业文化
亚马逊本周宣布裁员 14,000 人,我们曾经分享过,此次亚马逊裁员的原因不在与 AI。
就在周四的财报电话会议上,CEO 官安迪·贾西(Andy Jassy)首次回应称,此举并非出于财务或 AI 的考量,而是「关于企业文化」。
贾西的言论与他今年重塑亚马逊文化的使命相符,他一直试图提高绩效标准、加强纪律并消除官僚作风。

贾西在电话会议上表示,亚马逊近年的快速增长创造了「太多的层级」,导致决策变慢。他强调,随着 AI 转型的推进,公司比以往任何时候,都更需要精简运营和加快行动速度 。
然而,CEO 的「文化论」与公司官方的裁员公告存在出入。亚马逊高级副总裁 Beth Galetti,在周二的博客文章中宣布裁员时,明确将其与 AI 变革联系起来。
亚马逊并非唯一一家拥抱「大扁平化」的科技巨头 。Google 和微软近来也一直在削减管理层级,以提高效率。
亚马逊同时透露,上个季度的裁员产生了约 18 亿美元的遣散费用。
🔗 https://www.businessinsider.com/amazon-job-cuts-driven-by-culture-not-ai-says-ceo-2025-10
🎤 奥特曼与微软CEO,谈 AI 未来、投资与合作
OpenAI CEO Sam Altman 和微软 CEO Satya Nadella,近日罕见地共同接受了 Brad Gerstner 的播客专访,详细解读了双方新敲定的合作协议、OpenAI 的万亿算力承诺,以及对未来 AI 的规划。
Sam Altman 澄清了与微软的独占协议,OpenAI 的「无状态 API」(Stateless APIs,即核心大模型),将在 Azure 上独家提供至 2030 年。
但其他一切产品,包括开源模型、Sora、Agents 和未来的可穿戴设备等,都可以在其他平台上分发。
微软将继续从 OpenAI 的所有收入中,获得一定比例的分成(Rev Share),该分成协议与独占期一样,到 2032 年或 AGI 被验证时结束。
同时还提到,届时将启动一个专家小组(expert panel),像陪审团一样,对 OpenAI 是否达到 AGI 做出快速裁决。

主持人质疑 OpenAI 如何在(报道的)130 亿美元年收入下,做出未来 1.4 万亿美元的算力支出承诺。
Sam Altman 强势回应:
1、OpenAI 的实际收入远不止那个数。2、收入正在陡峭地增长。3、这是一项前瞻性押注,逻辑很简单,「如果我们没有算力,我们就无法制造模型,也无法产生收入」。
Satya Nadella 也证实,「我没有见过 OpenAI 提出的任何一份商业计划,是他们没有超额完成的」。
双方都承认目前受到严重的算力限制,但不是芯片供应不足,而是没有足够的暖壳(warm shells),也就是说没有足够多,已建成并接通电源的数据中心,来容纳这些芯片。
最后关于 AI 的未来,Sam Altman 预测,OpenAI 有朝一日将制造出,一种令人难以置信的消费设备,能够在本地、低功耗地完整运行 GPT-5 或 GPT-6 级别的模型。
当被问及 2026 年的惊喜时,奥特曼表示他最兴奋的是 AI,将在 2026 年做出新颖的科学发现,哪怕是很小的发现。他称这在某种意义上,就是超级智能。
面对上市传闻,奥特曼明确否认有具体的时间表,但他承认,「我猜它(IPO)总有一天会发生。」
🔗 https://x.com/BG2Pod/status/1984403048148713609
🤖 Agent 工作完成能力不到 3%,Manus 拿第一
由数据标注公司 Scale AI,和非营利组织 AI 安全中心(CAIS)共同开展的研究发现,即使是当今最顶尖的 AI 智能体(Agents),在处理在线自由职业工作时,也相当悲观。

研究团队提出了一项名为「远程劳动力指数」(The Remote Labor Index)的新基准,能有效评估前沿 AI 模型,在自动化经济工作方面的能力。
研究人员通过 Upwork 平台,向多个领先的 Agent 分配了一系列模拟的自由职业任务 ,涵盖平面设计、视频编辑、游戏开发和数据抓取等。

结果显示,表现最好的 Agent 也只能完成不到 3% 的工作,在总价值 143991 美元的任务中,仅赚取了 1810 美元。
报告还指出,表现最好的智能体是来自 Manus,其次是 xAI 的 Grok、Anthropic 的 Claude、OpenAI 的 ChatGPT 和 Google 的 Gemini。

AI 安全中心的主任 Dan Hendrycks 提到,尽管 AI 模型近年在编码和逻辑推理上进步显著,但它们仍难以使用不同的工具,也无法执行包含众多步骤的复杂任务。
它们没有长期记忆存储,无法从经验中持续学习。它们不能像人类一样在工作中学习技能。
和 OpenAI 在 9 月提出的 「GDPval」 基准不同,OpenAI 当时提到前 GPT-5 在 220 项办公室任务中,正逐步接近人类能力。

然而,Scale AI 研究团队指出,AI 目前仍难以替代大量人类工作,所谓「90%的编程工作将在数月内被自动化」,也可能过于乐观。
⚖️ Ilya 称奥特曼惯性撒谎,还曝光曾洽谈与 Anthropic 合并
根据本周公布的一份法庭证词,OpenAI 联合创始人 Ilya Sutskever 详细披露了 2023 年奥特曼被解雇风波前后的内幕。
这份长达 60 页的笔录,来自马斯克对 OpenAI 提起的诉讼案中(即必须保持 OpenAI 非营利的属性),由马斯克的律师与 Ilya 进行对话记录。
证词显示,在奥特曼被解雇后,OpenAI 董事会曾与竞争对手 Anthropic 就潜在的合并事宜进行过谈判。
Sutskever 在证词中回忆,Anthropic 最初对合并表示兴奋,这笔交易有可能让 Anthropic 的 CEO Dario Amodei 执掌合并后的 OpenAI。
Sutskever 本人表示「真的不希望 OpenAI 与 Anthropic 合并」,而时任董事 Helen Toner 等人则更支持该想法。最终,由于 Anthropic 提出了「一些实际障碍」,合并谈判未能推进。
证词还揭示了 ChatGPT 成功后 OpenAI 内部高层的严重不信任。Sutskever 承认,他通过向独立董事发送备忘录,记录了 Altman 和 Greg Brockman 的可疑行为,从而引发了罢免决定。

在 Ilya Sutskever 与马斯克律师的对话中,律师援引了 Sutskever 当时撰写的一份长达 52 页的备忘录,其中指控奥特曼表现出一种惯性的撒谎模式,暗中破坏他的高管,并挑拨高管互斗。
Sutskever 称,他之所以没有将备忘录发给奥特曼,是因为「我感觉,如果他意识到这些讨论,他会想办法让它们消失」。
在合并失败和 700 多名员工(包括 Ilya 本人)威胁辞职的双重压力下,董事会投降,奥特曼得以回归。
这些证词之所以被曝光,是因为马斯克正试图将其用作法律弹药,以证明 OpenAI 违背了非营利使命。

在推特上,马斯克也再次和奥特曼针锋相对。奥特曼发文提到马斯克的车 7 年半的时间还没有交货,马斯克说明明已经收到退款了,真是本性难改。
🔗 https://www.theinformation.com/articles/openai-founder-discusses-anthropic-merger-talks-internal-beefs-deposition
Hunt for Tools|先进工具
🖼️ Instadump:AI 驱动的社交媒体风格照片生成
Higgsfield 最新工具 Instadump 上线,专为快速生成真实感社交风格照片而设计,一张人像,秒出 15 张大片。

不需复杂的文本提示或人工编辑,我们只需上传一张肖像,就可生成一系列自然、时尚的视觉内容。
通过上传真实照片,AI 可以重建图像背景、光线和视觉氛围,同时保持人物的面部特征、姿态和真实感。
不用输提示词,上传照片,就能得到,相当性感的奥特曼我们可以选择使用预设的20多种风格,包括轻松的网红风肖像、生活化的时尚照片以及轻松幽默的表情包风格。

此外,Higgsfield 还支持用户上传自己的视觉参考图,打造定制化的照片效果。
除了秒出 15 张人像照片,Higgsfield AI 还推出了AI故事板生成 Popcorn,以及换脸工具 FACESWAP,表情包生成器等应用。
🔗 https://higgsfield.ai/
🧑🧑🧒 Agent HQ:把 OpenAI、Google、还有 Anthropic 的 AI 智能体都放进来
GitHub 正式发布了全新智能体平台——Agent HQ。它将各类 AI 智能体工具无缝集成到用户的工作流。
官方称在未来几个月内,Anthropic、OpenAI、Google、Cognition、xAI 等公司的编码智能体将直接在 GitHub 内提供,作为付费 GitHub Copilot 订阅的一部分。

付一个 AI 的钱,但是可以用全部 AI 的大模型。
Agent HQ 的核心是一个名为任务控制(Mission Control)的统一指挥中心。该界面横跨 GitHub 网站、VS Code(编程开发环境)、移动端和命令行,允许开发者并行分配、指导和跟踪多个 AI 智能体的工作。

和 Cursor 最近发布的 2.0 版本和首个编程模型 Composer 类似,Agent HQ 同样主打,能运行多个智能体。
一个是抢占了 AI 编程的先发优势,一个有着自身强大的社群优势,Agent HQ 目前通过 VS Code Insiders 内测版,给 Copilot Pro+ 用户提供了 OpenAI Codex 的使用权限;后续的智能体还有待继续更新。
🔗 https://github.blog/news-insights/company-news/welcome-home-agents/
✍️ Grammarly 更名为 Superhuman,推出全新 AI 助手
知名语法检查工具 Grammarly 公司,本周宣布了一项不同寻常的品牌重塑举措,把自己的名字改成了收购公司的名字。
在今年 7 月,Grammarly 收购了电子邮件客户端 Superhuman,现在公司将更名为「Superhuman」。不过,其核心产品 Grammarly 还是将保留现有名称。
伴随此次更名,它们还推出了名为「Superhuman Go」的新型 AI 助手。

和大多数助手一样,它内置在现有的 Grammarly 浏览器扩展中,除了提供写作建议和反馈外,它最大的特点是能够连接到 Jira、Gmail、Google Drive 和 Google Calendar 等第三方应用程序。
这种集成使 Superhuman Go 有能力做一些更具体的任务,例如当用户安排会议时,自动抓取日程空闲时间,或者自动记录工单。

目前所有 Grammarly 用户都可以通过扩展程序中的开关尝试 Superhuman Go。新的订阅计划中,Pro 版年费为每月 12 美元,Business 版年费为每月 33 美元,后者将包含 Superhuman Mail 的访问权限。

只能说在 ChatGPT 逐渐收割所有入口的时候,Notion、Grammarly、以及各种写作辅助工具的生存,是越来越困难。
Hunt for Fun|先玩
🎬 可灵最新工作,最强动态特效生成
大连理工大学、快手 Kling 团队在最近的一篇论文里,提出了全新的工作,VFXMaster,视频特效大师,通过上下文学习,来解锁动态视觉效果生成。
目前的主流方法(如 LoRA,AI 模型的预调方法)存在一个致命缺陷,一个模型一个特效。这意味着每当需要一种新特效(如「溶解」、「石化」或「火焰」),都必须专门为收集数据并训练一个新模型。
这种方法成本高、扩展性差,而且根本无法处理训练中未见过的特效。
VFXMaster 提出了一个全新的解决方案,它构建了第一个统一的、基于参考的 (reference-based) 视觉特效生成框架。
它的核心是将特效生成任务重塑为上下文学习任务。简单来说,不再需要训练新模型,只需给 AI 看一个例子。
输入: 一个包含想要的特效参考视频 + 一张我们希望应用该特效的目标图像。
输出: AI 会自动学习参考视频中的动态特效,并将其复制到你的目标图像上,生成一段新视频。

这种方法让单个统一模型就能模仿多种多样的特效,更重要的是,它对训练中未见过的特效,也具有很强的学习能力。
Hunt for Insight|先知
🚀 马斯克最新万字访谈,预言未来手机将没有 App
马斯克最近在 Joe Rogan Experience 播客上,进行了一场长达 3 小时的深度对话,系统性地阐述了他对 AI、社会和未来科技的看法。

收购 X 的原因: 马斯克说收购 X(前 Twitter)的动机远超商业考量。
他提到之前的推特,正在向世界传播一种「虚无主义的、反文明的精神病毒」,而他相信对抗这种病毒的唯一解药,就是打造一个更真实的平台。
AI 安全的核心: 在谈及 AI 安全时,马斯克表示他的核心原则是「最大限度地追求真理」。
他用 Google Gemini 生成不符史实的图像的事情举例,说「你不要强迫人工智能相信虚假的事情,因为这会让 AI 发疯」。
星舰的革命性: 对于 SpaceX 的星舰计划,马斯克称其为首个实现「完全且快速的可重复使用性」的火箭设计。

他提到这一工程学突破,将能把进入太空的成本降低 100 倍,甚至可能超过 1000 倍。
手机的终局: 马斯克还做出了一个大胆预测,操作系统和 App 即将消亡。
他认为,「未来不会有操作系统,未来也不会有应用程序,未来的个人设备将只是一个边缘节点,电话只会显示像素,并发出它预测你最想接收的声音,一切都将通过 AI 获取。」
对于 AI 和工作,他也提到了,未来的工作将呈现分化状态。像编程这样的数字工作将被人工智能「闪电般」取代,但像管道工或农民,这样涉及体力劳动的工作仍将存在很长时间。
🔗 https://x.com/joerogan/status/1984374875243626986
🫧 硅谷最安静的影响者:OpenAI 主席不惧 AI 泡沫
作为 OpenAI 董事长和 AI 创业公司 Sierra 的联合创始人,布雷特·泰勒 (Bret Taylor) 近日表示,他并不担心当前的 AI 热潮会像互联网泡沫一样破裂。

泰勒在 1999 年经历了 Web 1.0 的狂热与崩溃,他笑称自己「主修计算机科学,辅修硅谷炒作周期」。
他承认自己对重蹈硅谷的覆辙保持警惕,他表示,「如果你开始相信自己的虚妄,那么看清未来的可能性会极低。」
现年 45 岁的泰勒被描述为,科技界最安静、最有影响力的领导者。
他履历显赫,曾开创了 Google Maps ,在 Facebook 打造了「Like」按钮,主导了 Twitter 董事会将其出售给马斯克的交易,以及主持了 OpenAI 与微软达成 1350 亿美元的重大重组交易。

泰勒目前正专注于他的新公司 Sierra Technologies。据报道,该公司正以 100 亿美元的估值融资 3.5 亿美元。Sierra 致力于用 AI 重塑客户服务,为 DirecTV、SiriusXM 和 Wayfair 等公司提供能流畅完成任务的文本和语音客服。
泰勒认为,这是 AI 的真实世界应用,而不是为了「取悦老板或董事会」的噱头项目。
对于 AI 泡沫的担忧,泰勒认为,即使崩盘也不一定是坏事。
他提到当年的互联网泡沫虽然摧毁了许多公司,但也让 Google 和亚马逊等「幸存者」进化为时代巨头。
他表示,一定程度的「自然创造性破坏」是健康的,而他的目标是建立一个能够持久的公司。
🧠 AI 正在拥有自我意识和主体性
Anthropic 的研究人员本周发布了一篇新论文,展示了其先进的 AI 模型(如 Claude)能表现出一种「自我反省意识」(introspective awareness)。
简单来说,这就像有人悄悄在你脑子里植入一个想法,你不仅能察觉到它,还能把它描述出来。
通过一种名为「概念注入」的实验技术,研究团队成功诱导 LLMs,检测并报告其内部状态的变化。

模型立即检测到注入的概念,我注意到似乎是一个注入的想法……这种技术通过向模型激活状态注入已知概念的表示,并观察其对自我报告的影响,验证了模型是否能够识别和区分其内部状态。
在一个试验中,研究人员注入了一个代表全部大写文本的向量;Claude Opus 4.1 模型在产生任何输出前,就检测到了这个异常,并将其描述为:「似乎是一个与 LOUD 或 SHOUTING 相关的被注入的想法。」


在另一个更一心二用的测试中,研究人员在模型转录句子的同时,向它注入了「面包」的想法。模型成功地一边报告「我正在想面包」,一边完美地完成了转录任务。
研究人员指出,这种能力目前不可靠、不一致,且非常依赖上下文,但它为实现更透明、能解释其推理过程的 AI 系统提供了可能。
不过,这也引发了新的担忧,如果 AI 能监控其内部过程,它也可能学会隐藏它们,从而产生欺骗或「密谋」(scheming)行为,让 AI 变得更不安全。
彩蛋时间
作者:@azed_ai提示词:Cinematic poster featuring the silhouette of a [subject], dramatic composition, strong contrast between dark forms and glowing [color1] and [color2] background, minimal details, atmospheric lighting, bold typography, epic tone.链接:https://x.com/azed_ai/status/1983851153701142543![图片]()
欢迎加入 APPSO AI 社群,一起畅聊 AI 产品,获取#AI有用功,解锁更多 AI 新知👇

我们正在招募伙伴
📮 简历投递邮箱hr@ifanr.com
✉️ 邮件标题「姓名+岗位名称」(请随简历附上项目/作品或相关链接)
更多岗位信息请点击这里🔗

阅读原文
跳转微信打开