36kr 08月14日
苹果原来在“憋大招”,Siri要改变你用iPhone的方式
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

在AI领域面临挑战之际,苹果CEO库克强调把握AI革命机遇。据报道,苹果正秘密研发新版Siri,将基于Apple Intelligence,实现强大的跨应用语音控制能力。用户无需触碰屏幕,即可通过语音指令完成社交媒体发布、购物、出行规划等复杂操作。这项功能得益于iOS 16引入的App Intents开发者框架,使得应用模块化,Siri能更精准地理解并执行用户意图。相较于现有的“快捷指令”,新Siri的语音操作更为自然,无需预设指令,极大地提升了用户体验。此举不仅能弥补iPhone在AI助手方面的不足,更有望统一苹果生态内不同设备的交互逻辑,为未来硬件交互奠定基础,有望实现后来者居上。

🌟 **个性化Siri的跨应用语音控制能力将迎来质的飞跃**:未来的Siri将能够直接控制iPhone上的绝大部分应用,用户无需触碰屏幕,仅凭语音指令即可完成如在社交媒体发布评论、浏览购物应用并加入购物车、制订出行计划并预约Uber等复杂操作,实现真正的“开口即达”。

🚀 **“快捷指令”的局限性与新Siri的优势对比**:苹果在iOS 12推出的“快捷指令”功能,虽然能通过预设短语驱动应用执行操作,但其复杂性和需要预设指令的特点限制了用户普及。而个性化Siri的AI语音控制则赋予Siri等同于用户的权限,支持自然对话式指令,无需预设,实现“即开即用”,大大降低了使用门槛。

💡 **App Intents框架与应用模块化是实现跨应用控制的关键**:苹果在iOS 16引入的App Intents开发者框架,将应用拆解为意图、实体和应用快捷指令三个核心组件,使得应用功能更加模块化。这种设计不仅提高了开发效率和灵活性,更重要的是让Siri能够理解不同应用可实现的功能,从而解决了跨应用用户体验一致性的难题。

🌐 **国内手机厂商AI助手面临的“上下文断裂”挑战**:国内手机厂商的AI助手虽然在单个应用场景下表现出色,但在跨应用调用时容易出现“上下文断裂”问题,即AI无法追踪不同应用的状态,导致无法判断“下一步操作的前提”。解决这一问题需要跨应用开发者协同以及系统底层支持数据共享,而苹果凭借其封闭的生态系统在该领域具有天然优势。

🔮 **Siri升级背后蕴藏的“下一盘大棋”**:苹果此次对Siri的重大升级,不仅仅是为了解决iPhone在AI助手方面的不足,更可能是在探索适配未来硬件的交互逻辑。通过在iPhone上实现语音驱动不同应用,苹果有望将这一能力扩展到Apple Watch、iPad、Vision Pro、Mac乃至桌面机器人等设备,用语音交互统一整个生态系统的用户体验。

在自家AI团队的核心人员被Meta给“一勺烩”了后,苹果CEO库克也不得不出来灭火,向员工们强调把握此次AI革命机遇的决心。并指出苹果从不是最早涉足新兴技术的公司,他表示,“在Mac之前就有个人电脑,在iPhone之前就有智能手机,在iPad之前也有很多平板电脑,在iPod之前也早已有MP3播放器。”

开动员大会的效果立竿见影这一点,在太平洋的两岸都一样。近日据彭博社记者、“苹果问题专家”马克·古尔曼的相关报道显示,苹果或即将推出新版Siri语音控制功能,用户将可通过基于Apple Intelligence的个性化Siri,直接控制iPhone上的绝大部分应用。

具体来说,未来的Siri将具有强大的跨应用语音控制能力,使得用户无需触碰屏幕即可完成诸如在社交媒体发布评论、浏览购物应用并将商品添加到购物车、制订出行计划并预约Uber等操作。据悉,这项功能将通过App Intents接口实现,用户只需使用语音即可执行“在某应用中搜索某内容”等操作。

这也似乎也就解释了为什么基于Apple Intelligence的个性化Siri会难产,毕竟仅仅只是语音控制能力,它就要比现在的Siri有了质的飞跃。

别看早在iOS 12上,苹果就为Siri增加了“快捷指令”功能,用户可以通过预设的个性化短语来让Siri驱动支持快捷指令的应用执行操作,甚至还能串联多个快捷指令,实现更复杂的操作。可是个性化Siri的AI语音控制与“快捷指令”有着本质的区别,后者只是通过预设指令实现自动化操作,进而简化应用的操作流程,前者则是赋予了Siri等同于用户的权限,让其能够执行更复杂、更精细化的操作。

最为重要的是,按照相关爆料的说法,个性化Siri的语音操作无需提前预设指令,用户只需要用正常对话的句式即可驱动。

不需要提前预设指令无疑是用户体验层面的跃迁,这就意味着可以实现即开即用,不再需要在网络上搜索“最实用的快捷指令及设置方法”,以及“如何解决iOS设备快捷指令安装受限问题”等教程,直接对着Siri讲出自己的需求即可。可别看就是这么一点点的区别,从iOS 12至今,快捷指令一直不温不火的原因就是过于复杂、导致大量用户并不会用。

毕竟人人都会用的“傻瓜式操作”,才是一个互联网产品火起来的基础,别的不谈,火遍全球的短视频操作逻辑就仅仅只是“滑动”而已。

而苹果能够实现用户通过语音即可驱动个性化Siri的关键,是iOS 16引入的开发者框架App Intents逐步成熟,让应用被重新解耦为意图 (Intent)、实体 (Entity)和应用快捷指令这三个核心组件。

比如,开发者需要定义应用意图(如“发送消息”)、实体(如联系人信息)和查询(如“查找特定照片”)。事实上,模块化设计不只有苹果在推进,谷歌也通过Android App Bundle实现了同一目的。将应用拆分成多个不同的模块,不仅仅能提高开发效率和灵活性,也方便了Siri理解不同应用可以实现哪些功能,从而解决了跨应用的用户体验一致性这个难题。

而且这一点,则是目前国内手机厂商的AI功能还无法实现的。虽然在苹果的Apple Intelligence还只是PPT时,国内手机厂商就已经做到了让用户可以通过手机AI一句话点咖啡、订机票,然而就在外界期待厂商通过OTA将AI能力扩展到其他场景,比如用微信给好友发送刚在相册保存的图片时,直接就没有了下文。

导致这一现象的关键,在于跨应用和单个应用是两个截然不同的环境,AI在面临调用多个应用时极易出现“上下文断裂”,即由于无法追踪不同应用的状态时,AI会出现不能判断 “下一步操作的前提”这个问题。要解决就不仅仅需要不同的应用开发者参与,还需要对系统底层实现跨应用数据共享,而这恰恰就是在自家生态里一手遮天的苹果的优势。

简而言之,如果将目前Android手机上的AI视为一个个针对具体场景的特化智能体,那么苹果的个性化Siri则更像是全能的通用智能体,据称除了健康、银行等敏感应用,它能驱动几乎所有应用实现用户的需求。从某种意义上来说,单看手机AI助手这个细分赛道,苹果大概率就能凭此做到后来者居上。

除了解决iPhone的AI味不够浓这个缺陷,苹果做AI语音操控设备上的应用可能是在“下一盘大棋”,或是在探索适配未来硬件的交互逻辑。

如今苹果要用桌面机器人、智能显示屏取代不温不火的HomePod,几乎已经是板上钉钉的事情,而这两者实现自然交互的最佳途径无疑就是语音。当Siri在iPhone上可以做到语音驱动不同应用,自然也能在Apple Watch、iPad、Vision Pro、Mac以及桌面机器人上实现。用语音交互统一生态内不同硬件的体验,这对于苹果而言显然是个极富诱惑力的选项。

只不过就像前文中所提到的那样,让Siri调用不同应用能力的“跨应用”目前还是个拦路虎,苹果追求一步到位的结果自然就是个性化Siri难产。当然,在苹果AI业务处于落后状态的情况下,“憋个大的”要远比立刻推出一个平庸的个性化Siri,更能让用户接受。

本文来自微信公众号“三易生活”(ID:IT-3eLife),作者:三易菌,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

苹果 Siri Apple Intelligence AI 语音控制 App Intents
相关文章