Apple Intelligence 系统可以分析 iPhone 的屏幕内容并提供实时翻译
除了 iOS 26、iPadOS 26、macOS 26、watchOS 26、tvOS 26 和 AirPods 新功能之外,苹果公司还在 WWDC 2025 上发布了一些有关 Apple Intelligence 的内容。最新公告的一大亮点是,开发人员现在可以访问苹果设备上的基础模型,这些模型为苹果智能提供了动力,可以增强他们的应用程序。
苹果的基础模型框架使开发者能够创建人工智能驱动的功能和体验,这些功能和体验也可以离线运行。苹果公司表示:“该框架原生支持 Swift,因此应用程序开发人员只需三行代码就能轻松访问苹果智能模型。”
苹果公司为大众推出了几项新功能。首先,新的实时翻译功能适用于信息、FaceTime 和电话,使用 “完全在设备上运行的苹果内置模型” 将信息从一种语言翻译成另一种语言。
换句话说,该功能可以将信息中的书面文字翻译成收件人喜欢的语言,并显示翻译好的实时字幕,同时还能在 FaceTime 中听到说话者的声音。同时,在整个通话过程中,翻译的文字会在普通电话中大声说出。
Visual Intelligence 现在可以访问用户的 iPhone 屏幕,回答问题并对屏幕上跨应用程序查看的内容采取行动。用户可以向 ChatGPT 询问特定对象的详细信息以及他们在屏幕上看到的内容,以了解更多信息。
他们还可以搜索谷歌、Etsy 和其他支持的应用程序,查找类似的图片和产品。视觉智能还能识别屏幕上显示的事件,并建议将其添加到用户的日历中。
更新后的 Genmoji 功能让用户可以混合表情符号,并将它们与文字说明相结合,生成新的表情符号。在制作受朋友和家人启发的表情符号时,他们可以改变表情和调整发型等个人属性,以配合最新的造型。
Image Playground 已更新以支持 ChatGPT 生成的新样式,如油画或矢量艺术。当用户有一个特定的想法时,他们可以使用 “任意风格” 选项。
Apple Intelligence 还为快捷方式应用提供了支持,它使用设备上的处理或私有云计算来生成回复,这些回复会反馈到快捷方式的其他部分,同时保持隐私。例如,苹果公司解释说:“学生可以建立一个快捷方式,使用苹果智能模型将课堂讲座的音频转录与他们所做的笔记进行比较,并添加他们可能遗漏的任何要点。”
随着操作系统的不断更新,苹果正在将人工智能功能整合到更多的应用程序中。钱包应用现在可以汇总商家和快递公司发送的电子邮件中的订单跟踪详情。用户可以通过它查看完整的订单详情、进度通知和其他细节。在 “信息” 中,“苹果智能” 可以建议在哪些地方进行民意调查,用户还可以使用 “图像游乐场” 创建适合聊天的背景。
Apple Intelligence 的新功能可通过 Apple Developer Program 在 iPhone、iPad、Mac、Apple Watch 和 Apple Vision Pro 上进行测试。到今年年底,苹果的人工智能套件将支持更多语言,包括丹麦语、荷兰语、挪威语、葡萄牙语(葡萄牙)、瑞典语、土耳其语、中文(繁体)和越南语。
有关 Apple Intelligence 的信息,请参阅 Apple Newsroom 上的官方公告:
https://www.apple.com/newsroom/2025/06/apple-intelligence-gets-even-more-powerful-with-new-capabilities-across-apple-devices/
评论功能已关闭