A12芯片是iOS 15的一个门槛

如题所述

第1个回答  2022-06-16

果粉之家,专业苹果手机技术研究十年!您身边的苹果专家~

近日,有不少果粉反馈说, 他们更新了iOS 15 正式版后有部分新功能无法使用,如打开图片根本没有对应的实况文本功能。 细问之下,才知道原来他们使用的是 iPhone X 及以下机型。

为什么 iPhone X 及以下机型用不了实况文本呢?在iOS 15 功能介绍页中,苹果用小字强调了, 实况文本功能仅在配备 A12 仿生或后续芯片的 iPhone 上提供。而最早搭载 A12 芯片的机型是 2018 年发布的 iPhone XS、iPhone XS Max 以及 iPhone XR, 也就是说在他们之前的机型都不支持实况文本功能。


除了实况文本功能外, FaceTime 中的人像模式、宽谱模式、语音突显模式、键盘连续听写等一系列iOS 15 新功能,都需要达到A12仿生芯片这个门槛才能够使用。

咋一看,苹果似乎打算用数个 iOS 15 新功能来告诫果粉该换新机了。 但事实上,苹果也不是故意关闭 iPhone X及以下机型的新功能,毕竟这些都是四年前的机型了, 其芯片的计算能力已然无法支持新功能运行了。


用过实况文本功能的小伙伴应该都知道它是一个非常实用的新功能, 而其功能就是识别图片中的文本内容,而这些内容包括了电话、地址、邮箱等复杂信息,甚至还支持打开摄像头进行实时识别并输出文本结果。

如果这些信息是通过上传数据到云端然后在识别输出结果,那么对手机的算力要求也不会太高。 但苹果对于隐私极为重视,并没有把这些数据上传,而是在iPhone 设备上本地运行。这就意味着 iPhone 想要运行实况文本功能就需要强大的算力支持, 尤其是iPhone 还支持7种语言翻译,实况文本功能的门槛进一步拔高。


需要注意的是,这里说的算力并不是我们常说的 CPU 和 GPU,而是苹果 A 系列芯片中的 AI 神经引擎模块。 该模块具备强大算力和智能识别功能,它能够更好地配合智能算法,完成低精度高计算量的运算。

那么为什么是从A12芯片开始支持?根据苹果 A 系列芯片的发展史就可以知晓, 在A11上苹果首次加入了神经引擎模块,算力达到了每秒6000亿次运算,而这只能算是一次尝试。


到了 A12苹果的 AI 神经引擎方面技术才是真正走向成熟,芯片工艺从 10nm 走向了 7nm ,让神经引擎模块迎来了跨越式的提升, 直接从每秒6000亿次运算提升到每秒5万亿次运算。

换句话来说, 真正限制 iPhone X 及以下机型的是芯片的 AI 算力,而 A12 芯片刚好达到iOS 15新功能的算力门槛。


从国外分析师的报告中可以看出,近几年来苹果有意放缓A系列芯片的CPU和GPU提升,而着重加强AI神经引擎模块。 在 AI 神经引擎算力方面从A12每秒 5万亿次运算增加到了每秒 15.8 万亿次运算,整整提升了三倍多。

随着AI 神经引擎模块不断加强,越来越多的iPhone 新功能开始与算力联系起来, 如iPhone 13 Pro 系列新增的“电影模式”就需要强大的算力支持。很显然,未来苹果将在这条道越走越远,终有一天 A15 芯片也会成为一个淘汰者。

有果粉的地方就有果粉之家,学习苹果使用技巧,了解最新苹果资讯请关注:果粉之家!

相似回答