在原有处理器芯片基础上加入了专用于神经网络计算的独立处理单元的人工智能处理器。
苹果A系列仿生芯片(即Ax Bionic)是指在原有处理器芯片基础上加入了专用于神经网络计算的独立处理单元的人工智能处理器,是语音、图片识别、人脸识别等算法能力的硬件化模式。
苹果仿生芯片实际上是在原有的A系列SoC上集成了具备AI运算能力的独立处理单元,和其他手机芯片中经常出现的NPU是一回事,只是叫法不同。
苹果仿生芯片最核心的部分包括CPU、GPU和NPU。其中CPU负责处理通用计算,能够完成各种复杂的任务,具有非常强的适应性;GPU负责处理图形任务,包括图像、模型的渲染等工作;NPU则负责人工智能计算,包括语音、图片识别、人脸识别等。
独立的NPU芯片可以实现体积小、功耗低、高可靠性、保密性强等优势,相比单纯依靠CPU或GPU进行一些算法处理,NPU芯片专芯专用更加符合当前的趋势。
两款全新芯片 M1 Pro 和 M1 Max 的出现甚至让我预见了未来 PC 阵营的洗牌,以后笔记本和桌面级芯片将会不断地向 ARM 架构靠拢,这仿佛是改变世界的苹果又回来了。
不能说是仿佛,其实在苹果,那个满脑子改变世界的乔布斯精神一直都在。
从 iPhone X 开始,苹果就在为未来的技术预埋硬件,当时库克在发布会上说 2017 年时 iPhone 已经度过了第一个十年,而接下来的苹果将进入下一个十年的发展期。
这里注意,下一个十年苹果在做的可不只是丑陋的刘海和单纯的技术迭代,而是已经在为下一个“one more thing”预埋技术。
它正在悄无声息地布局在 2017 年开始的每一部 iPhone 中,在其生效之时,iPhone8 开始的每一位用户都能从中获益!
这个技术就是“AR 增强现实”技术,这个技术能将虚拟信息与现实世界巧妙地融合,就如这台虚拟的 iPhone13 Pro。
可别小看 AR 技术,这个能让苹果花大功夫深耕的东西必定不是泛泛之辈,未来轻量化 AR 眼镜出现的时候,人们可以很自然地使用虚拟信息与现实中的事物互动,这必将深刻改变我们的生活!
比如 AR 眼镜可以直接在现实世界中添加地图导航图标和路况提醒,特别直观,开车都不用听地图 APP 的语音和看手机了,苹果布局的这个技术,说是下一次“王炸”也不过分。
而且苹果为未来的新功能预埋硬件,也不是一次两次了,比如 AirPods Pro 中就预埋了刚发布时用不到陀螺仪和 U1 芯片。
一年后,你的 AirPods Pro 通过一个固件更新突然支持了空间音频。
两年后,你的 AirPods Pro 通过一个固件更新突然支持了离线定位功能。