Uploads%2farticles%2f16211%2ffdfx7umkdb8hfmaptrymww 1920 80.jpg %e5%89%af%e6%9c%ac
|
2023-10-12

苹果高管谈 AirPods:H2 芯片、计算音频、与 Vision Pro 无损音频

如今你认为理所当然的事情,在当时都是开创性的。

从传感器的角度,你们还能为 AirPods 赋予哪些功能?
之前你们技术副总裁 Kevin Lynch,曾在一次采访中暗示可能会在 AirPods 搭载新的传感器,向消费者提供健康数据。你们对这个方向怎么看待?
我们脑洞打开一点,如果让你们为 AirPods 新添两个新功能,你们会选择哪些?

这是近期苹果高管(产品营销总监 Eric Treski、传感和连接副总裁 Ron Huang)接受一档外媒专访时,被问到的问题。

估计也是看着这代 AirPods 更新发力,主持人在访谈时变着法的疯狂「套话」,以探寻有关下一代 AirPods 功能性的蛛丝马迹。

不到 40 分钟的访谈时间里,两位高管被密集发问。

自适应音频、对话感知、个性化音量,这三项由 iOS 17 带来的新功能,仍然是分享的重点。

1-AirPods Pro

△ 图源:流动日报

Vision Pro 相配独有的无损音频,在访谈期间,做了更为详细的介绍。

当然,两位高管也分享了不少 AirPods 开发背后的故事。

如今你认为理所当然的事情,在当时都是开创性的。
比如,打开充电盒,iPhone UI 界面会自动出现 AirPods 的动态画像;入耳检测功能,可以在摘下耳机时,音乐随即暂停……

Ron Huang 谈及早期 AirPods 开发历程时谈道。

2-AirPods Pro 2

△ AirPods Pro 2 在 iOS 17 下的弹窗,图源:iDROP News

而身处当下的我们,又何尝不是如此。在抱怨 AirPods 更新乏力时,也许它给到的体验正是开创性的。

跟着专访内容,我们就先从三大新功能自适应音频量说起。

曾考虑过用 GPS 来控制「自适应音频」量级

「自适应音频」本质上,是 AirPods 在不同级别的通透和 ANC 模式间的转换。

透过实时开启的麦克风,不间断的监测耳内、环境声,进而给出适合当下场景最为舒适的效果。

adaptive_audio

这时你可能会想:「自适应音频」不就是通透与降噪模式的结合体嘛。

答案可能并非这么简单。

首先,「自适应音频」能分清噪音种类,比如对汽车鸣笛、飞机轰鸣,都能个性化优化处理。

3-AirPods Pro 2

但同时考虑到「自适应音频」较为特殊的模式,在实际使用体验上,苹果还额外花了些心思。

访谈中 Eric Treski 说道:

我们降低了「自适应音频」模式下,芯片处理数据的数值,大约每秒为 40000 次,少于去年自适应通透模式的 48000 次。
因为放慢了速度,耳机就能够「更有条理的了解你正在听的内容」,从而智能的调整通透度和主动降噪之间的频谱,让你的聆听体验更真实、自然。
4-AirPods audio

> 延伸阅读:苹果和 Bose 同一天发二代降噪耳机,拼的是量身定制的塑声实力

有趣的是,据 Ron Huang 爆料,在「自适应音频」早期探索中,苹果还曾考虑过用 GPS 来控制其量级。

你的手机会向 AirPods 报告当前所处的位置,比如身处街道、或者是在家中,然后基于位置信息给与 AirPods 不同的自适应音频级别。

但在后期的开发过程中,这种方式被证明是低效的。因为房间不会总是安静,而街道也不总是喧闹。

「对话感知」能分清你在说话、吃东西,还是在唱歌

在「对话感知」之前,苹果曾为 AirPods 添加过名为「对话增强」功能。

当 AirPods 识别到有旁人同你说话时,基于计算音频与麦克风波束成形技术,可将人声与环境噪音区分,从而让佩戴者能够更加聚焦谈话者的人声。

5-对话增强

> 延伸阅读:从「透明模式」到「对话增强」,计算音频加速苹果在「助听」道路上的探索

而 iOS 17 带来的「对话感知」功能,则进一步强化了计算音频的能力。

6-AirPods audio

除麦克风之外,还引入加速度计,来共同完成对声音的精确感知,实现在对话过程中,自动调节在听音乐、视频的音量。

谈话时的环境是多样的,麦克风虽然能检测到声音,但无法精确区分到底是谁在说话。
而通过加速度计的辅助,就能很好解决这一问题。
并且,我们在 AirPods 上运行着一个本地神经网络,使用加速度计采集的数据,就能轻松判别你是在说话,还是在吃东西,或者咳嗽,从而减少误操作。

Ron Huang 对「对话感知」技术逻辑,做了细节解释。

此外,「对话感知」在一些场景中,还做了自动禁用。

如果用户在使用 Apple Music 跟着歌词哼唱时,AirPods 会自动禁用对话感知。

7-AirPods Pro 2

△ AirPods Pro 2,图源:NextPit

而打语音或视频电话场景,苹果也会通过监测麦克风温度,来禁用对话感知功能。

这些都是用户日常使用时,不太会注意到,但却又是真实可用的。

用数万小时的音频数据训练「个性化音量」,越用越好用

「自适应音频」可以营造更智能舒适的环境,「个性化音量」则主要为了增添聆听乐趣。

8-dt

△ 图源:Digital Trends

基于 ANC 和对于音量的智能调节,找到两者相互作用完美的点,以实现最佳的听感。

我们不仅会监测环境噪音,更重要的是对耳内环境噪音的监测,精确地测量入耳的声音分贝数。

而这只是个性化音量的第一步,如何让音量调节变得个性化,依旧得看计算音频的功效。

在开发「个性化音量」之初,我们就使用了数万小时的音频数据,测试不同人在不同环境、不同背景噪音下聆听不同类型音频内容。我们在 AirPods 上也构建了神经网络,去了解和学习用户聆听喜好,构建适应于个人的音量调节。

按照这个逻辑,理论上讲,「个性化音量」会随着使用的时长增长、使用环境的多样性,而变得更为个性化。

为何只有 AirPods Pro USB-C 能与 Vision Pro 实现无损音频

H2 芯片显然是关键元素,AirPods Pro 与 Vision Pro 都搭载有 H2 芯片,在算力、数据的一致性上都起到重要作用。

实现无损音频的另一法宝,则是两者的连接选择了 5GHz 频段。

较短的无损延迟,意味着需要更大的带宽。相比于嘈杂的 2.4GHz,5GHz 频段刚好能够满足这一需求。
超低延迟音频和空间音频的加持,你将在 Vision Pro 上观看电影时被无与伦比的沉浸感震撼到!
9-Vision Pro-airpods

> 延伸阅读:新款 AirPods Pro 卖点不足?iOS 17 赶忙来救场

Ron Huang 对 AirPods Pro 和 Vision Pro 配对使用话题,额外补充到。

如果为 AirPods 打造一款新功能,会是什么?

这也是开篇所提到,主持人最想在高管们口中获取的答案。

虽然两位高管谈了很多,但限于「公关压力」,好像又什么都没说。

唯一有信息量的部分,为 Ron Huang 以加速度计和陀螺仪的举例:

我们实际上为开发者提供了一项 API,可以直接使用 API 或 iPhone 上的这些传感器。
如果开发者正在创作一款游戏,那么 API 可以支持使用头部姿势来控制射击或其它操作。
我认为这个机会非常有趣,可以继续探索 AirPods 与 iPhone 可以一起真正检测并感知更多事物。

湾里小结

长在 iOS 17、H2 芯片上的 AirPods Pro,看似更新乏力,实际却活力充沛。

10-ut

△ 图源:USA Today

AirPods 也早不是「听个响」、「降个噪」的 TWS 耳机定位,随着计算音频的不断释能,它将担负起苹果服务与体验向你耳畔输送的重要通道。


主笔:达达 / 深圳湾

编辑:陈述 / 深圳湾

题图来源:Android Central

>>
Back to top btn