你的声音不仅传递情感,还可能泄露包括健康状况、教育背景和政治倾向在内的敏感个人信息。随着智能音箱等设备普及“全天候监听”协议,这些语音数据被收集后面临着被滥用的巨大隐私风险,例如被用于保险定价、广告推送或就业筛选。为应对此问题,研究人员正在开发衡量语音信息泄露的指标,并探索压缩、匿名化或重新合成语音等技术来保护用户隐私。最终,科技公司必须承担责任,设计能够最小化数据收集和推断的系统,从源头上保障语音隐私。
你的声音泄露了什么?
声音自古以来就被视为个人品格和内心世界的反映,它能暴露我们试图隐藏的疲劳、恐惧或轻蔑。但现代技术发现,声音泄露的信息远不止于此。
- 健康状况:包括生理和心理健康。
- 个人背景:如文化、教育水平。
- 个人偏好:甚至可能包括政治倾向。
“当有人说话时,大量关于其健康、文化背景、教育水平等信息都嵌入在语音信号中。即使人们没有意识到,这些信息也会随着语音一起被传递出去。” —— Aalto 大学教授 Tom Bäckström
“全天候监听”带来的隐私风险
从智能音箱(如 Siri 和 Alexa)到电视、汽车中的语音控制系统,录音设备无处不在。其中一些系统采用了“全天候监听”协议,持续监控环境中的声音以等待激活指令。
这种持续的监听和数据收集带来了严重的隐私风险。你被录下的声音将来可能被用来对付你:
- 提高你的保险费。
- 根据你的兴趣、需求或情绪状态精准投放广告。
- 在求职过程中对你进行筛选。
- 最糟糕的情况是,被用于骚扰、跟踪或勒索。
其他风险还包括语音助手意外录下私人对话、公司利用语音数据进行用户画像分析或监控,以及共享设备泄露个人隐私等。
保护语音隐私的技术对策
为了在滥用发生前进行防范,芬兰的研究团队正在开发一系列保护性技术和措施。
首先,他们建立了一个新的衡量指标,用于评估一段特定的录音究竟泄露了多少个人信息。这是首个能够量化单段录音中信息泄露程度的技术。
其次,他们正在开发能够保护隐私的技术工具:
- 处理语音:通过压缩、扭曲、匿名化或重新合成语音,只传递必要信息。
- 对抗性训练:训练系统在完成指定任务的同时,不追踪声音中包含的私人信息。
- 分离语音成分:将语音中的词语、音调、身份和情感内容分离开来,但这在技术上极具挑战。
- 加密技术:虽然是一种有效的保护工具,但速度慢且成本高。
- 声音工程:改变录音,使其只有预期的听众才能清晰听到。
一个简单的个人保护建议是,尽量避免将任何语音数据发送到云端,尽管在使用共享服务时这可能很难做到。
未来责任:企业应如何行动
语音技术的隐私保护领域仍处于起步阶段,许多问题仍待研究。例如,如何在实时语音互动中处理同意、如何应对多人对话以及如何设计让用户信任的系统。
最终,大部分责任将落在制造语音激活技术的公司身上。道德的做法是,构建能够最小化其听到、记录、记住和推断内容的系统。
因为机器正在以人类永远无法做到的方式,学会“倾听”。