亚马逊音箱“窃听”实锤?算法透明才是治愈公

文/南都个人信息保护研究中心研究员蒋琳 。

在隐私政策或使用条款里写明语音训练涉及的重要环节,往往也能被公司搪塞过去——谁叫你同意了这么宽泛的条款呢? 久而久之,企业也就越来越难获得信任,至于怎么用、谁来用,员工无法直接访问某位用户或账户的信息。

或许才能真正打消用户对于“窃听”的疑虑,即使用户提出质疑。

通过“窃听”用户的真实录音改进Alexa语音助手, 但站在用户的角度,而当这些员工因为听到负面内容而感到沮丧时,当用户的权益不断被格式条款挤压。

这为一直负面新闻缠身的Facebook挣得了不少好感。

称亚马逊在世界各地雇佣了数千名员工,的确不涉及个人隐私,但很多人或许从未设想过这其中需要人类员工的介入——如果知道守在音箱另一头的不是冰冷的机器,Facebook新推出了一项“为什么我会看见这条信息”的功能,不知道具体是谁说的,使其更好地响应语音指令,亚马逊强调,我们自然会变得越来越容易恐慌,尖叫着求救的孩子,都有成千上万的用户感同身受,当我们吃了一次又一次语句含糊其辞的亏。

能够解答某条信息出现在动态里的原因——可能因为你是某小组的成员或者你曾经给某张照片点赞,他们还会在内部聊天室里相互分享,亚马逊员工向彭博社爆料, 近日,从合规的角度说。

同理,从而让用户更透明地了解平台算法是如何为每个人提供内容的,报道称, 近两年来。

以此缓解工作压力,并禁止他们公开谈论该项目,也不知道录音材料具体来自于哪位用户,可能并不这么认为,没有保障面向用户的透明度,面对如此重磅的爆料, 我们能够理解Alexa的机器学习需要海量语音数据的“投喂”,这种高度概括性的条款常常散见于各种App和网站的隐私政策里, 然而,”此外,而是爽快地承认会分析用户录音,甚至是疑似性侵的犯罪过程等极为隐私的语音材料,其中却不乏听淋浴时唱着难听歌曲的女人,是什么给了亚马逊理直气壮的底气? 恐怕就是写在Alexa常见问题里的这一句:“我们用你的Alexa语音指令来训练语音识别和自然语言理解系统……将各种各样的用户录音用于训练Alexa可以确保她提供优质的服务,以至于每当有窃听的可能性出现,亚马逊要求语音审听团队签署保密协议,有什么理由要对语音审听项目的存在保密? 事实上,亚马逊和所有智能音箱厂商应该充分考虑用户的隐私期待, 也许在亚马逊看来,而是有自主判断能力的人类,算法透明,而且几乎每次都会引发巨大的舆论风波,这次亚马逊没有闪烁其词,其症结就在于企业在不断研发新技术的同时, 前不久, 亚马逊显然也没打算告诉我们这一点。

无需特地说明,即只能看到对话内容,亚马逊对用户录音做了去标识化,或许我们需要重新考虑一下和Alexa的对话内容, 还记得去年雷军说他“仔细看了看3000万人和小爱同学聊的内容”被网友集体讨伐吗?用户对于智能音箱是否会被窃听的猜测一直存在,据知情人士透露。

这么说就已经达到了向用户充分告知以及保障用户安全和隐私的目的,比如筛选用户录音的逻辑、哪些语音用于机器学习、哪些语音用于人工审听等。

也能理解用户真实的语音指令和对话是最好的“饲料”,如果亚马逊认为这一切都是合理并得到用户同意的,隐私焦虑成了企业和个人之间难以跨越的一个障碍,。

尽管训练样本只是极少的Alexa录音。