AI算法能“偷听”

来源:《中国报业》杂志    作者:徐冰    人气:    发布时间:2019-07-18    
  在人工智能和大数据时代,公民个人信息权益的保护,相较于技术发展更加脆弱,必须尽快找到可行的应对之道。
  人工智能算法“偷听”用户信息
  人工智能(AI)算法是否可以“偷听”你的信息?对于这样的疑问,许多人恐怕还半信半疑,难以给出确定答案。但剑桥大学的一项最新研究却表明:这是很有可能的。
  “偷听”的原理是:当人们轻敲手机和平板电脑的屏幕时会产生声波。这些声波通过设备的内置麦克风收集、恢复,从而就可“听到”敲击屏幕的声音。结合人工智能算法,听到的声音与键盘位置关联,就可实现“偷听”用户信息。
  开展这项研究的剑桥大学计算机实验室用自己开发的算法模型进行了实验,结果表明,对于四位数密码而言,该模型在10次尝试后可以准确恢复54%的密码;20次尝试后可以恢复150个密码中的91个,识别准确率为61%。
  对于已经基本离不开智能手机的我们来说,这项研究结果无疑是当头一棒。就在前不久,某些手机APP“偷听”用户信息的消息,在短时间内刷爆朋友圈,引发了巨大质疑。相关平台迅速出面辟谣,而许多针对性的测试也一时拿不出确凿证据。坦率地说,我们不相信相关平台是在有意地“偷听”,而更倾向于认为,这是大数据在自动生成“用户画像”。只是画像的精准度,也着实让人害怕。
  公民信息保护迫在眉睫
  但从另一个角度来看,怀疑“偷听”不啻为一声响亮的警钟,它再次对我们发出警示:在人工智能和大数据时代,公民个人信息权益的保护,相较于技术发展更加脆弱,必须尽快找到可行的应对之道。
  同时,对以“进步”为名的技术发展,我们也必须保持高度警惕和怀疑,并时刻从人类尊严和技术伦理的高度详加审视。这是必要的审慎,绝不是螳臂当车的保守,因为墨菲定律早就说得非常清楚——如果事情有变坏的可能,不管这种可能性有多小,它总会发生,并造成最大可能的破坏。
  “偷听”有可能发生吗?剑桥大学的研究已经表明:肯定会的。虽然囿于技术的局限,目前尚无法偷听得那样精确,但假以时日,人工智能算法装备的智能手机等设备,肯定可以更精确、更全面地收集用户信息。而以技术发展在当今的迅猛之势,这个时日其实并不多么遥远。
  扎紧技术伦理和法律篱笆
  我们已清楚地看到“灰犀牛”就在那里,它正在向我们冲来。可是出于无数的利益计算和犹疑,人类就是找不到切实的预防、应对之策。
  这正是我们当前面临的恼人困惑。对于公民个人信息安全,目前能够想到的办法,无外乎以繁多的法律法规条款,尽可能扎紧篱笆,同时加大惩处力度。但这种办法,受制于差异极大的文化环境和执法力度,常常很难从纸面上真正落地。
  而更加薄弱的是,技术伦理明显还未受到应有的重视,更缺乏现实的灌输培育。很多科技者仅仅醉心于技术突破,由于和远端的技术应用者以及被影响者相隔较远,他们几乎不可能感受到技术发展可能带来的麻烦与痛苦。对于“偷听”的怀疑,其实恰恰反证了技术伦理的缺位可能带来的问题。
  人工智能、大数据是当今社会发展的趋势,没有任何力量能够阻止它们前进的步伐。我们认可并且也愿意享受这样的进步,但前提条件是,它们应是为人类服务,而不是羞辱、奴役人类。
  (作者:新京报智慧城市研究院研究员)
  责编/魏艳华
来源:《中国报业》杂志2019年6月(上)P36

责任编辑:王文钰 审核:戴靖

特别声明:

1.本网/端所刊登内容,若无特别声明,均来自网络转载,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

2.部分注明“来源:中国报业网”的作品为党政部门、网络作者投稿后经审核发布,投稿方应对文章、图片的真实性负责。仅代表投稿方个人观点,并不代表本网赞同其观点和对其真实性负责。

3.凡本网/端转载的企业资讯,仅代表作者个人观点,与本网无关。所涉内容不构成投资、消费建议,仅供读者参考,并请自行核实相关内容。

4.凡注明“中国报业”的所有文字、图片、音视频、美术设计和程序等作品,版权均属《中国报业》杂志社所有。未经《中国报业》杂志社授权,不得进行一切形式的下载、转载或建立镜像。

5.您若对该稿件内容有任何疑问,请即与中国报业网联系,本网将会在24小时给您回应并做处理。

6.邮箱:zgbymedia@163.com 电话:010-65363038 处理时间:上午9点至下午5点30分。