出品/脑极体
作者/燕良
在智能时代,算法和算力的不断突破,让AI技术飞速发展。在工业生产、医疗、交通、能源等领域,AI与大数据技术相互协助,解放了人们许多无意义、重复危险的工作,也为企业的效率与安全带来了增益。
不过完美的技术并不存在,我们一边享受着数据带来的红利,另一方面也面临着个人信息“裸奔”的挑战,身边越来越多的智能设备都偷窥我们的个人隐私。
我们或许都有过这些经历——
随意地和同事聊天,讨论哪里的火锅、烧烤好吃,打开大众点评,首页上都是火锅与烧烤的推荐;
和闺蜜、女朋友讨论哪家的奶茶好喝,想喝新出的某个口味,外卖平台上都是这个奶茶的推荐;
在和家人讨论刘畊宏,讨论减肥,讨论瑜伽服,再打开某宝的话,也会收获满屏的健身用品推荐。
身边的电子设备都在各种暗中偷偷观察我们的言行,诡异得令人不舒服。这些对我们声音的窥探,也是一种消费市场风靡下各类App的营销手段。通过对权限隐私的打开,实时将我们的声音传输到系统中,运用所谓AI为我们推送定制化的服务。事实上,这些以获取隐私为前提的营销,让消费者十分困扰。
如何避免这类情况的出现?有些人选择不长期授权开启麦克风,一次一授权,但是这种方式太麻烦。更极端的方式,有人故意在交谈过程中,使用外放的音乐或者电视剧等嘈杂的声音来遮盖交谈声音,但这种杀敌一千自损八百的体验过分难受。如何用技术的手段来规避这类情形呢?
用魔法打败魔法
用AI来打败AI,可能是一个不错的出路。一种新的AI系统上线,这个AI系统的规避逻辑是,在谈话的过程中加一些其他声音的“佐料”,只不过这些“佐料”很微弱,不会像外放的音乐、声音那么嘈杂,影响我们正常的交谈。
只要在人们交谈的过程中,打开这个系统,空间内就会播放一段微弱声音,在不影响正常对话的前提下,掩盖交谈的声音,以避免被麦克风收音。
这个AI系统,是来自美国哥伦比亚大学的研究团队提出的一种新方法。该系统可以很容易地部署在我们常用的电子设备中,只要在电脑、手机等硬件运行,就可以实时保护用户的隐私。
用AI技术来干预麦克风获取声音,并不是一个新奇的点子。此前也有相关的技术解决这类问题,不过因为声音交谈的特殊情境,无法预测几秒后谈话的单词与语速,这使得AI无法跟上交谈双方的对话节奏,从而影响对话覆盖遮蔽的效果。
新的AI系统,可以通过深度学习的算法,预测交谈双方接下来要说的话的特点,以两秒钟的输入语音为条件,实现了实时性能。实时生成的合适麦克风噪音可以有效地干扰对对话隐私的获取。
这个新算法使用了一种“预测攻击”的信号,该信号可以干扰任何被自动语音识别模型训练来转录的单词。并且当干扰的声音在自然环境播放时,需要足够大的音量来干扰任何可能在远处的流氓“窃听”麦克风。这个系统被证实在有自然环境噪声和复杂形状的真实房间中都具备良好的效果。不过目前算法系统只对英文交流的语言有效,团队正在将更多的精力放在其他语言的迁移应用中。
在这场争斗中,AI系统对设备背后的神经网络推荐系统胜算满满。这一研究成果也在走出实验室的过程中,向多语言多场景辐射落地,未来或许能够帮助我们免受各式各样对话隐私的“骚扰”。
声音的隐私对我们的影响主要是消费领域的干涉和侵扰,在视频领域,我们的肖像隐私更是重灾区。
新的视频“噪音”手段
在视频隐私领域,公众的隐私也没有边界。大家印象深刻的事情,莫过于在某家地产公司的楼盘销售活动中,客户自己戴头盔来买房。很多人在初看新闻时,可能还有种嘲笑事主的心态,而在了解真实情况下,无奈也为事主的机智点赞。戴头盔的主要目的是躲开地产公司的AI视频识别,免得被进行差异化服务,避免自己购房利益损失。
视频领域对消费群体的千人千面的不公平待遇只是冰山一角,更为严重的是一些堂而皇之的隐私侵犯。在天眼的覆盖中,满大街的摄像头,让所有人的视频数据都在裸奔中。哪怕是一些人为了安全,在家中安置的摄像头,也不能免除被一些黑客攻击的风险,用户在家中的任何举动都被背后的一双双别有用心的眼睛窥探着。
这些视频隐私,除了立法可以威慑外,有没有技术的手段可以针对性地保护?
麻省理工学院计算机科学与人工智能实验室的研究人员开发了一种新的系统,在视频中添加一些噪音数据,确保个人在视频中不被识别,同时公共的视频也可以作为分析与调查的资料来使用,可以更好地保证出现在监控视频片段人的隐私。
我们知道在天眼中或者社区、园区的监控视频中,被录入视频中的人毫无隐私可言,一切的人脸信息都被摄像头摄入并分析,虽然可以保证公共领域的安全,可以监测行人、车辆流动的密度和流量,帮助卫生健康与防疫措施的施行,但这种以牺牲个人的隐私这种局面在技术的升级过程中,应该逐渐被打破。
一些企业采取的是在视频中模糊人脸的方式,但这类做法可能让系统会跟丢一些人脸数据,进而会导致一些研究无法进行。新型的AI系统Privid,能够让研究人员运用视频数据查询的同时,也能确保个人身份无法被识别,保护出现在视频片段中人的隐私。在各种视频和查询中,Privid的准确率在非私有系统的79%-99%之间。
Privid AI系统运用的是一种差分隐私保护技术差分隐私允许用户对数据进行一定程度的修改,加入一些噪音数据,但不影响数据总体的输出,从而使得攻击者无法知道数据集中关于个人的信息,达到隐私保护的作用。
不过这个系统也存在一定的局限,那就是要添加的噪音数据量无法确定。理想的情况当然是,添加的噪音恰好足以隐藏每个人,但又不至于多到对研究人员毫无用处。但现实是,向数据添加噪音并保证视频的分析查询的过程中,会造成一定程度的干扰,让结果不会非常准确,这个噪音数据的平衡,需要技术的深入与斟酌,在不影响实际参考价值的同时保障隐私。
AI深入隐私保护
在视听领域,我们被暴露在开阔的地带,普通人的数据成为消费领域的金钱与流量,被导入各类消费场景中。对有钱有权的人来说,个人隐私的数据更为金贵,它很可能成为黑客眼中勒索的“肥肉”。在摄像头下,你去的每一个地方都是透明的,如果有人获取了这些数据,就能够建立起人出现在固定场所的时间线,只要汇总数据就可以捕捉到人的历史位置和各类信息。有心的猎手只要蹲守,总会捕获肥膘满满的猎物。
AI越智能,获取、存储、分析的信息也会越来越多,也会越来越隐蔽。虽然AI技术的中立性是共识,但背后的大公司、黑客的应用都是被利益所驱动,一旦这些信息不被合理地应用,就会造成各类影响严重的事件发生。
我们知道视听生活是现代人类娱乐、生活的必需品,无人能够离开嵌入摄像头、麦克风的各类电子产品。城市的运行、工厂、企业的管理运营离不开各类摄像头设备的辅助,这也意味着更多的社会、企业及个人信息都在数据世界中流动。
技术发展总比法律的约束快。如果通过立法、道德的方式去约束,漏洞也会越来越多,安全和隐私得不到保障,这也会减缓AI的发展。保护隐私和安全是技术发展的关键。用AI的方式去约束一些AI技术对隐私的滥用,成为数智时代网络安全技术人员的必选项。
不过当前基于AI深度学习的隐私保护研究正在起步阶段,还有许多挑战。比如加密算法的应用方面,虽然加密技术是最直接有效的隐私保护手段,但加密技术的技术成本和应用成本,结合本身就消耗大量计算资源的深度学习算法,将大大降低算法性能。
另外就是监管层面的落后与缺乏。技术发展的特性,使得监管层面一直是跟在技术后面跑。如何采用创新的监管方式,可以提前预警,而不是事后补救。如何构建监管层面与其他第三方科技企业合作的沟通平台,一起评估未上线的新应用,保障新技术的合理应用,也是未来重要的研究议题。
技术双刃剑的发展不可避免,但隐私保护与AI技术的关系可以兼容并存,为争议和缺陷而废食,就得不偿失。用智能技术去修补AI技术的隐私漏洞,也是最能够跟上AI发展的方式。虽然总有各种隐私怪相、幺蛾子的诞生,不过魔法才能打败魔法的AI也让我们的顾虑与担心有所减少。
隐私保护是一个多维、博弈的过程,我们目前探究的解决方案,也是基于存在隐私漏洞的前提。那么有没有根除隐私漏洞的方式存在呢?其实最好的解决方案就是,开发设计的初始阶段就要有意识地避开这些触发隐私泄露的可能方案。研发技术人员需要更多的考虑一些AI技术对于人类和社会产生的影响,从创新的初始就考虑一些避开争议的区域。技术道德与伦理的内容在不断地完善过程中,也需要一批批技术人员的落实与充实。
技术永远都是中立的,不道德、不合法的侵犯隐私,最后被钉在耻辱柱上的是企业和背后的技术开发人员,未来技术与立法的完善,罚酒三杯的惩罚方式不会再有了,终究会有人在隐私与安全技术的发展中为自己的行为买单,为AI发展献祭。
24小时热榜
查看更多