出卖隐私换服务 AI要严格把好数据关
数据和智能是一对相辅相成的“冤家”,AI需要大量的数据进行训练和学习,以此为人们提供更精准的服务,而数据也要通过AI来体现它的价值。只不过,稍有不慎就会踩到“隐私陷阱”。
出卖隐私换服务 AI要严格把好数据关(图片来自Wired)
调查显示,2018年企业在人工智能领域的平均投资将达到500万美元,超过70%的企业客户宣称正在组织内部使用AI技术。考虑到部署成本,多数企业在智能化初期会选择外部方案。随着AI与业务结合逐级深入,企业关注的重点也从提升效率渗透到流程决策管理层面。也就是说,AI不再是简单的工具,而是开始向生产力转变。
日常生活中,数据的类型大体可分为结构化数据、非结构化数据、半结构化数据。一个数据从产生到落地要经过收集、传输、分析、检索、挖掘等阶段。分析让大量的数据有了价值,机器要学会像人一样学习、思考、推理、交流,进而与应用场景相结合,从规律中预测未来。
但是就在人们享受个性化服务的时候,是否关心过背后是否合规呢?GDPR的出现无疑给人们上了课。近日,某家IT公司被指在没有获得用户许可的情况下,在社交网站上捕捉了百万张照片,并将其用作人脸识别算法的训练模型,对面部五官、头部特征等近50个标记进行了分析。这种做法的好处不言而喻,科技公司可以帮助行业客户拿到更准确的信息,例如让零售商了解消费者的商品喜好、购买时间,甚至是识别出特定的某个人。
类似的情况在物联网场景中也有应用,如智能音箱对用户语音语义的收集、无人驾驶系统对行进路线的采集等等,人们除了要在数据合规的基础上,开放更多的数据源,还要借助区块链等新技术或手段为这些数据建立完善的审核机制。再比如Facebook,会利用AI来预测用户的未来行为,作为广告投放的依据,所参考的信息包括:位置、设备信息、图片/视频浏览记录、WiFi连接状态、好友关系、聊天内容等等,让人们就像是生活在真空中。
显然,这种方式对用户隐私是不友好的,而用户本人并没有选择权。更需要引人深思的是,用AI在互联网的每个角落去挖掘数据,并把这些数据扔到机型学习模型里贴上标签供研究人员使用。在去年5月的GDPR颁布之后,包括Facebook在内的多家IT公司都遭到了重罚或警告。
值得一提的是,美国参议院已经在讨论是否要通过新的法案,限制科技公司利用技术手段获取的用户信息不能用于某些用途,也就是说商用的图像识别应用不能用来定位和追踪用户信息。更重要的是,用户必须知情且同意后才能让数据共享给第三方。
掌握用户信息之后的AI系统可能比用户更了解自己,他们会知晓用户的饮食习惯、锻炼情况、身体变化等等,而且将碎片化的数据拼凑成分析系统就能对人形成整体的特征描述。特别是在越来越多的政企类客户走上云端之后,居民隐私的问题就被上升到了新的层面。
互联网时代的快节奏让数据跑在快车道上,在这个数据无处不在的时代,“出卖”隐私换取服务似乎变成了服务提供商的主要选择,用户也多为被动接受,或者根本不知情。但是在人们享受技术红利的时候,还是应该注意到隐私的重要性,不应该只研发和利用AI技术,还有责任更好地正确运用AI技术,拿数据当本钱的AI,要走上正途。
相关阅读:
解决云安全挑战的五个步骤
为什么康佳80%的云服务都使用微软Azure?
国内云计算厂商众生相:四大阵营十几家企业生存盘点