大数据“杀熟”、视频“深度造假”、非法泄露用户数据……全球五十位顶尖专家发布报告:“负责任的创新”为 AI 治理“立规矩”

  • 作者:zccc
  • 来源:网络
  • 2020-05-07 10:07:05

利用大数据 " 杀熟 "、视频 " 深度造假 "、非法泄露用户数据……当人工智能在技术与产业上飞速发展之时,它所引发的社会治理问题日益受到关注。日前,上海市科学学研究所联合国...

利用大数据 " 杀熟 "、视频 " 深度造假 "、非法泄露用户数据……当人工智能在技术与产业上飞速发展之时,它所引发的社会治理问题日益受到关注。

日前,上海市科学学研究所联合国内外多个研究机构发布《全球人工智能治理年度观察 2019》英文版(以下简称《观察》)。这份由全球 50 位顶尖人工智能治理专家参与撰写的报告指出,目前全球人工智能治理体系正处于成型的关键期,需要通过更多法律、伦理、技术等层面的对话谋求共识,推进人工智能治理领域的全球合作。

AI 治理已从 " 应该做 " 走向 " 如何做 "

与互联网、克隆、基因编辑等类似,人工智能作为一种颠覆性技术,其本身如同一把双刃剑,要让它在推动人类社会发展中发挥正向作用,趋利避害,关键在于科学治理。

此前,国内外对于人工智能治理的探讨一直停留在 " 应该去做 " 的层面,就在去年,这一状况得到了显著改变。《观察》提到,去年治理主体全面到位,重要国际组织和国家、地区政府持续发布准则。例如,欧盟委员会人工智能高级专家组发布了《人工智能伦理指南》和《人工智能政策与投资建议》,为欧洲人工智能治理勾勒出一个全面蓝图;中国科技部、美国国防部分别发布了人工智能伦理指南;新加坡则推出了人工智能治理框架。同时,人工智能治理规则的法律效力在加强," 硬法 " 逐渐增多。一些国家和地区针对机器人行为、人脸识别技术出台了相应的法律法规。

除了各国政府和国际组织,学术界也在积极努力,推动人工智能治理走向 " 如何做 "。《观察》撰稿专家提到,加拿大多伦多大学新近成立了人工智能治理研究所,以便让人工智能治理有效落地;清华大学与浙江大学提出了相应的计划建议,以期对人工智能治理进行全面深入的研究。

不消除文化隔阂,很难形成全球应用

新冠肺炎疫情期间,国内有人工智能企业加强技术研发,很快实现了戴口罩人脸的高效识别。然而,这一技术在 " 走出去 " 的过程中遭遇了质疑,这让企业颇感郁闷。

" 类似是否需要戴口罩这类问题,中西方文化在理解上有着较大差异。" 上海市科学学研究所所长石谦认为,正是由于文化差异的客观存在,人工智能全球治理体系在成型过程中需要更多的包容,增进各种文化之间的融合,以促成更多共识——这如同一座塔楼的基石,如不消除文化隔阂,很难形成全球应用。

作为首份由我国智库发起、全球参与的人工智能治理报告,《观察》编撰的一个重要目的在于推动全球人工智能技术、产业、政府和人文社科等多领域的沟通与交流。

据了解,国内不少人工智能企业都设有专门的团队,从事各国、各地区的法律和政策研究,以评估产品进入当地市场所可能面临的风险。华东师范大学计算机学院副院长贺樑表示,数据具有全球高速流动的特征,人工智能的未来发展亟需一个相互对话、平等协作的全球治理体系。目前,中国在人工智能技术与产业领域已在世界上占有一席之地,因此更应深入研究人工智能治理体系,为全球治理体系的形成提供重要观点与建议。

企业正成为人工智能治理的重要主体

俗话说,道高一尺,魔高一丈。想要对人工智能技术进行有效监管,防止滥用,必须要有强大的技术手段作为支撑。在相关法律、规则、伦理尚未完全成型的前提下,产业界的深度参与让人工智能治理具有了更强的可操作性。

上海市科学学研究所副研究员李辉认为,中国企业的积极作为表明,企业正在成为越来越重要的人工智能治理主体。2019 年,国内外一些企业主动通过技术研发、标准制订等手段参与治理,防止人工智能技术的不正当应用。

在美国,谷歌发布了一个数据集,帮助相关机构检测合成声音,识别语音造假;脸书、人工智能伙伴等共同组织发起了 " 深度造假 " 检测比赛,促进假视频检测技术水平的提升。

在中国,商汤科技设立了人工智能伦理委员会,探索与欧盟委员会、OECD 等组织的沟通合作。作为我国人脸识别国家标准组组长单位,商汤科技正在牵头或参与制订一系列国际与国内的相关标准,以规范人脸识别等视觉智能技术的开发和应用。

" 负责任的创新是一个过程。"《观察》撰稿专家、英国爱丁堡大学科技社会研究教授罗宾 · 威廉姆斯指出,通向负责任的人工智能创新的途径,就是严格审查人工智能组件、配置和结果——观察人工智能开发者及应用者在特定环境下所做的选择,并让他们承担责任。

作者:许琦敏

编辑:储舒婷

责任编辑:顾军

* 文汇独家稿件,转载请注明出处。

  • 相关专题

免责声明:本文内容由互联网用户自发贡献自行上传,本网站不拥有所有权,也不承认相关法律责任。如果您发现本社区中有涉嫌抄袭的内容,请发送邮件至:operations@xinnet.com进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。

相关文章

免费咨询获取折扣