新蒲京338棋牌下载重视人工智能带来的安全挑战

新蒲京338棋牌下载,人工智能正在改变人类生活的众多领域,人工智能和数据分析技术的快速发展,给经济、社会、治理等带来了深远影响。在此背景下,对“一切数字化”的政策、法律和伦理后果进行思考至关重要。6月12日,美国智库布鲁金斯学会召开第九届A.
阿尔弗雷德·陶布曼(A. Alfred
Taubman)年度公共政策论坛“一个新时代的曙光:人工智能的机遇与挑战”。来自美国学术界、企业界、政界的专家学者,就人工智能进步展现的希望、风险,以及如何安全地从中获益展开讨论。

人工智能可以同声传译、写新闻稿、协助医生看病、让机器人脸识别的精度高于人类、甚至写诗和战胜围棋世界*,其应用可谓“百花齐放”。
数据显示,截至2017年6月,全球人工智能企业总数达到2542家,预计到2030年,人工智能将为世界经济贡献15.7万亿美元

网络和现实安全的挑战

在今年7月国务院印发的《新一代人工智能发展规划》中提出,到2020年,我国人工智能核心产业规模超过1500亿元,带动相关产业规模超过1万亿元。顶层设计相继出台,巨头发力布局生态,资本市场热情洋溢,细分行业独角兽不断涌现,人工智能这片“花海”已不止“看上去很美”。

布鲁金斯学会主席约翰·R. 艾伦(John R.
Allen)首先向与会专家提出一个问题:无论是在概念上还是在组织结构中,人工智能有能力给国家安全的几乎各个方面带来剧变;那么,人工智能对我们关于国家安全的思考最大改变是什么?

但“花海”之下仍有“荆棘”。市场研究机构埃森哲大中华区信息技术服务总裁陈笑冰坦言:“人工智能也将会引发新的安全和伦理问题,鉴于未来人工智能将深入生活,政府也需要切实为人工智能制定监管规则,保证人工智能应用合理合规发展。”《规划》也同时提出:“人工智能发展的不确定性带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。”

美国国土安全部高级研究项目局网络安全部副主任斯科特·图斯利(Scott
Tousley)表示,人工智能无疑将给国家安全的方方面面带来巨大影响,尽管我们尚不知具体会如何发生。过去10年里,已有许多案例表明,人工智能可以同时促进网络攻击技术和网络防御技术的发展,它像其他许多新技术一样是一把“双刃剑”。人工智能或许是当前全球化世界中最具突破性的领域,美国、德国、韩国、俄罗斯、中国等都投入了大量资金,用于人工智能技术研发及相关的政策、法律问题的研究;各国不仅在技术层面上,也在社会层面上对人工智能技术进行“实验”或尝试。

人工智能发展将面对怎样的挑战与风险?又应该设立怎样的“游戏规则”,让新技术能够与人类社会良性互动?

人工智能给现实世界带来的安全挑战不容忽视,布鲁金斯学会研究员苏珊·汉尼斯(Susan
Hennessey)认为,它将催生全新形式的“脆弱性”。例如,机器学习中使用的人工神经网络,在无人驾驶领域得到了广泛应用,尤其是用于图像识别,但原本无害的神经网络可能在遭受对抗样本(adversarial
example)攻击后变成“杀人凶手”。关于对抗样本的一个常用举例,来自美国谷歌公司计算机科学家伊恩·J.
古德费洛(Ian J.
Goodfellow)等人的一项研究:某个神经网络以57.7%的置信度将一张图片中的熊猫判断为“熊猫”,且“熊猫”类别是所有类别中置信度最高的,因此该网络得出“图片中的物体是一只熊猫”的结论。但在少量添加精心构造的噪声后,该神经网络就会以99.3%的置信度将图片中的熊猫判断为“长臂猿”,即使在人类看来图中物体依然是熊猫。此类例子表明,怀有不良意图者可通过欺骗人工智能,给世界造成巨大安全威胁。

监管刚刚起步

及早设计制定治理框架

人工智能不断融入人类生活的同时,也引发公众对人工智能的忧虑。对此,*表示,应该建立监管机构来引导、促进和保障人工智能的健康发展

对于现在就建立针对人工智能的法律和政策框架,是否为时过早?来自马里兰州第6选区的美国众议院议员约翰·德拉尼(John
Delaney)表示,美国政府的一大问题是不善于管理变化,由私人部门驱动的变化发生了,技术创新显然极大地改善了人们生活的各个方面,但也给特定的个人、教育系统、劳动力市场带来许多挑战,而政策制定者的职责是观察世界如何变化,然后更新基本的社会制度以便智慧地应对变化。2017年5月,德拉尼在众议院内部发起了人工智能党团会议(AI
Caucus),目的是将政府内部、学术界和私人部门的专家聚在一起,探讨人工智能技术进步带来的机遇与挑战。同年12月,德拉尼和参议院、众议院的其他几位议员共同提出了《人工智能的未来法案》,其宗旨是为人工智能技术持续发展创造一个支持环境,并指定美国商务部设立一个联邦顾问委员会,评估新兴人工智能技术带来的经济机遇,以及对美国人生活各方面产生的影响。

此前有报道称,“脸书”人工智能研究所中的两个聊天机器人“失控”,发展出了人类无法理解的语言,“被迫关闭”引发了广泛关注。尽管随后被证明是一场“乌龙”,只是因为工程师忘记加入“使用英语语法”这一条件。

德拉尼表示,他们这么做是因为企业、学术机构、非营利机构都对人工智能的影响十分感兴趣,并且在为此做准备。而联邦政府大体上在忽视变化,继续纠缠于过去的冲突而非聚焦于最重要的未来。因此,他认为现在就要开始建立法律和政策框架,以确保人工智能继续造福于人类且使社会更加公平。他认为,人工智能无疑是一个至关重要的议题,但也非社会要应对的唯一问题,他倾向于将人工智能视为令人惊奇的技术创新的下一个演化阶段,它在多个方面改变着世界,跨越治理的各个领域和平台,所以需要开展基础性更新。

但对事实的夸大报道,也显示出媒体和公众对人工智能的忧虑。在北京市中盾律师事务所律师陈涛看来,随着人工智能深入融入生产和生活,必须以立法来对其安全性进行监管,给公众吃下“定心丸”。互联网汽车的特斯拉埃隆·马斯克也表示,我们应该警惕人工智能崛起的潜在风险,并建立监管机构来引导这项强大技术的发展。

美国哈佛大学肯尼迪政府学院科学、技术与社会项目高级客座研究员尼古拉·米埃勒(Nicolas
Miailhe)表示,思考并着手构建人工智能技术革命的治理框架,永远不会为时过早。许多人认为,人工智能在第四次工业革命中占据重要地位,而这次工业革命比前几次更具全球性、互联性,这就需要全球共同治理。近日,法国和加拿大政府发表的关于人工智能的共同声明表示,在不久的将来,人工智能将影响一切人类活动,为经济和社会创造前所未有的福祉;法加两国希望促进以人类为中心,以包容、多样化、创新、经济增长等为基础的人工智能,并强调发展对人工智能影响的预测能力和共同努力。为此法加两国呼吁,创建一个国际研究团队,在全球范围内分享关于人工智能的研究成果和最佳实践。此外,值得深思的问题还包括,人类应将哪些交给人工智能来做,以何种方式?在作出向机器“授权”的选择时,应以哪些原则和价值观为指导?

对人工智能进行立法监管,首先要解决人工智能使用中基本的安全问题,以及使用者与服务提供者的责任界定问题。以无人驾驶汽车为例,上路前,对其安全性如何全面评判?一旦无人驾驶汽车出现事故,如何判断使用者、软件提供商以及车辆制造商等多方主体的责任,如何在后续赔偿和保险理赔中进行规定?实际上,立法监管不仅降低风险,也让服务企业能够“有据可依”,从而促进和保障人工智能的健康发展。

米埃勒对本报记者说,人工智能算法离不开海量数据的支撑,机器通过“进食”数据学习和自我优化。因此,掌握先进人工智能技术的国家,未来将在世界范围内展开对大数据市场的激烈竞争。

从目前来看,各个国家的人工智能监管都刚刚被提上日程。在美国,2016年10月,总统行政办公室和国家科技委员会发布了两份重量级报告:《美国国家人工智能研究发展战略规划》与《为未来的人工智能做好准备》,后者提出了发展人工智能的7项关键战略,在第三条“社会影响战略”中,提出“理解和确定人工智能在法律、伦理和社会领域中的影响”;在第四条“安全战略”中,则提出“确保人工智能系统的安全和对公众的隐私保护”。

美国纽约大学信息法研究所研究员茱莉亚·波尔斯(Julia
Powles)表示,人工智能技术和其他新科技一样,需要加以治理和规范。但是,人工智能领域体现出一种“力量转移”。这个领域充斥着巨额资本和“新玩家”,科技巨头企业的影响力在许多方面超过政府,治理难度相应增加。另外,代表着公共利益的行业对人工智能、大数据技术等的应用还不足,如政府享有强大的数据资源优势,但很多时候将其拱手让给具备更强计算能力的其他主体。

在欧盟,2016年欧盟法律事务委员会向欧盟提交了《欧盟机器人民事法律规则》,针对基于人工智能控制的机器人,提出了使用的责任规则、伦理原则、对人类自身和财产的伤害赔偿等监管原则。英国下议院科学技术委员会在今年4月表示,也将开展关于人工智能监管的研究。

驻华盛顿记者 王悠然

在我国,《规划》中同样提出,到2020年,“部分领域的人工智能伦理规范和政策法规初步建立”。其中特别提出,要“开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等”,“重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究制定相关安全管理法规,为新技术的快速应用奠定法律基础”。

(中国社会科学报华盛顿6月24日电)

不过,对人工智能的监管也不能“闭门造车”。“立法的前提是了解人工智能的科学规律,需要充分准备、摸索和积累,对技术进步充分了解,同时考虑公众的实际需求。”陈涛表示。

作者简介

安全仍有漏洞

姓名:王悠然 工作单位:

安全是人工智能面临的巨大挑战。这其中既包括在应用层面的传统黑客攻击方式,也存在着对基础设施方面进行的数据库、云服务等攻击。但更关键的安全问题是从*核心的算法层面发起攻击

两张人眼看起来一模一样的熊猫图片,一张被神经网络正确识别为“熊猫”,另外一张却因为被加上了人眼难以察觉的微小扰动,就被神经网络以99.3%的置信度识别为“长臂猿”——这就是可以“愚弄”人工智能的对抗样本,直接折射出人工智能所面对的安全问题缩影。

专注于互联网安全的极棒实验室总监王海兵告诉《经济日报》记者:“安全是人工智能面临的巨大挑战。”他表示,一方面,人工智能要面对传统的黑客攻击方式,比如在应用层面,可以攻击它的操作系统或者逻辑漏洞。“比如说,通过对智能门锁的攻击,就能实现任意人脸都可以通过门禁。”在人工智能的基础设施方面,则可以对人工智能使用的数据库、云服务等进行攻击,“比如说,机器视觉经常调用的OpenCv库,机器学习用到的TensorFlow框架,人工智能的从业者可以直接调用这些服务,但不幸的是,这些基础设施同样有漏洞。”王海兵说。

然而,人工智能所面对的更关键安全问题,正是诸如熊猫图片这样的对抗样本。王海兵表示:“用对抗样本攻击人工智能,其实就是从*核心的算法层面来攻击它。”

美国加州大学伯克利分校教授宋晓冬这样介绍对抗样本攻击的危害:“比如,无人驾驶汽车根据交通标示进行决策。如果交通标示是一个对抗样本,那么人类可以完全不受干扰,但无人驾驶汽车却可能将它完全识别成错误信息,这将带来严重后果。”实际上,美国伊利诺伊大学的一项测试已经证明,自动驾驶系统有可能被对抗样本“蒙骗”。

“但公众不用过于担心,至少现在来看,针对自动驾驶的对抗样本对抗性很差。比如,它只能在0.5米的距离内让自动驾驶系统错判,但自动驾驶场景毕竟是逐渐接近交通标识的。”王海兵也表示,“未来会不会有更*的对抗样本,仍是未知数”。

人工智能面对众多安全问题,对此,开发者也在努力总结与之对抗的手段。智能家居生产厂商BroadLink高级副总裁康海洋表示:“我们会将多方数据融合和统一分析,以提升数据的可信程度,同时也在尽量让整个系统变得更加透明。此外,我们还会及时销毁所有能销毁的数据,减少用户被攻击的可能性。”

伦理尚待明确

告诉人工智能何为“正确”,正在成为当务之急。如果不对其进化方向和目标形成共识,人工智能的伦理规则将无法“落地”

如果保持前行,会撞上沿途的5位行人;如果避开他们,就会撞上路边的墙,车中的两名乘客则可能有生命危险。在这种情况下,指挥自动驾驶的人工智能应该如何选择?英国伦敦玛丽女王大学高级讲师雅思密·艾登表示:“如果是人类驾驶员,大可以直接撞上行人,并表示‘是他们自己突然跳出来的’,但人工智能在道德上很难获得这么奢侈的原谅。”

这只是人工智能所处伦理困境的冰山一角。今年以来,麻省理工和哈佛大学联合推出了人工智能伦理研究计划,微软和谷歌等巨头也成立了人工智能伦理委员会,告诉人工智能何为“正确”,正在成为当务之急。《互联网进化论》一书的作者、计算机博士刘锋坦言:“尽管大方向上说,人工智能应当以造福人类为前提,但如果不对进化方向和目标形成共识,人工智能的伦理规则将无法‘落地’。”

对于人工智能来说,“伦理正确”的核心是正确的“算法”。美国一些法院使用的一个人工智能犯罪风险评估算法COMPAS,被第三方机构认为对黑人造成了系统性歧视。业界因此怀疑,小众人群有可能因为个体差异而承受“算法的歧视”。腾讯研究院研究员曹建峰表示,如果算法本身有问题,一旦将算法应用在犯罪评估、信用贷款、雇佣评估等关乎人身利益的场合,“因为它是规模化运作的,并不是仅仅针对某一个人,可能影响具有类似情况的一群人或者种族的利益。规模性是很大的”。

此外,还有来自数据的风险。以色列历史学家尤瓦尔·赫拉利表示,“人工智能技术的一个潜在结果是:促成数据集中到某一个地方,也进而导致权力的集中”。比如,大量互联网数据集中在少数几家巨头的手中,人工智能技术是否会因此遭到垄断?“AlphaGo之父”哈萨比斯就曾表示:“我提醒诸位,必须正确地使用人工智能。”他告诉记者,“人工智能技术不能仅为少数公司和少数人所使用,必须共享”。

AlphaGo超越了人类几千年来对围棋的理解,但人类并非能完全理解AlphaGo为何会如此决策。从这一点来看,人工智能像个“魔盒”,这也让透明性成为人工智能伦理中的重要组成部分。英国阿兰图灵研究所科研主管安德鲁·布莱克表示,算法可问责性的存在至关重要。“透明性规则应被作为伦理道德准则,编入算法之中,这样人们才能更为清晰地认知人工智能的社会影响,并在问题发生之时能够及时找出原因,调整策略。

相关文章