科技 人工智能AI

人工智能:“花海”之下仍有“荆棘”

2017-09-01 湾区城市群

图为工人在河北沧州中捷高新区一间汽车部件生产项目厂房内调试焊接机器人。

由于无人驾驶汽车的无人操作与各国现有道路交通法规抵触,相应立法和规范一直是其发展的重要前提条件。图为无人驾驶汽车的探测方式模拟图。

中国科技大学研制的智能机器人与小朋友互动

  人工智能可以同声传译、写新闻稿、协助医生看病、让机器人脸识别的精度高于人类、甚至写诗和战胜围棋世界冠军,其应用可谓“百花齐放”。

  数据显示,截至2017年6月,全球人工智能企业总数达到2542家,预计到2030年,人工智能将为世界经济贡献15.7万亿美元

  在今年7月国务院印发的《新一代人工智能发展规划》(以下简称《规划》)中提出,到2020年,我国人工智能核心产业规模超过1500亿元,带动相关产业规模超过1万亿元。顶层设计相继出台,巨头发力布局生态,资本市场热情洋溢,细分行业独角兽不断涌现,人工智能这片“花海”已不止“看上去很美”。

  但“花海”之下仍有“荆棘”。市场研究机构埃森哲大中华区信息技术服务总裁陈笑冰坦言:“人工智能也将会引发新的安全和伦理问题,鉴于未来人工智能将深入生活,政府也需要切实为人工智能制定监管规则,保证人工智能应用合理合规发展。”《规划》也同时提出:“人工智能发展的不确定性带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。”

  人工智能发展将面对怎样的挑战与风险?又应该设立怎样的“游戏规则”,让新技术能够与人类社会良性互动?

  监管刚刚起步

  人工智能不断融入人类生活的同时,也引发公众对人工智能的忧虑。对此,专家表示,应该建立监管机构来引导、促进和保障人工智能的健康发展

  此前有报道称,“脸书”人工智能研究所中的两个聊天机器人“失控”,发展出了人类无法理解的语言,“被迫关闭”引发了广泛关注。尽管随后被证明是一场“乌龙”,只是因为工程师忘记加入“使用英语语法”这一条件。

  但对事实的夸大报道,也显示出媒体和公众对人工智能的忧虑。在北京市中盾律师事务所律师陈涛看来,随着人工智能深入融入生产和生活,必须以立法来对其安全性进行监管,给公众吃下“定心丸”。互联网汽车的特斯拉埃隆·马斯克也表示,我们应该警惕人工智能崛起的潜在风险,并建立监管机构来引导这项强大技术的发展。

  对人工智能进行立法监管,首先要解决人工智能使用中基本的安全问题,以及使用者与服务提供者的责任界定问题。以无人驾驶汽车为例,上路前,对其安全性如何全面评判?一旦无人驾驶汽车出现事故,如何判断使用者、软件提供商以及车辆制造商等多方主体的责任,如何在后续赔偿和保险理赔中进行规定?实际上,立法监管不仅降低风险,也让服务企业能够“有据可依”,从而促进和保障人工智能的健康发展。

  从目前来看,各个国家的人工智能监管都刚刚被提上日程。在美国,2016年10月,总统行政办公室和国家科技委员会发布了两份重量级报告:《美国国家人工智能研究发展战略规划》与《为未来的人工智能做好准备》,后者提出了发展人工智能的7项关键战略,在第三条“社会影响战略”中,提出“理解和确定人工智能在法律、伦理和社会领域中的影响”;在第四条“安全战略”中,则提出“确保人工智能系统的安全和对公众的隐私保护”。

  在欧盟,2016年欧盟法律事务委员会向欧盟提交了《欧盟机器人民事法律规则》,针对基于人工智能控制的机器人,提出了使用的责任规则、伦理原则、对人类自身和财产的伤害赔偿等监管原则。英国下议院科学技术委员会在今年4月表示,也将开展关于人工智能监管的研究。

  在我国,《规划》中同样提出,到2020年,“部分领域的人工智能伦理规范和政策法规初步建立”。其中特别提出,要“开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等”,“重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究制定相关安全管理法规,为新技术的快速应用奠定法律基础”。

  不过,对人工智能的监管也不能“闭门造车”。“立法的前提是了解人工智能的科学规律,需要充分准备、摸索和积累,对技术进步充分了解,同时考虑公众的实际需求。”陈涛表示。

  安全仍有漏洞

  安全是人工智能面临的巨大挑战。这其中既包括在应用层面的传统黑客攻击方式,也存在着对基础设施方面进行的数据库、云服务等攻击。但更关键的安全问题是从最核心的算法层面发起攻击

  两张人眼看起来一模一样的熊猫图片,一张被神经网络正确识别为“熊猫”,另外一张却因为被加上了人眼难以察觉的微小扰动,就被神经网络以99.3%的置信度识别为“长臂猿”——这就是可以“愚弄”人工智能的对抗样本,直接折射出人工智能所面对的安全问题缩影。

  专注于互联网安全的极棒实验室总监王海兵告诉《经济日报》记者:“安全是人工智能面临的巨大挑战。”他表示,一方面,人工智能要面对传统的黑客攻击方式,比如在应用层面,可以攻击它的操作系统或者逻辑漏洞。“比如说,通过对智能门锁的攻击,就能实现任意人脸都可以通过门禁。”在人工智能的基础设施方面,则可以对人工智能使用的数据库、云服务等进行攻击,“比如说,机器视觉经常调用的OpenCv库,机器学习用到的TensorFlow框架,人工智能的从业者可以直接调用这些服务,但不幸的是,这些基础设施同样有漏洞。”王海兵说。

  然而,人工智能所面对的更关键安全问题,正是诸如熊猫图片这样的对抗样本。王海兵表示:“用对抗样本攻击人工智能,其实就是从最核心的算法层面来攻击它。”

  美国加州大学伯克利分校教授宋晓冬这样介绍对抗样本攻击的危害:“比如,无人驾驶汽车根据交通标示进行决策。如果交通标示是一个对抗样本,那么人类可以完全不受干扰,但无人驾驶汽车却可能将它完全识别成错误信息,这将带来严重后果。”实际上,美国伊利诺伊大学的一项测试已经证明,自动驾驶系统有可能被对抗样本“蒙骗”。

  “但公众不用过于担心,至少现在来看,针对自动驾驶的对抗样本对抗性很差。比如,它只能在0.5米的距离内让自动驾驶系统错判,但自动驾驶场景毕竟是逐渐接近交通标识的。”王海兵也表示,“未来会不会有更完美的对抗样本,仍是未知数”。

  人工智能面对众多安全问题,对此,开发者也在努力总结与之对抗的手段。智能家居生产厂商BroadLink高级副总裁康海洋表示:“我们会将多方数据融合和统一分析,以提升数据的可信程度,同时也在尽量让整个系统变得更加透明。此外,我们还会及时销毁所有能销毁的数据,减少用户被攻击的可能性。”

  伦理尚待明确

  告诉人工智能何为“正确”,正在成为当务之急。如果不对其进化方向和目标形成共识,人工智能的伦理规则将无法“落地”

  如果保持前行,会撞上沿途的5位行人;如果避开他们,就会撞上路边的墙,车中的两名乘客则可能有生命危险。在这种情况下,指挥自动驾驶的人工智能应该如何选择?英国伦敦玛丽女王大学高级讲师雅思密·艾登表示:“如果是人类驾驶员,大可以直接撞上行人,并表示‘是他们自己突然跳出来的’,但人工智能在道德上很难获得这么奢侈的原谅。”

  这只是人工智能所处伦理困境的冰山一角。今年以来,麻省理工和哈佛大学联合推出了人工智能伦理研究计划,微软和谷歌等巨头也成立了人工智能伦理委员会,告诉人工智能何为“正确”,正在成为当务之急。《互联网进化论》一书的作者、计算机博士刘锋坦言:“尽管大方向上说,人工智能应当以造福人类为前提,但如果不对进化方向和目标形成共识,人工智能的伦理规则将无法‘落地’。”

  对于人工智能来说,“伦理正确”的核心是正确的“算法”。美国一些法院使用的一个人工智能犯罪风险评估算法COMPAS,被第三方机构认为对黑人造成了系统性歧视。业界因此怀疑,小众人群有可能因为个体差异而承受“算法的歧视”。腾讯研究院研究员曹建峰表示,如果算法本身有问题,一旦将算法应用在犯罪评估、信用贷款、雇佣评估等关乎人身利益的场合,“因为它是规模化运作的,并不是仅仅针对某一个人,可能影响具有类似情况的一群人或者种族的利益。规模性是很大的”。

  此外,还有来自数据的风险。以色列历史学家尤瓦尔·赫拉利表示,“人工智能技术的一个潜在结果是:促成数据集中到某一个地方,也进而导致权力的集中”。比如,大量互联网数据集中在少数几家巨头的手中,人工智能技术是否会因此遭到垄断?“AlphaGo之父”哈萨比斯就曾表示:“我提醒诸位,必须正确地使用人工智能。”他告诉记者,“人工智能技术不能仅为少数公司和少数人所使用,必须共享”。

  AlphaGo超越了人类几千年来对围棋的理解,但人类并非能完全理解AlphaGo为何会如此决策。从这一点来看,人工智能像个“魔盒”,这也让透明性成为人工智能伦理中的重要组成部分。英国阿兰图灵研究所科研主管安德鲁·布莱克表示,算法可问责性的存在至关重要。“透明性规则应被作为伦理道德准则,编入算法之中,这样人们才能更为清晰地认知人工智能的社会影响,并在问题发生之时能够及时找出原因,调整策略。”(记者 陈 静)

相关:人工智能 黑客 数据 风险
作者:经济日报 来源:经济日报 阅读: -
版权免责声明:本号部分图文分享自互联网。如有侵权,请及时私信告知。我们第一时间处理异议。转载本号原创文章,需注明来源于【湾区城市群】
相关阅读