早在1940年,科幻作家阿西莫夫就写下了著名的《机器人学的三大法则》,在没有机器人的时代就提出了人和机器相处的伦理思考。

2018年12月,欧盟委员会人工智能高级专家组发布了《可信人工智能伦理指南草案》(AI HLEG),针对宏观的人类基本权利和AI伦理基本原则达成共识,又提出具有可实现性的评估原则和方法,其中的基本概念就是以人为本。

即使从今天来看,《机器人学的三大法则》依然十分超前。《可信人工智能伦理指南草案》也只是以更系统化的现代理性语言,探究AI自身的安全与道德问题,以及如何与人和谐共存并服务于人。

然而时至今日,不仅具有通用人工智能的机器人尚未出现,现有的人工智能已经产生了许多安全、道德和法律隐忧。其中不仅有AI自身的问题,也有外部环境的问题。

新加坡国立大学电气与计算机工程系教授李海洲在近期于清华大学公共管理学院举行的“2019年度风险商-新兴技术中的新兴风险”国际会议上表示,人工智能不是通用智能,AI没有绝对安全。

新加坡国立大学电气与计算机工程系教授李海洲

他同时呼吁出台更多人工智能相关政策,使技术得到更合理的使用。他坦言,目前AI系统存在的漏洞很容易被人攻击。很多人吹嘘AI的强大只是为了推销产品,但实际上创造出AI系统的人也同样可以创造另一个AI系统用来攻击。

在上述会议上,中国电科信息科学研究院研究员郝英好表示,《机器人学的三大法则》过于宽泛,不同领域的安全与保护标准大相径庭,很难简单确定不同领域中AI产品的安全准则与标准。

人工智能监管与治理

中国信通院高级工程师施雨暇在上述会议上表示,人工智能监管既是技术问题,也是社会问题。她总结了人工智能面对的主要监管挑战。

  • 加强消费者、数据、隐私和安全保护
  • 建立一个共享的通用框架和一套有益和安全使用AI的原则
  • 共享最佳实践和持续创新以解决安全性、偏见和可解释性等问题
  • 在业务和国家竞赛中取得适当平衡以引领AI,确保人工智能的优势得到广泛应用和共享

那么在执行层面如何破?郝英好提出,人工智能不能重走互联网治理的老路,即先有漏洞频发及黑客频出,再有补丁挽救。安全治理必须从源头开始,首先制定安全规则和法律,确保算法的安全、公平、正义,并应用于产品设计阶段。

为了在关键时刻能够控制风险、抵御安全意外事件,AI产品设计师应该设定安全阀门或设置停止按钮,以便在必要时从AI模式转换为手动模式,如波音737 Max上的MCAS(机动特性增强系统)。

对于技术人员,则应加强道德教育,提高人文素质并增强责任感。如果说在互联网时代黑客还给人感觉挺“酷”,那么在人工智能时代,AI攻击将会是极端凶险、无人道甚至是反人类的。因此各界人士应该集思广益,集中力量为人工智能打造安全、可靠、道德的人工智能基础。

政府应该建立AI安全评估中心,在AI产品发布前对其进行安全评估。政府还应该提升人工智能准则建设,承担起培养AI安全专家的责任。

总之,人工智能治理面临现实挑战,不应因循守旧于传统互联网做法,设计者、技术人员、政府都应承担各自责任。

法律视角下的人工智能安全

郝英好还从法律视角解读了人工智能安全治理的三大挑战。

中国电科信息科学研究院研究员郝英好

一.规则滞后于发展

传统意义上,法律条文是滞后的,问题总是先于法律条文的形成。但在传统社会中,由于法律的性质是具有一定的前瞻性和稳定性,而需要去规范的法律关系以及可能存在的法律事务问题在一定程度上是稳定且可以预见的,因此滞后问题并不显著。

然而,人工智能技术的一大显著特点是高度不确定性,所以问题就会不断变化,甚至以很高的频率不断衍生出新问题。对于这样的新问题,法律条文即便找到了合适的解决方法,问题可能也已经升级,而又产生出更多问题。这种情况下,很有可能法律条文甫一通过,就已经失去了原本的意义。

二.价值评估问题

从法律视角来看,任何惩罚或补偿都应基于损失的价值。也就是说,如果犯罪行为或非法行为造成100万元损失,那么相应的惩罚也是基于这100万元价值的。但在人工智能安全治理方面,信息损失、隐私泄露,甚至是AI本身造成的损失如何评估,是一个棘手问题。

三.责任分配问题

在人工智能管理方面,尤其是造成损失后,如何在开发者、制造者、销售者和用户间明确责任,是极具挑战的。人工智能的特点在于其能力是随着使用而不断增强的,这也就意味着人工智能系统的能力并非在开发时确定,而是在持续使用中通过深度学习等方式获得。这样的能力不完全依赖于用户,因为它源于开发者,那么在造成损失时又该如何确定责任呢?

中国面临的问题与机遇

事实上,中国AI行业的发展也同样面临多层面问题,施雨暇总结了五大挑战。

  1. 核心技术缺位。在云端,英伟达领衔GPU芯片市场,谷歌的TPU性能领先。而在终端,国产AI芯片创业企业都面临商业化问题。
  2. 中国缺乏自主算法。核心算法及应用高度依赖国外公司创造的开源架构及产业生态。
  3. 数据集不完善,行业数据缺乏,数据质量不高,数据开放及流转系统都不完备。
  4. AI应用于不用垂直领域尚面对监管挑战。比如,在自动驾驶领域就需要修改标准和法规,在智慧医疗领域就需要修改医疗器材法规和认证制度等。
  5. 人才短缺,AI算法及应用工程师缺口巨大,跨学科人才更是极度稀少。

但她也认为,中国AI行业的发展优势巨大。政策上政府对AI高度重视,市场层面中国人口庞大,拥有13亿移动互联网用户,行业应用场景丰富,各行业企业普遍乐于接受新科技。另外,中国在风险投资、研究论文及专利申请方面都已超越美国。

尽管未来始终可期,但至少《可信人工智能伦理指南草案》发布一年来,问题还是那些问题,而《机器人学的三大法则》仍是科幻。

  • 以上内容仅代表作者个人观点,不代表氢云资讯观点及立场
  • 以上内容及观点不构成任何投资建议,据此投资后果自负