2021年刚刚过半,“人脸识别一定要穿上衣服”登上热搜,令人感慨。一是感慨有那么多人面对摄像头可以如此“大方”,二是更感慨在人工智能的实际应用中数据保护仍然形同虚设,图像可以被后台人员看个遍。公众对于人工智能还是过分信任了。
这种无知或盲目信任的可怕之处在于其后续造成的不信任可能给技术和产业带来潜在毁灭性打击。上述案例中,如果全人类都“吃一堑长一智”,从此拒绝人脸识别,这其实并不是在保护自己,而是扼杀人工智能发展,反过来又会阻碍人类社会进步。
技术总有不争气的时候,尤其是在发展初期。自动驾驶汽车事故、大数据杀熟、换脸视频等,无不在提醒人们,人工智能尚未成熟就已被滥用。于是,在大众对人工智能失去信任前,制定游戏规则就显得十分重要。
6月28日,全国人工智能领域首部地方性法规——《深圳经济特区人工智能产业促进条例(草案)》提请深圳市七届人大常委会第二次会议审议。与过去各类立法重在单纯鼓励人工智能发展不同,该《条例(草案)》的一大亮点在于“底线思维”,规定市政府设立人工智能伦理委员会,推动构建覆盖全面、导向明确、规范有序、协调一致的人工智能伦理治理规则。
该《条例(草案)》明确了人工智能产品和服务的行为底线,在研究和应用活动中,禁止侵犯个人隐私和个人信息保护、损害国家安全和社会公共利益;禁止利用算法技术根据用户的习惯、支持能力实施价格歧视或者消费欺诈等。
法律的底线正在划定。然而,法律在一般意义上管的是人,而不是技术本身。人工智能的独特性就在于,不仅可以被人用于恶意目的,其自身也先天存在信任瑕疵。一辆独立行驶的自动驾驶汽车因误判而撞了人,责任怎么算?人工智能这种聪明的似人非人的技术如何取信于人,正在成为各界关注的热点问题,“可信AI”被越来越多地讨论。
既然人工智能已经应用广泛,并且前途无量,怎么就有信任瑕疵了呢?中科院软件所研究员,信标委人工智能分委会可信赖研究组组长薛云志近日在2020中国人工智能产业年会可信AI专题论坛上总结了人工智能可信赖性问题的三大原因:
第一,统计机器学习方法本身的不确定性。人工智能基本用的都是统计机器学习方法,本身就有不确定性,不知道基于学习的系统边界在哪里。第二,对高质量训练数据的依赖。绝大多数应用人工智能的系统都是监督学习的,真正的无监督学习很少,一旦缺少数据就很难有高质量的人工智能应用。第三,有限封闭训练vs.开放使用。以自动驾驶为例,所有自动驾驶的算法都在有限的数据集和有限的场景下学习训练,但需要投入到开放、无限的场景中使用,这就是矛盾。
从人工智能三要素“算力、算法、数据”来看,除去算力这个客观要素,人工智能的可信问题也可以从内部的算法和外部的数据中找到答案。
北京通用人工智能研究院院长朱松纯教授近日在CICAI国际人工智能会议上指出,当前产业界更倾向于将人工智能技术等同于“大数据+深度学习+超大算力”。“大数据+深度学习”范式是将训练数据输入到神经网络中,然后得到一个预测值,这个神经网络由数量庞大的神经元组成,其演算机制无法解释,造成人无法信任AI。
复旦大学计算机学院院长姜育刚在上述可信AI专题论坛上把人工智能算法问题总结为:不透明、不公平、不安全、不友好、隐私泄露、算法滥用。其中,不透明指的就是基于深度学习的智能模型可解释性差,决策过程人类难以理解,导致追责难。
数据方面,云安全联盟大中华区(CSA GCR)数据安全工作组组长王安宇表示,在人工智能的各类数据资产中,数据集和训练数据处于核心地位,所有数据资产都会面对滥用、窃听、物理攻击、无意损害、故障、停止服务等威胁。
数据扰动就是一个典型例子。无论在代码层面还是物理世界中,通过细微修改数据来欺骗人工智能算法似乎都并非难事。被涂改的交通标识就可能让自动驾驶汽车“认错”限速,从而做出加速决定,大大增加超速引发事故的风险。
此外,可信AI还存在非技术问题。复旦大学生命医学伦理学研究中心教授杨庆峰表示,除了系统的可解释性、信息透明性之外,AI机构信息是否透明也能决定人们对AI机构的信任,而负面技术文化还塑造了对技术不信任的集体意识,如科幻作品中大量邪性机器人形象(如“终结者”),让人们产生了恐惧和疏离认知。
事实上,可信AI还超越了人工智能本身的科技范畴,而成为了新的国际标准的竞争战场。薛云志指出,可信赖正成为AI领域最富争议性的话题之一,是合规监管和贸易争端的潜在议题。
在国际竞争布局方面,美国持续多年发布多个高级别可信赖AI战略指南,欧盟密集发布可信赖AI指南,英国重点部署AI治理与AI可解释指南。我国目前未明确可信赖AI的作用,也未持续性发布指南。
在国际标准化竞争方面,ISO/IEC的可信赖AI标准最早最全,其中美国专家最多。NIST布局针对性强的可信赖AI标准,明确美国经济与国家安全的迫切需求。IEEE以隐私、可解释为可信赖AI标准的突破,并加快新项目部署。欧盟以伦理为可信赖AI标准核心。ITU将可信赖与通讯要求相结合研发标准。
我国各界目前已对可信AI的建设提出了各种设想。姜育刚就人工智能算法治理提出“技术+规则”双轮驱动,技术与规则联动,一方面研究更符合规则的人工智能算法,发展评估技术以度量现有人工智能算法的合规程度;另一方面通过规则自顶向下约束人工智能技术活动,牵引其健康发展。
在产业界,京东集团技术委员会主席、京东科技基础技术群总裁、京东人工智能研究院院长周伯文认为,系统性建设可信赖AI需要学术研究与工业实践相结合。可信赖AI不是孤立的、割裂的,需要学界、产业界、全社会共创共建。
- 以上内容仅代表作者个人观点,不代表氢云资讯观点及立场
- 以上内容及观点不构成任何投资建议,据此投资后果自负