2020 AI治理元年,人们到底在担心什么?
浏览:130 时间:2023-6-16

在我看来,人工智能可以说是人类最伟大的创造,不是说这项技术能达到什么高度,而是说这项技术真正解放了人类,激发了机器的生产力,让人们释放出来做更人性化、更有创造力的事情。然而,人们对人工智能有着固有的担忧。人工智能是否会失控,给人类带来不可挽回的后果?

近日,人工智能公司旷视科技宣布成立AI治理研究院,呼吁各界关注和讨论AI治理事件。“人工智能技术应该是可持续的。在过去的几年里,人工智能经历了一个野蛮生长的时期,”旷视AI治理研究院负责人表示:“2020年将成为AI治理的元年。”

“人工智能野蛮生长”的说法不无道理。随着互联网和云计算在各行各业的快速渗透,全社会的网络化、数据化程度得到了前所未有的提升。原本越来越多的智能设备实际上已经登陆智慧城市,相关算法也在不断完善。人工智能已经开始在各个领域进行探索和应用,甚至已经开始进入一个自我学习和进化的过程。尤其是近年来,随着人工智能技术的大规模产业化应用,人类与人工智能之间一些前所未有的矛盾逐渐浮出水面。担忧和疑虑越来越严重。尽快探索可预测、可约束、面向行为的人工智能治理机制,已成为人工智能时代的首要命题。

AI的边界在哪里?从《终结者》开始

1984年,卡梅隆拍摄了第一部电影《终结者》,2019年,《终结者6》上映。35年来,唯一的变化是世界真的连接起来了,天网的故事似乎不再遥不可及。著名物理学家霍金,在去世前,与被称为“钢铁侠”的特斯拉,创始人马斯克,发表了一封公开信,提出了他对人工智能发展的担忧。霍金说:“在未来100年,计算机结合人工智能将变得比人类更聪明。那时,我们需要确保计算机符合我们的目标。我们的未来取决于不断增长的技术力量和我们使用技术的智慧之间的竞争。”持这种观点的人不在少数。由于公众的担忧,美国加州市立法禁止警方在执法记录仪上使用面部识别技术,浙理工大学的一名医生也起诉了一家将指纹识别改为面部识别的野生动物园。他的理由是他害怕人脸生物信息的泄露。当然,这种担忧也很有意思,因为泄露指纹大概比泄露公开人脸信息更致命。显然,随着人工智能的快速发展和应用的迅速普及,人们可能没有时间去思考这些看似便利的背后是否有什么问题,而这些设备已经在运行了。但在问题逐渐暴露之前,类似的担忧和争议很可能还会继续。

事实上,人们担心新技术,无论是机器还是人工智能。早在1950年,在阿西莫夫科幻小说中,他就提出了著名的机器人三定律,奠定了思维方向和基础。这三条定律是:“第一,机器人看到人类受到伤害,一定不能伤害人类,或者袖手旁观;第二,在不违反第一定律的前提下,机器人必须绝对服从人类下达的任何命令;第三,在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。”从这里,我们可以清楚地看到,机器人生存的规则并不是为了伤害人类,而这些后续的规则都得到了补充,但对我来说最有价值的补充是繁殖原则。除非新机器人的行为符合机器人的原理,否则不允许机器人参与机器人的设计和制造。现阶段,人们已经开始思考机器人的繁衍可能带来的危害,而这个问题其实就是《终结者》中冲突的起源。

这些原本在科幻领域思考和讨论的问题,终于开始面向现实世界:2020年1月,欧盟专利局以欧盟专利申请中指定的发明人必须是人而不是机器为由,驳回了英国, 萨里大学一位名叫DABUS的AI申报的专利成果。然而,萨里大学的研究人员强烈反对这一决定,认为因为没有人类发明家而拒绝授予发明者所有权将成为“人类伟大成就的新时代”的主要障碍。

但技术发展的步伐在任何情况下都不会暂停,尤其是随着云计算的全面普及、5G的全面部署和AI能力的全面发展,2020年无疑将成为应用爆发和矛盾最突出的一年。人工智能应用的边界是什么?你能享受和人一样的权利吗?人工智能犯的错谁能负责?在人工智能爆发之前,这些问题亟待解决。因此,可以毫不夸张地说,2020年是AI治理的元年。除了技术研发和进步,我认为AI伦理制定规则是最关键的时刻。

各国各行各业都在探索中前进

事实上,社会各界对AI技术讨论的热情只是在增加,世界各地的许多政府、社会组织和著名政治家或多或少都对人工智能提出了一些要求。例如,2019年4月,欧盟委员会公布了指导人工智能发展和建立信任的七项原则。虽然这些准则没有约束力,但它们可能成为未来几年进一步行动的基础。同年6月17日,中国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。

然而,在世界各国政府层面,对于人工智能治理的规制和边界并没有实质性的立法或明确的标准。相反,人工智能企业在推动人工智能应用方面发挥了更加积极的作用。

作为国内领先的人工智能企业,旷视在推进人工智能应用的过程中,已经意识到正视人工智能技术带来的伦理问题的重要性,主张AI企业要把重视治理作为重中之重。2019年7月,在旷视,上线的《人工智能应用准则》、《准则》从合法性、人为监管、技术可靠性与安全性、公平性与多样性、责任性与及时纠正、数据安全与隐私保护六个维度对人工智能的正确有序发展进行了明确规制,并给出了相应的干预措施或指导意见,确保人工智能在可控范围内持续发展。据透露,旷视成立了专门的伦理委员会,监督《准则》在企业技术研发和产品应用中的实施。

旷视,联合创始人兼CEO 印奇,认为,AI治理需要“理性关注、深入研究、建设性讨论和持之以恒的行动”。我认为各大企业乃至主管部门都应该参与到这个问题中来,划定可以早研究早使用的领域,可以防止人工智能行业误入歧途,在良好的环境下快速发展,就像是先打基础再盖楼一样。

谁将执掌AI野马

坦白说,你可以对人工智能的发展提出异议,但没有办法阻止它的发展,因为这是大势所趋。就像核武器和工业化一样,不管你有多担心,都没有办法阻止它的发展,这是讨论这个问题的前提。所以剩下的其实就是规则和伦理的讨论,就像核武器的管理一样,这可能也是世界上最重要的管理问题。人工智能的管理重要性可能不在核武器之下,但只要这匹野马不失控,它就能被人类利用,带我们去从未去过的地方。

整个人工智能领域也要制定出自己的“机器人三定律”,确保技术的发展最终不会伤害人类。毕竟电脑中毒后重装系统就够了。现在AI失控,可能断水断电甚至交通瘫痪。人工智能可以看作是人类智能的结晶。它可以拥有人类掌握的所有知识,也可以控制人类世界的大部分设施。不能说无所不知和无所不能相距不远。在我们不断增强它的力量之前,有必要想清楚如何控制它。

从这个角度来看,关于人工智能的伦理讨论可能比关于人工智能技术发展的研究更为重要和紧迫。举个简单的例子,一辆自动驾驶车辆发生了车祸,那么应该由谁来负责呢?是司机吗?还是车辆的生产商?这个问题的定义可能比技术本身更阻碍自动驾驶的发展和落地。再比如人工智能写了假新闻?谁应该对此负责?此前,热门的AI换脸应用使用AI为视频换脸,包括很多模拟人声的产品。一旦出现假货事件,谁来负责?人们也可以说没有画面就没有真相?没有视频就没有真相?还是没有声音,没有真相?另一个有趣的问题是,随着颜色的加深,人脸识别的准确率会大大降低。换句话说,白人可能会受到更严格的监督,而黑人可能会宽松得多。这会不会造成不公?斯坦福大学发表了另一项研究。人工智能识别性取向的准确率远高于人类。以这种方式识别这类少数民族会带来隐私问题和族群的生存困境吗?

因此,从这个角度来看,在一线从事人工智能应用研发的科技企业应该更早意识到这一点。一个可以参考的案例是基因和克隆的研究,伦理管理是优先而不是技术突破。大家要早一点坐在一起制定研究方向和规则,进行有效的监督管理,让人工智能在明确安全的标准下有序可控地发展,让2020年成为人类社会发展的关键节点。

或许东方远比西方乐观,这也是一个关于机器人的幻想主题。《机器猫》,1969年出生,对人畜无害。我们相信自然与人的统一,相信一切都能与人和谐发展。因此,我也希望像旷视这样的中国企业能够在人工智能发展中发挥更大的作用,更好地引领行业规范健康发展。