从深度学习的寒冬走入爆发期,今年三位图灵奖得主跋涉过了数十年岁月。
当图灵奖把荣耀颁予深度学习,奠基人之一、加拿大计算机科学家Yoshua Bengio却日渐感受到滥用AI的危险,比如威权政府的监控和无人机杀手。在三位深度学习奠基人之中,唯有Bengio全职留在学界。他在加拿大蒙特利尔大学任教,并带领由Google资助的蒙特利尔算法学习人工智能实验室(MILA)。
Bengio认为,在军事实验室、安全组织、为政府或警察提供服务的私营公司中,人工智能正在被滥用。技术本无善恶,但日渐强大的人工智能如同一柄双刃剑,终将同时拥有推动科学进步和破坏人类社会的力量。
因此,2018年12月,在人工智能和机器学习的盛会NeurIPS上,Bengio提出了人工智能的一系列道德准则,被称为《蒙特利尔宣言》。
最近,这位深度学习奠基人与《Nature》(《自然》)进行了一场对话,谈及人工智能的方方面面,Bengio也重申了滥用人工智能的危险和应对措施。或许这位在人工智能方面的先行者,会启发我们有一些不一样的思考。
《Nature》:你是否看到很多公司或者国家不负责任地使用AI?
Yoshua Bengio:已经有很多这样的事情,而且可能会有更多。所以我们必须在坏事发生之前警醒世人。许多最令人担忧的事情并非在光天化日之下发生。它发生在军事实验室、安全组织、为政府或警察提供服务的私营公司中。
《Nature》:能举一些例子吗?
Yoshua Bengio:无人机杀手很让人担忧。这既有道德问题,也有安全问题。另一个例子是监控。你可以说它具有潜在的积极作用。但滥用的风险,特别就威权政府而言,是非常真实存在的。从本质上讲,人工智能是一种工具,可以被掌权者用来巩固权力,并且加强权力。另一个问题是,人工智能可以放大歧视和偏见,例如性别歧视或种族歧视。因为用来训练AI的数据中就存在偏见,这受到人为影响。
《Nature》:什么使蒙特利尔宣言与类似举措有所不同?
Yoshua Bengio:我认为这个宣言最先纳入了广泛的群体,不局限于人工智能研究人员,而是广泛引入社会科学、人文学科方面的学者,乃至公众,并且是以深度参与的方式。这带来了变化:由于与专家和公众进行讨论,我们将原则从7条改为10条。组织可以遵循这些原则。
《Nature》:什么是最适合人工智能道德讨论的平台?
Yoshua Bengio:我们正试图在蒙特利尔建立能够实现这个目标的组织:人工智能和数字技术社会影响的国际观察站(The International Observatory on the Societal Impacts of Artificial Intelligence and Digital Technologies)。它应该纳入以下所有行动者:政府,因为他们是可以采取行动的主体;民间-社会专家,既有人工智能技术专家,又有社会科学、医疗保健和政治科学专家;以及正在制造这些产品的公司。
但我们必须谨慎行事。因为当然,公司可能会把规则向他们的最低水平压低。
《Nature》:你是否认为这一行动会推动出台人工智能的政府或国际法规?
Yoshua Bengio:是。自我监管不会起作用。你认为自愿征税有效吗?它没有。与不遵守道德准则的公司相比,遵守道德准则的公司反而将处于不利地位。这就像开车一样。无论是