半两财经 | 1100多人签名要求停止研究半年,AI威胁到人类了吗?
北京青年报客户端 2023-03-30 10:47

“这是人类第一次集体反AI事件,必将记入史册。”有科技界人士在朋友圈写道。3月29日,由图灵奖得主、深度学习三巨头之一约书亚·本吉奥,埃隆·马斯克,《人类简史》作者尤瓦尔·赫拉利等人联名发表公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。暂停工作应该是公开且可以证实的,如果AI实验室不能快速暂停,各国政府应该实行暂停令。截至目前,这封公开信已经有1100多名全球科技界人士联署。联名公开信背后到底是一种什么样的思潮,或者说代表了人类针对人工智能的何种态度?公开信签名者的画像如何?人类的AI实验真的失控了吗?北京青年报记者发现,由ChatGPT引发的人工智能话题正在从科技和经济学问题演变成伦理和哲学命题。

AI威胁论:“全球的AI实验室已经完全失控了”

AI威胁论是这封公开信的出发点。公开信表示,大量研究表明,具有与人类竞争智能的AI系统可能对社会和人类构成深远的风险,这一观点得到了顶级AI实验室的承认……最近这几个月,全球的AI实验室已经完全失控了,它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。

这封公开信提到,现在人工智能在一般任务上变得与人类一样有竞争力。对此,我们必须问自己:我们应该让机器在信息渠道中宣传不真实的信息吗?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终超过人类数量,胜过人类的智慧,淘汰并取代人类?我们是否应该冒着失去对我们文明控制的风险?这样的决定绝不能委托给未经选举的技术领袖。只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。同时,这种信心必须得到验证,并随着系统的潜在影响的大小而加强。OpenAI最近关于人工智能的声明中指出,在开始训练未来的系统之前,可能必须得到独立的审查,对于最先进的努力,同意限制用于创建新模型的计算增长速度。我们同意,现在就该采取行动。

公开信呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。公开信中还写道,这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并实行暂停。“这并不意味着暂停一般的人工智能开发,只是从危险的竞赛中退后一步,限制不可预测的研究和开发。”

基于此,这封信提出建议,人工智能的研究和开发应该重新聚焦于,使目前最先进和强大的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。同时,人工智能开发者必须与政策制定者合作,大幅加快开发强大的人工智能治理系统。这些至少应该包括:专门针对人工智能的监管机构;监督和跟踪高能力的人工智能系统和大型计算能力的硬件;出处和水印系统帮助区分真实和合成,并跟踪模型泄漏;强大的审查和认证生态系统;对人工智能造成的伤害承担责任;为人工智能安全技术研究提供强大的公共资金以及资源充足的机构,以应对人工智能可能导致的巨大的经济和政治破坏。

“反AI联盟”签名者画像

在这个被外界戏称为人类首个“反AI联盟”的名单上,签名的目前有图灵奖得主约书亚•本吉奥(Yoshua Bengio、Stability AI首席执行官Emad Mostaque、苹果联合创始人Steve Wozniak、纽约大学教授马库斯、马斯克,以及《人类简史》作者Yuval Noah Harari等等。签名人还包括苹果联合创始人史蒂夫·沃兹尼亚克、2020年美国总统选举民主党初选候选人杨安泽、AI经典教科书《人工智能: 一种现代方法》作者Stuart Russell、AI领军公司DeepMind的一众研究人员等。两名来自微软的软件工程师,以及来自OpenAI“竞争对手”的研究员,包括谷歌旗下DeepMind的三位研究科学家也签下了自己的名字。

值得注意的是,约书亚•本吉奥因对深度学习的贡献,在2018年与杰弗里•辛顿、Facebook首席科学家杨力昆(Yann LeCun)一起获得了图灵奖,三人被称为“AI教父”。不过,同样作为图灵奖得主的Yann LeCun却并没有签署:“我不同意这个前提。”

北青报记者发现,这份名单由于参与者太过广泛,以至于难以进行单一画像。从公布的全部名单可以参与者的职业分布包括医生、护士、出版商、记者、艺术家、导演、演员、电工、销售、自由职业者、飞行员、军人、电影放映员等;有的语焉不详,如维基百科资深编辑、管理员、退休人员;有点甚至直接以某个群体的身份签名,比如“关心所有孩子未来母亲”“忧心忡忡的公民”“居家的父母”等等。值得注意的是,在签名名单里的尾部,赫然出现了OpenAI CEO阿尔特曼的名字。然而,由于签名是公开征集,尚无法证明是否是阿尔特曼本人签署,其本人亦未回应。签名中OpenAI最后一个字母为小写,或有故意之嫌疑。

最有意思的是,排在签名榜第三位的马斯克受到最多的关注。许多观察人士他反对的其实不是人工智能,实际上,他反的只是OpenAI和GPT。作为OpenAI的共同创始人之一,马斯克一直也毫不掩盖他对OpenAI的敌意,认为其过商业化,从开源变成了“闭源”,已经忘了非盈利和开放的“初心”。也有报道指出,马斯克之所以如此敌视OpenAI,是因为2018年争夺OpenAI经营权失败,所以撤资走人。美国《财富》杂志当时报道称,离开的原因是因为马斯克虽然支持人工智能,但特斯拉智能驾驶技术与OpenAI之间有“潜在利益冲突”。还有报道称,马斯克在离开前提出过由他本人执掌OpenAI运营的建议,但遭到了拒绝。马斯克认捐了10亿美元,但截止到他离开时,其中9亿美元没有兑现。9亿美元的大窟窿迫使OpenAI走上商业化道路。这一转型获得了微软大力赞助。6个月后,微软注资10亿美元,并向OpenAI提供了基础设施和专业知识。他们一起建立了一台超级计算机来训练大规模的模型,最终创造了ChatGPT和图像生成器DALL-E。

警惕“数字利维坦”

OpenAI创始人都“害怕”了 AI威胁到人类了吗?

面对OpenAI产品在全球的火爆程度,OpenAI创始人兼CEO山姆·阿尔特曼自己也感到有些害怕。他近日在接受媒体采访时表示,自己对AI如何影响劳动力市场、选举和虚假信息的传播有些“害怕”。AI需要政府和社会共同参与监管,用户反馈和规则制定对抑制AI的负面影响非常重要。

“深度学习之父”、图灵奖的另外一名获得者杰弗里·辛顿 (Geoffrey Hinton)近日接受哥伦比亚广播公司采访时表示,AI消灭人类“并非不可想象”,人类需要警惕AI会给一小部分公司和政府带来巨大的权力。北青报记者注意到,部分学者提出了警惕要“数字利维坦”,得到了许多网民的支持。

实际上,人类对人工智能的担忧由来已久,清华大学梅汝璈法学讲席教授冯象早在2019年就发表过文章《人工智能让我们害怕什么?》,他认为,从人机关系的视角看,主要包括两项巨大的挑战,一是机器替换人类,导致失业浪潮;二是人工智能的军事化,智能武器在利比亚内战中已大量使用。用美国科幻文学的口号来说,未来已经来到。

那么,身在其中微软创始人比尔·盖茨是如何看待人工智能带来的负面影响的呢?公开报道中,比尔·盖茨将人工智能与芯片、个人电脑、互联网和手机并论,认为它将重新定义人类的学习、生产、生活和交流等。他认为,未来对企业的划分标准将通过一家公司如何使用GPT来进行划分。对于人工智能引发的担忧,比尔·盖茨认为,不安是社会对颠覆性新技术出现的本能反应。人工智能正因为模拟人类的思维和行事模式,因此产生的尖锐问题也必将很多。

AI威胁到人类了吗?一位在美国学习人工智能的博士对北青报记者表示,目前来看谈AI对人类的威胁还为时尚早,这封公开信背后展示的更多的是经济利益的版图。

同样是图灵奖的三大获奖者之一,Facebook的AI领头人杨力昆(Yann LeCun)就一直对OpenAI的大语言模型路径不屑一顾,认为其科技并无特别创新之处。北青报记者注意到,一名基金经理近期也在朋友圈发文称,以ChatGPT为代表人工智能归根结底还是建立在0和1的代码程序上,而人类的思维多多维的,不相信机器人能够战胜人类。

签名还在扩大,争论也在继续。对于人工智能,这个此前人类了解较少的对手,突然就出现在了面前,很多人没有做好心理准备。公开信在末尾提到,如今,我们的社会已经暂停其他可能造成灾难性影响的技术,对于人工智能也应该如此,“让我们享受一个漫长的人工智能夏天,而不是匆忙进入秋天”。

【版权声明】本文著作权(含信息网络传播权)归属北京青年报社所有,未经授权不得转载

文/北京青年报记者 朱开云
编辑/田野

最新评论