2024年1月7日,第二十五届北大光华新年论坛在北京大学百周年纪念讲堂举行,本届论坛的主题为“增长动能 中国探索”。中国科学院自动化研究所人工智能伦理与治理中心主任、联合国人工智能高层顾问机构专家曾毅在论坛上表示,未来需要推进新一代生成式人工智能的科学突破,目前并没有真正意义的通用人工智能的存在,在有效理解、识别和划分任务方面,尚存在本质性的问题瓶颈。他表示,基于现在人工智能的现状,特别是风险安全伦理方面的发展捉襟见肘,不必使人工智能无所不在,而应在发展中秉持智能向善的理念,负责任的稳健发展和适度的使用。
曾毅表示,当代生成式人工智能是工程技术的组合创新,以及在用户体验方面带来了前所未有的显著提升,但它确实尚未形成本质性的科学突破。因为当代生成式人工智能最基本的思想是人工智能领域几十年前奠定的,真正在科学上的突破并不是这几年,当代生成式人工智能憧憬的通用人工智能的科学突破也还尚未到来。面向未来,应当在科学与社会角度来审视和推进生成式人工智能的发展。
曾毅举例称,ChatGPT给出的答案确实是更新了传统意义的和谐共生。用它生成的和谐共生的画作看起来也确实抓住了和谐共生的意义,但是当对比文字和图像的时候有一个非常有趣的现象,文字生成的结果不缺乏人的因素,但图像生成的结果中并没有人的存在。
曾毅认为,实际上它还未形成真正的理解。当最开始生成式人工智能在互联网上为大家提供服务时,用它去查阅参考文献,它给出的参考文献没有一篇是真实存在的,因为输出的所有参考文献的名字都是生成的。在这种情况下,一个生成式人工智能并不能够区分何时不需要生成,这个实际上就是看似智能的信息处理工具实则并不拥有真正的智能所存在的问题。
所以基于现在的人工智能的现状,确实不必使人工智能无所不在。人工智能的确存在可能的风险,但是发展当中应当秉持智能向善的理念、负责任稳健的发展和适度的使用。
曾毅说,任何一个生成式大模型在伦理道德,价值观的表现方面相当不稳定。说的是同一件事情,只要描述方式稍微变一下,它的输出道德的价值判断甚至可以是颠覆性的,这是人不会出现的问题。
曾毅指出,未来的生成式人工智能不一定会停留在看似智能的信息处理的工具上,但是如果想让它获得道德,不仅仅是用规则的方式让它合乎伦理,现在所谓的基于人类反馈的强化学习是完全不够的。人类在进行基于道德的问题求解的时候,道德框架是在外部的,而不是在一个问题求解器上打补丁,所以这样的方式本质上就构成了合乎伦理和具有道德之间在计算原理的本质上的差别。人类获得获得道德的方式首先是基于生物的自我感知、区分自我和他人,有了心理揣测能力和情感共情能力,产生利他并最终形成道德直觉,在此基础上进行道德推理与决策。
曾毅认为,面对长远的超级智能、人类灾难性的风险、生存风险的隐患,确实需要从现在开始做准备。但是,人工智能与人类价值对齐这件事情在未来的超级智能的时代将不成立,因为我们需要的是从价值对齐过渡到人与人工智能价值的协调,协调是双向的。当人工智能具备反思能力,智能的水平远远超过人类的时候,人工智能对于人类也将有价值观方面的诉求和期待。
文/北京青年报记者 宋霞
编辑/田野