针对全民关注ChatGPT的火爆现象,越来越多的年轻科学家卷入其中。今天北京青年报记者采访了旷视研究院基础科研负责人张祥雨,切入点是他与ChatGPT的对话内容。
作为专业人士,张祥雨认为ChatGPT的科研价值更大,其科研价值主要体现在研究人类智能如何产生。
ChatGPT对大小关系非常不敏感
旷视研究院基础科研负责人张祥雨告诉记者,ChatGPT发布以来,包括这次爆火之前,他基本上每天都在使用。主要关注它的逻辑推理能力,而不仅仅是拥有哪些知识。
张祥雨说,逻辑推理能力对判断一个模型是不是达到了类似人的思维水平更重要。让他特别惊讶的一点是,ChatGPT在语言逻辑推理,尤其是在多轮对话,以及高阶指代关系推理的能力很强。当然它也有很多问题,主要是在常识建模、尤其是数学逻辑能力比较欠缺,对数字的敏感性(比如大小关系等)不强。总体来说,其能力还是大大超出了预期。
讲到对话内容,张祥雨表示,主要是一些逻辑推理问题,比如A是B的父亲,C是A的兄弟,……,然后让它推D和E之间的关系,这个就是高阶关系建模能力和指代关系建模能力的测试。“我发现它做得非常好,可以一步步把逻辑链条推理出来,几乎不会错”。它的语言理解能力非常强,可以理解物体相互之间的空间位置关系等抽象概念,对什么时候要加、什么时候要乘理解得很准确。
张祥雨也注意到,ChatGPT对某些语境下的数字不敏感,“比如说4和7到底谁大,它有时候能做对,但有时候也做错”。张祥雨解释道,如果直接问它4和7谁大,它几乎不会答错。但如果是在某一个语境里,比如,最后得出集合A有4个元素,集合B有7个元素,再问它谁多谁少,它经常判断错。它对大小关系非常不敏感,有时候它已经告诉你准确的数字,比如一道题的两个选项算出的答案一个是21,另一个是22,明显22大于21,但它最后下的结论却是21大于22。另外,它经常会做错大数的乘法或加法。
ChatGPT的科研价值更大
作为一名科学家,张祥雨如何看待ChatGPT的应用趋势,ChatGPT会对哪些行业产生影呢?
张祥雨告诉记者,以现在ChatGPT它所代表的大模型的发展水平,大家最看好的、最先落地的应用可能是智能搜索引擎,此外像各种文字编辑工作,以及各种垂直领域都有落地的潜力。当然在落地过程中可能也会遇到一些问题,比如说如何保证答案的精准程度,如何保证生成的内容是正确的,以及在部署推理的时候要怎么把这个大模型给用起来,真正做到高效并且降低运行成本,这都是落地时需要讨论的。张祥雨认为,目前以ChatGPT为代表的AIGC,包括它背后的大模型的意义,不仅仅是在落地本身,它的科研价值可能更大。
针对ChatGPT的科研价值,张祥雨认为,科研价值主要体现在研究人类智能如何产生。其实从技术角度来看,AI大模型的设计和训练过程并没有专门针对智能做特殊的设计。它的逻辑推理、思维链、reasoning的能力,是研究人员通过大幅增加参数量、增加训练数据量的过程中突然激发出来的,这个现象非同寻常。这和生物的进化包括人类的进化史也是非常像的,从底等生物、高等生物再到人类,进化过程中的思维能力也是突然产生的。这种突然产生的智能背后不是靠专门的设计,是模型自然而然所形成的。这一点到底要如何理解?现在的“有智能”的大模型相对于原来“没有智能”的那些模型到底产生了哪些质变?这些都是非常前沿且有趣的课题,值得我们探索。
NLP大模型出现了非同寻常的现象
张祥雨非常认同ChatGPT带动了AI新一轮的发展浪潮,带动AI新一轮浪潮的,不止是ChatGPT,它只是大模型技术的一种应用。这两年学术界在AI大模型,尤其是自然语言大模型方面取得了跨越式的发展。其核心逻辑,其实和大模型背后我们称之为scaling law(规模化效应)的性质有关。简单来说,就是在AI模型里,可以通过不断地增加数据、增加模型大小来实现性能的持续提升。
张祥雨向记者解释道,此前很多人都认为scaling law快到头了,就是它存在一个“边际效应递减”的效应:即越增加数据,收益就越来越不明显,性价比就越低。但这两年,大家在NLP大模型上发现了一个非同寻常的现象——当这个模型的参数量、训练数据量到达千亿量级时,模型的高级思维能力突然出现了跨越式的增长,这个增长过去从来没有发现过。可能过去增加一点数据,模型性能就提升一点。但现在大概在千亿这个参数关口,大家发现数据和模型量稍微再增加一点,模型突然出现了原来不曾有的推理能力,还激发了一些之前我们认为人类才有的能力,比如思维链能力。当然它背后还有很多技术,像代码预训练等,共同推动了这种跨越式的发展。
张祥雨指出, “这件事是非常了不起,不仅仅可以带来很多产业上的用途,其影响力甚至可能超过了AI这个领域。对人们如何理解思维,揭示人类智能产生的起源也有非常大的启发价值”。
文/北京青年报记者 刘慎良
编辑/田野