近日,随着一年一度的高考,关于高考语文的话题热度不断。今年,不少人工大模型也参与了起来,做到秒写作文,“ChatGPT写全国高考作文”“ChatGPT写的高考作文你打多少分”等话题也引起网民热议。人工智能发展到今天,已经具备深度学习能力,也可以帮助人类“创造”大量多模态信息。但是,我们也应当看到,人工智能的反面,包括深度造假、毫无灵性、法律边界模糊等问题亟待解决。
正确答案的制造者vs无灵性的机械画手
今年考场外多了一个“AI”考生,不少网友用各路大模型创作高考作文,再晒到网上进行比较。人们发现ChatGPT作文内容似乎如何延展都有某种呆板的套路。北京师范大学教授于丹6月8日在直播间便收到一份ChatGPT写作的高考作文,而她的评价是“答案绝对正确,但毫无灵性和才情”。
对于几百字的高考作文来说,ChatGPT可以在几秒钟内创作出数篇符合题目的作文,但是这些作文依然无法被读者和教授点赞为满分作文。
而在艺术领域,AI更也显示出“能力有余而灵性不足”的问题。2022年8月,Jason Allen凭借AI绘画作品《太空歌剧院》获得了美国科罗拉多州博览会艺术比赛的金奖,北青报记者在网络以“AI作画”为关键词搜索,诸多AI大模型创作的作品以及广告层出不穷。但是有分析认为,AI作画的核心也是深度学习,它依托的并非人类的灵感、艺术品味、感性,而是数学模型、神经网络模型。冰冷的程序堆叠出艺术呈现方式,再逼真也是缺少灵性的。
深度学习能力vs深度造假能力
ChatGPT于2022年11月上线,仅用半年左右时间就已迭代至GPT-3。GPT-3基于深度学习技术,具有强大的语言生成和理解能力,它可以对人类对话,还可以深度学习从而不断修正答案。正是因为其先进的自然语言处理能力给人的惊喜感,23年的上半年ChatGPT不可谓不火,每个人每个行业都想要“蹭”一波热点,看看ChatGPT到底有多神奇。
这种“神奇”其实就是AI与人更加相近,如果从前的人工智能还是“鱼”复制“鱼”的过程,那现在的AI已经有了“渔”的能力。深度学习能力可是个“技术活”,从机器人写作到AI合成主播的不断进步中可见一斑。2021年,有公司发布全球首个AI手语主播,2022年央视新闻的AI手语主播在冬奥会全程进行手语直播,2023年北京青年报半两财经通过“小两i播报”对中关村论坛进行新闻报道,可以定制主播语音和形象……这种呈现涉及到的语音合成、脸型动作、姿态调整、形象变化都是以深度学习能力为基础的。
AI在学习能力方面提升的同时,也在改变着人们的“眼见为实”。深度伪造一词也不断被学者提及,它是深度学习和伪造的组合,我们日常所见大多是AI换脸。19年8月30日,一款名为ZAO的软件一上线便刷屏网络,靠着能与明星换脸的噱头频繁登上热榜,随之而来的也有海量质疑:版权问题、侵犯肖像权、伦理道德问题……9月4日,工信部网络安全管理局便对孵化ZAO的公司陌陌进行了约谈,要求其自查整改。
时间推移至今,AI换脸已经被“玩坏”,甚至催生出一种新型骗术,5月22日,包头警方发布一例AI诈骗案件,受害人接到好友视频电话,十分钟内便向对方汇款430万元。AI的争论从未停止,巨大的社会风险往往暗藏于技术的进步。
不过2023年1月10日,《互联网信息服务深度合成管理规定》正式施行,这一规定对AI换脸这项技术的人脸合成、姿态操控、语音转换等做出明确约束,这也为安全控制深度伪造创造了法律底气。
对AI的称赞vs对AI的防范
放眼法律行业,AI已经能够代替许多人工工作,例如简单的法律问答、现有法律的检索、文书撰写,AI都展示出不凡的能力,甚至进一步改变了律师等从业人员的工作方式。尽管AI作为服务助手能够为人们生活和工作增添许多活力和助益,但AI也成了被法律重点监管的对象,自21年起,我国对AI的监管开始持续加力, ChatGPT、AI换脸等都将受到法律的严格管制。
上文提到的《深度合成规定》就是基于《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《互联网信息服务管理办法》等上位法针对深度合成技术提供互联网信息服务而制定的部门规章文件。2022年3月发布实施的《互联网信息服务算法推荐管理规定》也规避了ChatGPT类似产品在国内上线的相关风险。对于音视频合成、图像合成诈骗,可以依据《网络直播营销管理办法(试行)》《网络音视频信息服务管理规定》等法规进行抵制和防控。
那么未来对于AI大模型该如何管理?华东政法大学马长山教授提出,在法律与人工智能领域有两种进路。一种是AI法律,它基于知识系统、理性思辨和法律逻辑,将人工智能视为法律的规制对象或者法律规制的方式。第二种是法律AI,与 AI 法律不同,法律 AI 则基于数字系统、建模计算和数理逻辑,将人工智能视为法律演进的途径和归宿。
在今年五月的一次访谈中,ChatGPT之父,OpenAI联合创始人兼首席执行官Sam Altman提到,可以建立一个类似于国际原子能机构的AI监管机构,每个人都能参与到对AI训练系统的全球监管机构中。6月6日,Sam Altman再次表示,“应确保我们能团结在一起,成立一个全球性的组织,这个组织能够在AI监管方面发挥真正的作用。”
“人工智能安全中心”于今年5月30日发布一封联名公开信,只有22个单词:“减轻人工智能带来的灭绝风险,应该与大流行病和核战争等其他社会规模的风险级别一样,成为一个全球性的优先事项。”目前已超过350位顶牛签署,其中就包括Sam Altman,以及谷歌DeepMind首席执行官Demis Hassabis、图灵奖获得者、被誉为人工智能“教父”的Geoffrey Hinton和Yoshua Bengio、清华大学智能产业研究院(AIR)院长张亚勤和中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅等人。
“目前,我国人工智能领域的安全标准主要集中在应用安全领域,比如,我们在人脸识别、智能驾驶安全等领域已经存在相应的标准,但缺乏人工智能自身安全或基础共性的安全标准。”同济大学法学院副教授陈吉栋也曾做提醒,“鉴于此,我国应积极参与国际标准化工作。”
【版权声明】本文著作权(含信息网络传播权)归属北京青年报社所有,未经授权不得转载
文/北京青年报记者 温婧
编辑/田野