根据不完全统计,2024年将有50多个国家、半个地球的人将面对政府改选。与此同时,随着AIGC技术最新一轮的大爆发,AI技术对互联网舆论生态的威胁也达到前所未有的高度。近些日子“冒牌拜登来电”、知名女星DeepFake照片等事件,都引发国际舆论的强烈担忧。
在整件事情变得愈发不可控之前,社交媒体平台脸书、Instagram和Threads决定做一些尝试,通过识别并标记平台上的AI内容,将社交媒体平台上的AI生成内容和真实生活区分开来。
来源:Meta Blog
识别、检测和标记
Meta表示,在未来几个月内,脸书、Instagram和Threads将尝试对上传到平台上的照片进行检测,并打上“AI标签”。
这件事情要分成两个层面来讲:“有据可循”的AIGC图片,以及杂乱无章的AI视频、音频内容。
首先,是标准比较清晰的图片领域。以Meta自家的AI“文生图”功能为例,通过这种途径生成的图片,不仅左下角会有看得见的水印,同时图片的元数据中也会被打上“看不见的水印”。
来源:Meta AI
Meta表示,正在开发能够批量识别这类水印的工具,特别是C2PA和IPTC技术标准——意味着当谷歌、OpenAI、微软、 Adobe、Midjourney、Shutterstock等公司按照计划在AIGC工具中加入元数据后,Meta就能在社交媒体平台上批量识别并标注出这些公司生成的AI图片。
当然,光靠几家巨头合作并不能解决所有问题,而且那些恶意使用AI的人,也有办法去除AI图片中的标记水印。
前英国副首相、Meta全球事务和通讯总裁尼克·克莱格补充称,Meta现在也在开发分类器,目的是自动检测那些由AI生成,但没有数据水印的图片。同时,Meta的AI实验室近些日子刚分享了一种名为“稳定签名”的数字水印技术,将水印机制直接集成到图像生成的步骤中,这对于许多开源模型来说会非常有价值。
那视频、音频怎么办?
Meta透露,与图片有“隐形水印”标准不同,AI生成的音频、视频缺乏这方面的共识,所以现在无法通过检测信号来打标签。
对此,Meta决定引入自主申报和处罚机制。除了让用户自主申报AI视频和音频外,Meta可能会对那些故意创作深度伪造(deepfake)内容且故意不报的用户进行处罚。
克莱格进一步表示,如果Meta认定某些AI创作或修改的图像、视频或音频内容,在重要问题上实质性欺骗公众的风险特别高,可能会酌情添加一个更醒目的标签。
即便对于“AI大闹大选年”心存顾虑,但克莱格依然认为这种情况在今年“席卷Meta平台”的可能性并不高。克莱格表示:“我们不可能很快看到完全由人工合成的、具有重大政治意义的视频或音频,我只是不认为会有这样的结果。”
克莱格同时提到,Meta内部已经在测试依照社区准则训练的大语言模型,并称这项技术提供了一种高效的“分流机制”,确保人工审核员看到的帖子,的确是需要人工判断的边缘案例。
编辑/范辉