2024年将是全球史上最大规模的“大选年”——据统计,今年全球将有超过50个国家和地区上演选举大戏,各国的选举将覆盖全球近一半人口,预计将成为历史上选举最多、覆盖人口最广的一年。
然而,在人工智能技术火热的当下,人们越来越担心所谓的Deepfake图像和其他人工智能制作的内容可能在竞选期间误导选民。
面对这一问题,美东时间周一,OpenAI最新推出了一系列举措,以防止其产品被用于发布虚假信息,从而扰乱选举。
将识别图像是否为AI制作
目前,外界主要担忧OpenAI旗下的两款人工智能产品可能会被用于干扰选举——聊天机器人ChatGPT可以模仿人类写作,并产出令人信服的虚假信息;而图像生成工具DALL-E的技术可以用来制造“DeepFake”,即伪造的逼真图像。
OpenAI透露,他们将开始用出处信息对其DALL-E生成的图像进行编码。出处信息指的是关于一段内容的来源的数据,比如谁制作了图像,什么时候制作的。这可以帮助选民更好地了解他们在网上看到的图像是否由人工智能制作。
该过程将使用由内容来源和真实性联盟(C2PA)建立的加密标准。真实性联盟是由Adobe Inc.、微软、英特尔等几家公司于2021年共同创立的。
OpenAI还表示,它将发布一个图像检测工具,人们可以用它来查看图像是否由DALL-E生成。
该公司将首先向记者、平台和研究人员推出该工具,以获取使用反馈。从历史上看,许多试图确定特定图像或文字是否由人工智能创建的检测工具,一直在努力提高准确性。然而,OpenAI首席技术官米拉·穆拉蒂(Mira Murati)在去年10月份表示,该公司一直在开发的图像检测工具在内部测试中准确率达到99%。
ChatGPT将公布信息来源链接
而关于ChatGPT,OpenAI将使人们能够通过聊天机器人获得有关当前事件的实时信息,搜索结果将提供文章的归属和链接——这些功能目前在应用程序中还处于默认不显示的状态。
OpenAI表示,它正在“越来越多地整合现有的信息来源”。此前有报道称,OpenAI正在与数十家媒体公司就内容许可协议进行谈判,其中包括CNN、福克斯新闻等主要媒体。这家初创公司已经与阿克塞尔斯普林格公司和美联社达成了协议。
该公司在帖子中表示:“与图像一样,信息来源的透明度可以帮助选民更好地评估信息,并自己决定他们可以信任什么。”
“保护选举的公正性需要民主进程各个方面的合作,我们希望确保我们的技术不会被用于可能破坏这一进程的方式。”该公司周一在博客文章中写道。
编辑/范辉