随着巴以冲突的持续,相关新闻事件报道层出不穷,一些虚假内容也开始混入其中,让人真假难辨。最近,由AI生成、反映巴以冲突现场的图片出现在知名图片库 Adobe Stock 中,并被一些新闻媒体采用。
作为一家积极拥抱生成式人工智能的图片库,Adobe Stock从2022年开始允许供稿人上传和销售由AI 生成的图片,只是在上传时要标注“是否由 AI 生成”,成功上架后也会将该图片明确标记为“由 AI 生成”。除此要求外,提交准则与任何其他图像相同,包括禁止上传非法或侵权内容。但据澳大利亚网站Crikey报道,在Adobe Stock搜索与以色列、巴勒斯坦、加沙和哈马斯相关的关键词,会出现大量由AI生成的图片,例如搜索巴勒斯坦时显示的第一个结果标题就是“由人工智能生成的以色列和巴勒斯坦冲突”的图片。其他一些图片也显示了抗议、实地冲突,甚至是儿童逃离爆炸现场的画面,但所有这些也都是由AI生成。
图1:在 Adobe Stock 上搜索巴以冲突时会搜索到大量 AI 图像
令人担忧的是,这些图片已经出现在一些在线新闻媒体、博客,但没有将其标记为由人工智能生成,也尚不清楚这些媒体是否知道这些是虚假图片。
图2:一些媒体机构在报道巴以冲突新闻时已经使用图1左上角那张由AI生成的图片
事后,Adobe表示,所有生成式 AI 内容在提交许可时都必须贴上相应标签,但也强调,客户在购买使用时知道“这是一张由生成式 AI 工具创建的图片”同样重要。
识别图片真假是一项复杂性工作
专家一再警告称,人工智能将被用来在网上传播错误信息,随着越来越多看起来逼真的内容在互联网上发布和共享,解决这个问题变得越来越困难。
RMIT 高级讲师 TJ Thomson 博士正在研究人工智能生成图像的使用,他表示,人们担心人工智能图像使用的透明度以及受众是否有足够的文化知识能够对其进行识别。
根据一项被称为“内容真实性计划”的措施,包括Adobe、微软、BBC 和《纽约时报》在内的科技和新闻组织正在尝试实施内容凭证技术,该凭证使用文件元数据来突出显示图片的来源,无论这些图片是由真人拍摄还是AI生成。
然而,内容凭证尚未在实际环境中部署,需要社交网络、出版商、艺术家以及应用程序、浏览器和生成人工智能开发人员的合作才能按预期工作。
文章来源于互联网:AI生成巴以冲突虚假图片,以假乱真被媒体引用 | https://www.51cto.com/article/772962.html