差评 04月22日 01:17
不是我说,你可能真分不清楚AI图。
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章探讨了当前AI生成图像技术快速发展带来的挑战,特别是AI图片真假难辨的问题。随着AI技术的进步,区分AI生成的图片变得越来越困难,传统的检测工具也面临失效。文章分析了技术发展滞后的原因,并提出了通过标准制定和数字水印等方式解决问题的思路,强调了区分AI内容的重要性,以应对潜在的诈骗风险。

📸 AI生成图像技术突飞猛进,使得生成的图片越来越逼真,普通人难以分辨真伪。文章通过对比图片案例,突出了AI图片的逼真程度已经达到了让编辑部小伙伴都难以分辨的程度。

🧐 传统的AI检测工具面临挑战,准确率下降。文章指出,现有的AI检测工具在面对复杂的图像场景时,甚至会误将真实照片判定为AI生成,表明了检测技术的滞后性。

💡 技术滞后源于检测工具的架构和更新速度。文章分析了AI检测工具的原理,指出其主要依赖于数据集、卷积特征识别和分类,而这些技术更新速度无法跟上AI生成技术的快速发展。

🛡️ 解决之道:从源头入手,加强标识。文章提到了OpenAI和谷歌等公司正在尝试为AI生成内容添加数字水印,以及国家相关法规要求添加显式或隐式标识,旨在从源头解决AI内容真伪辨别问题。

⚠️ 警惕AI带来的潜在风险。文章强调了区分AI内容的重要性,因为AI技术的进步也可能被用于诈骗等犯罪活动,提醒人们保持警惕。

江江 2025-04-22 00:01 浙江

区分 AI 图片真的越来越难了。 下面这四张图,你看得出哪个是 AI 生成的吗?



现在,区分 AI 图片,真的越来越难了。


 给你几秒时间,下面这四张图,你看得出哪个是 AI 生成的吗?


先做题,不准下划偷看答案!


其实,这里只有左下角是真实照片。不知道你猜没猜对,反正编辑部的小伙伴们都觉得挺难的。


 而事实也是这样,AI 图片已经越来难辨真假,甚至很多 AI 检测工具都失灵了。


这么说吧,以前生成的那些图片,有些是漫画风,有些长着奇怪的四肢和五官,还有不合理的背景,总之漏洞百出,有时候还挺惊悚。


但前一阵子 GPT-4o 一升级,大模型的文生图能力直接超神了。比如,刚刚右上角的 “ 自拍照 ” 就是下面这些提示词生成的:


大模型甚至能理解提示词里的 “ 平庸 ”、“ 漫不经心 ”、“ 模糊 ”、“ 过曝 ” 等等抽象的要求,生成的图片就像我们生活里的随手一拍,一点违和感都没有。


具体这些模型是怎么做到让 AI 图以假乱真的,官方还没有开源他们的训练架构。


 不过在 OpenAI 官网上,我们找到了一些线索。


官方表示,他们在训练模型的时候, 可以让模型更好地理解语言和图像之间的关联。再加持神秘的 “ 后期训练 ”,能让生成的结果看起来很流畅。


所以,当我们给出一些抽象的词汇,比如 “ 漫不经心 ”,模型就能知道图像的角度应该有些歪、画面有些糊、表情应该自然等等,还能完美地展示出来。


 技术发展这么快,咱碳基生物是真没办法了。但更绝望的是,实验结果表示,这回硅基也分不清。


我们先试了试大模型的矛能不能攻破自己的盾。不出意外,原来那种一眼假的 AI 图片,它和我们一样,还能轻松分辨出来。但现在,同样一张图,丢给豆包和 GPT,它们都认为这是一张真实的自拍照。


豆包看不出这张图片是AI生成的


 除了用大模型测试,我们还找了两个推荐排名最靠前的免费 AI 图片检测器,结果它们各有各的拉垮。


我们测试了八张肉眼完全看不出破绽的 AI 人像图片。其中有四张它们意见达成了一致,只不过,是一致认为都是真实照片。。。


 还有四张,两个检测器的意见完全相反。刚才还以为他们互相抄作业,但这下我不怀疑了,因为这回错的题全都不一样。


总之就是对着干


这还只是比较简单的人像,画面集中在人的正脸上,背景也比较单一。


接下来一些复杂场景的测试就更惨不忍睹了,人多或者背景过于精细,甚至单纯的风景图片,都让检测器几乎全军覆没。如果说检测器面对 AI 自拍照还有一点怀疑,面对这些图片的时候它是真的信了。


认不出也就罢了,有一个检测器还出现了误伤,把一张真正的照片判定成了 AI 图片。


 有一说一,网恋人的天塌了,以后真分不清是照片还是照骗了。P 图可能会留下痕迹,但现在的 AI 生图真的让人怀疑,这不会是哪个网红明星要和我谈恋爱吧。


那为啥现在 AI 检测工具都不灵了?


在搜索的时候,我们发现,虽然文生图技术的发展像是坐上了火箭,但 AI 图像检测这么多年还在骑着卷积神经网络的自行车。


 由于大部分工具不会开放它们的源码,我们在 github 上找到了几个 AI 图片检测项目作为参考。


我们发现,这几个 AI 检测工具的架构都还停留在数据集 + 卷积特征识别 + 分类的阶段。


熟悉计算机视觉的差友,可能了解这一套沿用了 N 年的流程:先给数据集里的每张图片打上是或不是 AI 生成的标签,剩下的就交给神经网络去学习标签相应的图片特征,最后进行分类。


 AI 生图技术更新了一茬又一茬,这些工具做的不过就是把新 AI 图打上标签,加进老数据集,重新再训练一遍。甚至其中一个工具用的 CvT-13 模型,已经是 4 年前的老东西了。


可以说是魔高一尺,道高一寸,技术本身没更新,准确率当然上不去了。


CvT-13架构


虽然 AI 图片识别相关的学术研究也有一些,但研究速度,数量和受到的关注度都和大模型文生图没法比。


 不过,与其费时费力的后期区分,不如从源头解决问题。


比如各大 AI 公司共同倡导的 C2PA 组织,鼓励制定相关标准,来更方便地验证信息来源,避免 AI 内容泛滥。


其中,OpenAI 表示会尝试给生成的图片加上水印。谷歌也提出 synthID,可以把数字水印嵌入 AI 生成的文字、图片、视频、音频里。这种水印不会影响我们的观感,但可以被软件识别。


而且,在今年 3 月国家颁布的《 人工智能生成合成内容标识办法 》中明确表示,从 2025 年 9 月起,所有 AI 生成的内容都必须添加显式或隐式标识。


那我们为啥要一定区分 AI 图呢?分不清难道不是技术力 max,这不是好事吗?


 生图确实很厉害,不过凡事咱得看两面。因为在 AI 生图震惊全球的时候,利用 AI 进行诈骗犯罪的新闻还在频繁曝出。AI 越真,我们被骗的概率就越高。


毕竟,有些人想的肯定不是怎么用 AI 生成吉卜力风格的可爱图片,而是用最真实的图片来攻击大家最薄弱的点。


总的来说,现在靠我们自己已经很难分清 AI 图像的真假了。


不管是识别的工具,还是从源头给 AI 内容打标记,现在的技术都有些落后,但需求很紧迫。


这样看来,区分 AI 内容会是一场持久战。各大公司在搞生图技术,秀肌肉的时候,也该考虑一下 AI 识别技术的升级了。


撰文:莫莫莫甜甜

编辑:江江 & 面线

美编:萱萱


图片、资料来源:

https://sightengine.com/detect-ai-generated-images 

http://hivemoderation.com/ai-generated-content-detection 

https://openai.com/index/introducing-4o-image-generation/ https://www.bleepingcomputer.com/news/artificial-intelligence/openai-tests-watermarking-for-chatgpt-4o-image-generation-model/ https://deepmind.google/technologies/synthid/

https://www.gov.cn/zhengce/zhengceku/202503/content_7014286.htm

https://github.com/guyfloki/ai-image-detector https://github.com/mytechnotalent/deepfake-detector https://github.com/HassaniAtefe/ai-or-not 

https://m.okjike.com/originalPosts/67fb98097cb8c547e2ad23c5?s=eyJ1IjoiNTkzZjcwNDUwOWVkNmUwMDEyYjRiZmUwIiwiZCI6MX0%3D

豆包,GPT-4o,pexels




阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI图片 图像识别 AI技术 数字水印 内容安全
相关文章