①独立出版商向欧盟和英国监管机构申诉谷歌“AI概览”功能,称其对竞争造成无法弥补的损害; ②出版商指控谷歌滥用市场主导地位,使用其内容生成AI概览,导致流量、读者数量和收入减少。
《科创板日报》7月4日讯(记者 张洋洋)今日,一则“DeepSeek就不实信息向王一博道歉”的声明在社交媒体上流传,头部AI平台与顶流男明星的“纠葛”,很快就引来广泛关注。
《科创板日报》记者查阅DeepSeek的全部官方渠道(微信公众号、小红书、X)后发现,该“道歉声明”并不存在。相关言论实际是王一博的粉丝用DeepSeek生成了几份所谓的“DeepSeek官方道歉与整改声明”,而后经二次传播,引发舆情,本质是一次“乌龙事件”。
截至发稿,DeepSeek公司未对此事作出正面回应。
尽管并无真实声明发布,但该事件迅速发酵,成为AI幻觉风险对舆论误导的又一典型案例。实际上,这类“AI生成+名人+社会热点”的复合型事件,已成为生成式AI技术落地应用过程中的高风险问题。
在接受《科创板日报》记者采访时,绘话智能CEO贾学锋表示,当前AI技术仍存在系统性缺陷:
一是大模型幻觉仍是系统性问题,当前大模型靠“语言统计规律”生成内容,所以它可能会把无关的人物“凑在一起”,说得“头头是道”;
二是缺乏足够的风险控制机制,特别是在生成涉及公众人物内容时,没有设置足够的“事实核验”和“风险词屏蔽”;
三是缺少对内容使用场景的风险预判能力,不是所有“胡说八道”都无害,一旦和热点人物挂钩,就有巨大负面影响。
“公众普遍误以为AI在查事实,但其实它只是在造句子。”贾学锋表示,用户倾向于相信使用自然语言、貌似中立、贴合情绪预期的内容,而大模型正好击中了这三点。加之AI常使用“郑重声明”、“深表歉意”等官方化措辞,并夹杂真实机构、人名和日期等信息碎片,极易造成“身份误导”,让用户将虚构内容误认为权威发声。
DeepSeek声明事件是典型案例。多条平台热帖中出现的“声明”措辞高度符合公众对“企业回应”的心理预期,再加上近期多起涉AI与公众人物争议事件堆叠,最终加速了虚假内容的广泛传播。
贾学锋坦言,在技术层面,目前仍难以彻底解决AI幻觉问题,这本质上是生成式AI的底层机制所决定的。而用户转发这些内容时,常常不带上下文和免责声明,企业难以控制内容二次传播。
贾学锋表示,对于如何降低AI幻觉,行业正朝两个方向推进,一是检索增强生成(RAG),通过将模型生成和外部知识库检索结合,避免模型“想当然”地造句,而是引用真实资料;二是事实一致性对齐技术,自动检测AI生成内容是否与已知事实发生矛盾,并予以干预。
此外,在模型训练阶段引入“不能胡说八道”的风险规则,也是一种有效的前置管控方式。贾学锋判断,未来这一方向有望产生新的底层算法突破。
“AI技术的社会影响力已远超其早期设计时的预期,我们不能再用实验室的方式去看待它。”贾学锋强调,这需要技术、产品设计、用户、监管等多方面进行升级治理。同时,也要注意在内容安全和用户体验之间做权衡,一刀切会牺牲AI的创造力和商业价值。
本次DeepSeek“道歉”事件,也为整个AI行业敲响了警钟。随着生成式AI逐步融入传播、舆论乃至决策链条,企业与监管的治理能力亟需与技术发展速度匹配。否则,下一个被误导的,可能不仅是公众,也可能是整个市场。