财联社
财经通讯社
打开APP
K时评:以讹传讹 DeepSeek向王一博道歉或为“乌龙事件”
①DeepSeek“道歉声明”系AI幻觉误导,网友生成内容引发“乌龙”事件,暴露生成式AI的风险隐患;
                ②在技术层面,目前仍难以彻底解决AI幻觉问题,这本质上是生成式AI的底层机制所决定的,行业人士认为,需要技术、产品设计、用户、监管等多方面进行升级治理。

《科创板日报》7月4日讯(记者 张洋洋)今日,一则“DeepSeek就不实信息向王一博道歉”的声明在社交媒体上流传,头部AI平台与顶流男明星的“纠葛”,很快就引来广泛关注。

《科创板日报》记者查阅DeepSeek的全部官方渠道(微信公众号、小红书、X)后发现,该“道歉声明”并不存在。相关言论实际是王一博的粉丝用DeepSeek生成了几份所谓的“DeepSeek官方道歉与整改声明”,而后经二次传播,引发舆情,本质是一次“乌龙事件”。

截至发稿,DeepSeek公司未对此事作出正面回应。

尽管并无真实声明发布,但该事件迅速发酵,成为AI幻觉风险对舆论误导的又一典型案例。实际上,这类“AI生成+名人+社会热点”的复合型事件,已成为生成式AI技术落地应用过程中的高风险问题。

在接受《科创板日报》记者采访时,绘话智能CEO贾学锋表示,当前AI技术仍存在系统性缺陷:

一是大模型幻觉仍是系统性问题,当前大模型靠“语言统计规律”生成内容,所以它可能会把无关的人物“凑在一起”,说得“头头是道”;

二是缺乏足够的风险控制机制,特别是在生成涉及公众人物内容时,没有设置足够的“事实核验”和“风险词屏蔽”;

三是缺少对内容使用场景的风险预判能力,不是所有“胡说八道”都无害,一旦和热点人物挂钩,就有巨大负面影响。

“公众普遍误以为AI在查事实,但其实它只是在造句子。”贾学锋表示,用户倾向于相信使用自然语言、貌似中立、贴合情绪预期的内容,而大模型正好击中了这三点。加之AI常使用“郑重声明”、“深表歉意”等官方化措辞,并夹杂真实机构、人名和日期等信息碎片,极易造成“身份误导”,让用户将虚构内容误认为权威发声。

DeepSeek声明事件是典型案例。多条平台热帖中出现的“声明”措辞高度符合公众对“企业回应”的心理预期,再加上近期多起涉AI与公众人物争议事件堆叠,最终加速了虚假内容的广泛传播。

贾学锋坦言,在技术层面,目前仍难以彻底解决AI幻觉问题,这本质上是生成式AI的底层机制所决定的。而用户转发这些内容时,常常不带上下文和免责声明,企业难以控制内容二次传播。

贾学锋表示,对于如何降低AI幻觉,行业正朝两个方向推进,一是检索增强生成(RAG),通过将模型生成和外部知识库检索结合,避免模型“想当然”地造句,而是引用真实资料;二是事实一致性对齐技术,自动检测AI生成内容是否与已知事实发生矛盾,并予以干预。

此外,在模型训练阶段引入“不能胡说八道”的风险规则,也是一种有效的前置管控方式。贾学锋判断,未来这一方向有望产生新的底层算法突破。

“AI技术的社会影响力已远超其早期设计时的预期,我们不能再用实验室的方式去看待它。”贾学锋强调,这需要技术、产品设计、用户、监管等多方面进行升级治理。同时,也要注意在内容安全和用户体验之间做权衡,一刀切会牺牲AI的创造力和商业价值。

本次DeepSeek“道歉”事件,也为整个AI行业敲响了警钟。随着生成式AI逐步融入传播、舆论乃至决策链条,企业与监管的治理能力亟需与技术发展速度匹配。否则,下一个被误导的,可能不仅是公众,也可能是整个市场。

K时评 人工智能
财联社声明:文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
商务合作
热门解锁
相关阅读
评论
发送