①人工智能初创公司Anthropic推出了Claude 4大模型,分为Claude Opus 4和Claude Sonnet 4两个版本,可连续工作7小时; ②Claude Opus 4被誉为“世界上最好的编码模型”,可能改变人们使用AI的方式,从单一任务到设定更广泛目标。
《科创板日报》5月22日讯(记者 李明明 黄心怡)热门AI应用再卷入隐私安全风暴。
国家网络与信息安全信息通报中心近日发布通告,经公安部计算机信息系统安全产品质量监督检验中心检测,在应用宝平台中发现35款移动应用存在违法违规收集使用个人信息的情况,其中涉及了智谱清言、Kimi等热门AI应用。
通告共罗列了11种违规情况,检测时间为2025年4月16日至5月15日。涉及到智谱清言(版本2.9.6),主要违规原因为“实际收集的个人信息超出用户授权范围”。另一款被通报的AI应用Kimi(版本 2.0.8)则是因“实际收集的个人信息与业务功能没有直接关联”。
此外,AI应用Wow(版本 1.16.5)、猫箱(版本 1.57.0)也在通报名单中。其中,Wow是美团首个AI交互产品,由美团关联公司全资控股的上海三快省心购科技有限公司开发。猫箱则是字节跳动旗下社交陪伴类AI产品,同类产品在海外试验成功后被字节带回国内。
经过一段时间的爆发式发展,AI应用的隐私安全问题开始受到更多关注。尽管手机应用超范围收集用户的现象并不鲜见,并非AI应用所特有,但AI应用有别传统应用的技术特性、商业生态以及发展阶段,可能让AI应用面临更严峻的数据安全问题和用户隐私风险。
AI应用屡陷隐私安全风波
智谱清言、Kimi分别为大模型“六小虎”智谱、月之暗面开发的生成式AI助手。据第三方检测平台,2025年4月,Kimi的月活跃用户数为2499万,位居国内AI产品的第5位,智谱清言的月活跃用户数为906万,居第7位。
对于上述通报的违规情况,《科创板日报》记者向智谱清言、Kimi询问,截至发稿,两家企业均未回应。
2021年,国家网信办、工信部、公安部、市场监管总局四部门联合印发了《常见类型移动互联网应用程序必要个人信息范围规定》(以下简称《规定》),明确了39种常见类型App的必要个人信息范围。其中,网络直播类、在线影音类、实用工具类、短视频类、应用商店类等13类App无须个人信息,即可使用基本功能服务;而即时通信类、网络社区类、本地生活类等App的必要个人信息主要为移动电话号码等;地图导航类、网络约车类则涉及到出发地、到达地、位置信息等必要个人信息。
《规定》明确,为保障App基本功能服务的正常运行可以收集必要个人信息,但不得因为用户不同意提供非必要个人信息而拒绝用户使用。
汇业律师事务所史宇航律师表示,超范围收集用户信息的问题在应用程序中并不鲜见,甚至可以说是“很常见”,“APP一般都是什么数据都想要,多多益善。权限主要包括电话号码、陀螺仪、位置,如果与业务关系不大,就容易超范围收集。”
他表示,通常情况下,移动应用因违规收集使用个人信息被监管部门通报后,如若拒不整改,或将面临应用下架的处罚措施。
而AI类应用对数据的需求,因其技术特性与传统应用有所不同,开发企业对扩大数据收集范围有更强的原动力,由此更容易催生隐私安全问题。
除了本次网信办通报中的AI应用数据收集问题外,此前热门AI应用就已经引发过一轮新技术带来的隐私安全忧虑。
腾讯元宝在今年3月因《用户协议》中的条款陷入用户隐私争议。有用户发现,元宝的《用户协议》规定用户上传内容及生成内容,腾讯可获广泛、无边界的许可使用权,包括模型优化等,由此引发了用户对使用过程中输入及生成的内容被随意使用的担忧。
字节跳动旗下AI产品豆包在去年末也曾因身份安全漏洞引发公众担忧。事件最初由一名网友在社交平台发帖曝光,称陌生人通过豆包输入其姓名和学校后,精准搜出了其微信号。此外,豆包AI还能展示其专业、考研成绩、班级活动等较为详细的个人信息。
北京计算机学会AI专委会秘书长、北大人工智能博士张有鱼告诉《科创板日报》记者,AI应用成违规重灾区,核心驱动为模型对海量数据的“饥渴”,但这非唯一原因。“‘敏捷开发’文化下,企业抢占市场,常将功能置于合规之前,忽视隐私保护。部分商业模式也依赖数据变现,诱导过度索取。加之AI技术复杂,用户难明数据用途,企业也可能利用此信息不对称。同时,针对AI新特性的监管法规尚在完善,也给违规行为留下空间。”
元宝和豆包都在风波之后采取了整改措施。腾讯元宝方面表示,称在最新版本中增加数据管理功能和体验优化开关,并默认关闭,用户可自主选择是否授权;同时明确用户输入输出内容权利归用户,以此保障用户隐私安全。豆包方面则表示,已对询问个人信息类提示词进行优化,保证即使网上有公开信息的情况下,仍然限制相关信息的露出,做好个人隐私信息的保护。
狂奔的AI与滞后的规则
可以看到,AI2.0时代中技术颠覆带来的公众情绪,已经逐步从惊奇转变为审慎,尤其是正在试图通过AIGC技术实现商业化增长的互联网巨头们,受到了来自公众和监管更严格的审视和规范。
而诸如这次被有关部门通报的大模型初创企业或新一代AI应用产品,则可能在资本催熟、自身造血紧迫性以及用户基础的相对匮乏的三重压力下,在公众视线聚焦更少的角落,采取更激进的数据策略以换取竞争优势,引发更严峻的合规隐忧。
AI应用当前存在的隐私风险,核心矛盾在于应用开发企业对数据价值挖掘以及用户隐私保护之间的天然冲突。而对于实现数据利用与隐私保护之间的平衡,除了企业本身对“数据贪婪”保持克制,也需要一套系统化的机制加以监管。
张有鱼对《科创板日报》记者表示,从企业的层面,首要是确立“负责任的AI”战略,将隐私保护融入顶层设计(Privacy by Design),坚持数据最小化、目的限定和透明可控原则,赋予用户实质选择权。内部治理上,需明确责任,加强审计与培训。
“差分隐私等技术,通过对数据添加‘噪音’来保护个体信息,允许在统计层面利用数据,确实能在一定程度上缓解矛盾。但其面临隐私保护强度与数据效用性的权衡,且无法解决源头上的超范围收集或改变‘数据贪婪’的动机。它更多是‘术’层面的补充,而非根本之道。真正的平衡,依赖于企业伦理、健全法治、用户赋权与技术善用的有机结合,形成法律、组织、技术(LOT)的综合治理框架。”
从监管层面而言,除了存在规则制定滞后于新技术发展的常见问题外,在当前全球范围内掀起AI技术高地争夺的大背景下,实现规范技术发展与保持技术创新活力之间平衡,也成为制度设计者面临的挑战。
从全球范围来看,欧洲在AI2.0时代的隐私安全保持了惯有的审慎。就在5月19日,意大利数据保护机构GPDP对外表示,基于欧盟于2018年实施的《通用数据保护条例》,GPDP隐私保护专员已对注册于美国的聊天机器人“Replika”处以500 万欧元罚款。与此同时,GPDP还启动了独立的平行调查,以核实“Replika”在人工智能服务中所进行的个人数据处理是否合规。
国内方面,《个人信息保护法》中的相关条款亦对企业侵犯个人信息行为做出了明确的惩罚规定,包括最高5000万元或上一年度营业额5%以下罚款等较为严厉的处罚措施。
但北京大成律师事务所合伙人孙荣达律师《科创板日报》记者表示,相关处罚措施在实践中存在不足,以及有效民事责任追究机制的缺乏,可能导致企业因违法成本不高而在侵犯个人信息问题上屡犯不止。
“综合来看,当前企业违法收集个人信息的成本过低,与违法行为获得的巨大经济收益不成比例。要解决这一问题,需要从多方面入手:一是加强《个人信息保护法》的实际执行力度,明确情节严重的认定标准,使高额罚款切实可行;二是在立法或司法解释层面引入惩罚性赔偿机制,建立科学的赔偿计算标准和最低赔偿额;三是进一步完善公益诉讼和代表人诉讼制度,降低集体维权门槛;四是强化各级网信部门的监管执法能力,提高执法专业化水平,使违法企业承担实质性的法律后果。”孙荣达表示。
本次AI应用违规通报,无疑进一步显露了AI技术需求与隐私保护之间的深层矛盾。技术饥渴、资本催生的“先采集后合规”模式与传统监管框架滞后的三重困境叠加,可能将持续加剧AI2.0时代的数据滥用风险。“解决这一问题,需要监管探索适应AI特性的动态化、穿透式监管新范式,从‘亡羊补牢’转向‘未雨绸缪’;更需要AI企业的战略远见和责任担当,将合规内化为核心竞争力,而非仅仅是外部约束。”张有鱼在采访最后总结。