①通过简短的文本描述,Sora可以生成1080P、720P、360P三种分辨率的视频,时长可达10秒; ②泄露者疑似部分参与Sora内测的艺术家,他们还发出了一封控诉信。
《科创板日报》9月29日讯(记者 李明明)近期,韩国曝出“Deepfake”(深度伪造技术)事件,被认为是采用新犯罪手段的“N号房”案件重现。随着AI在大模型等技术的带动下向深度应用方向迈进,AI带来的数据泄露、“AI换脸”等安全问题愈发严峻,相关的AI诈骗案件频发,正给社会带来巨大挑战。
早在AI安全问题引起广泛重视之前,瑞莱智慧就已深耕这一领域,聚焦人工智能安全和垂类大模型应用,通过构建大模型安全基座、AI伪造内容检测基座等,实现对AI大模型研发部署和应用治理环节全覆盖,建立了包括基础算法平台层、底层资源层、应用层的全方位AI安全体系。
作为清华系深耕中国人工智能领域的创业企业之一,瑞莱智慧由中国科学院院士、人工智能研究院名誉院长张钹和清华大学人工智能研究院副院长、计算机系教授朱军共同担任首席科学家,清华大学计算机系博士田天出任首席执行官,其也是瑞莱智慧的创始人。
在人工智能时代,如何守护我们的信息安全?《科创板日报》记者就此专访了田天,他表示,只有提供更加安全可控的AI才能够更快速地把AI赋能千行百业,特别是严肃场景(比如to B)。如果没有安全可控为前提,大模型就无法落地和应用,这是零和一的问题,有了安全可控,才有可能去实现应用。
提供安全可控的AI 将AI赋能千行百业
《科创板日报》:作为一家初创企业,为何选择AI安全领域入局?
田天:这个问题其实就是创立初衷。瑞莱智慧2018年成立,目标就是要去做更加安全可控的第三代人工智能的落地,让人工智能真正应用起来,能够发挥作用和价值。
在公司成立之前,我们团队也在清华大学里进行相关技术研究,并于2018年发现,尽管AI在很多场景、领域的发展已经很火热,但还不能迅速落地,因为还缺乏一个非常重要的环节,即AI的安全可控问题尚未解决,而只有提供更加安全可控的AI才能够更快速的把AI赋能千行百业,特别是严肃场景(比如to B)。
所以公司产品包括两大类。一类是安全本身,即给AI产品做安全增强,提供AI安全增强模块和完整的AI解决方案,帮助客户实现AI技术的应用与价值。特别是在这两年大模型安全需求越来越多之后,我们可以给客户提供更加安全可控的大模型整体行业落地解决方案。
另一方面是利用AI去提升生产力,即相关领域的AI落地、提升和改善其工作效率等。其实从成立伊始公司就在做这些工作,比如一直在做的金融领域、政府和社会治理相关行业、工业制造领域等。
《科创板日报》:相比已经深耕数年的同行们,比如奇安信、启明星辰、绿盟科技、安恒信息等,瑞莱智慧有何竞争优势?
田天:传统网安公司不太可能提供一个很强大的AI系统并解决AI安全问题。本质上真正的AI公司是关注如何构建一个更加可控、更加安全的AI系统,其和互联网安全、数据安全是完全不同的领域。
随着人工智能技术的发展,越来越多的企业开始关注AI安全,并试图将AI技术应用于网络安全领域。一方面,网安企业通过引入AI技术来增强自身的竞争力;另一方面,专门从事人工智能开发的公司也在积极探索AI安全。在这一过程中,拥有强大AI能力和专业知识的团队成为竞争的关键。
在AI安全可控领域市场方面,我们还是较为领先的,并占了绝大多数份额。目前,客户构成方面包括几百家的大型企业(包括央国企互联网公司)、政府客户、金融机构等。
随着AIGC技术发展,将来AI合成假内容的比例会越来越高
《科创板日报》:在产品开发中,你和团队遇到比较大的困难是什么?如何去解决困难?
田天:困难还是在于AI安全可控领域发展的太快,并充斥着大量的技术迭代。目前主要面临两个问题。一方面,我们研发一个能力更强的AI安全系统,需要进行持续的投入,特别是在大模型日新月异的时代,如何跟上模型能力发展,并处于AI大模型安全行业的最前沿,这是一个难点;
另外一方面,最新的AI技术也会带来很多更高层次的安全问题。此前,AI还比较弱,或者应用范围还比较窄的时候,其安全问题不太严重。而随着AI能力越来越强,应用越来越广,其引起的安全问题类型也会越来越多,同时造成的风险隐患也会越来越大。因此,我们也要持续投入关注和研发。
此外,对于AI恶意应用,我们一直在持续跟进,会去做相关情报搜集,并在支持客户的过程中积累了很多经验。甚至还会预演一下,比如模拟黑客,并先于实际黑客之前掌握攻击方式,以便更早的做好防御准备。
《科创板日报》:Sora等文生视频的出现给AI视频检测带来了更大的不确定性,带出了“真的假视频”(AI生成视频),“假的假视频”(真人摆拍冒充Sora生成视频)等现象,具体应该如何防范?
田天:AI合成视频挑战了人们之前眼见为实的常识,而且随着AIGC技术发展,将来AI合成假内容的比例会越来越高,覆盖面也会越来越广。甚至很快在互联网上的信息中,AI合成的假内容可能比真实产生的还要多,这也是未来的趋势,所以这个问题首先很严重。
对此,需要从技术和用户两方面共同努力:一方面,AIGC技术和产品的供应商要去加强治理。通过技术手段如内容水印和平台标识来标明信息的真实性;另一方面,提升用户的辨识能力,使他们能够自主判断所见信息的真实性。比如,我们面向个人用户的AIGC实时检测产品RealBelieve,能帮助用户鉴别通话或网络视频中的人脸真伪,也可在用户浏览网页内容时提供AI合成可能性提示。
《科创板日报》:当前大模型在哪些场景下更容易发挥作用,并面临什么挑战?
田天:大模型最适合的是内容生产与创新类场景,但对于严肃场景(如生产力提升或决策分析)由于可控性不足而不受欢迎。由于模型频繁出现错误或不可靠的结果,导致它们无法被放心地融入到工作流程中去进行自动化操作。
我认为未来AI特别是大模型最终会在各个行业中实现落地应用,虽然目前AI落地仍存在许多问题,但这是一个大趋势。然而,尽管现阶段非常热门,但大模型在实际业务场景中使用的案例相对较少。例如,在媒体行业中,实际应用的案例并不多见。
因此,公司正致力于实现更安全可控的大模型系统,使其能在不同行业中真正落地并有效使用,并已在政府、央企等多个标杆项目中取得成果。
《科创板日报》: 安全可控的大模型能否应对一些特殊或敏感问题,例如涉及政治、法律合规、伦理等领域?
田天:我们的模型通过设计和开发,能够有效应对有意破坏或提出超常规交互的人。我们致力于在限定制度范围内工作,保证模型的安全可控。
此外,超级智能安全将是未来的关键问题,这在国内外均处于起步阶段,公司已在该领域投入更多资源,紧跟技术进展。同时,随着人工智能升级,安全威胁增大,公司也将持续提高安全领域的投入比例。
目前产品已助力金融、政务、自动驾驶等领域
《科创板日报》:中国银行行长李礼辉表示,从金融领域来看,现在主要的问题是AI算法和模型仍然不够清晰和透明,有待解决技术方面的缺陷。如果把不太成熟的人工智能技术投入到高风险的金融领域,可能会放大现有风险,并产生新的风险。您怎么看?
田天:对此,我是很赞同的。如果说我们对现有的AI系统风险没有足够的认识,就贸然将其用在一些相对敏感严肃的场景,很有可能会造成比较严重的后果。所以我建议相应的AI系统必须足够安全,或者对其安全能力有足够认识,再去应用到适合的场景里,以避免放大现有风险或产生新的风险。
《科创板日报》:能否介绍一些具体的金融安全方面的案例?
田天:当下大家会通过手机银行或者一些线上的方式刷脸,以便去验证身份。但由于现在AIGC能力很强,网上相关方可以合成一个人脸,使其做张嘴、眨眼、摇头等动作,然后通过高清屏或者直接注入的方式,欺骗身份核验系统,这也带来了很大的风险。我们的其中一款产品人脸AI安全防火墙RealGuard,能够有效检测这种AI合成的人脸,作为现有系统的补充。
目前银行客户群体涵盖了诸多头部银行,如邮储、交行等。由于涉及客户隐私,我们无法透露具体的减小了多少安全概率的数据。但可以根据实际效果来说,产品确实帮助客户防御了大量的攻击。
《科创板日报》:除了金融领域,公司在大模型应用上有哪些典型案例及主要聚焦点?与其他专注政务、金融等领域的同行相比,贵公司在大模型应用上的独特之处在哪里?
田天:公司在政务领域有众多成功案例,例如去年为北京市政府打造了政策大模型并在相关比赛中获得第一名。此外,还在工程管理、工业生产、金融等领域开展深度探索,但大模型主要是作为现有工作流的改造升级和辅助改善工具,而非完全替代人类劳动力。公司的独特之处在于提供的能力更加安全可控,这对许多领域的从业者来说是不具备的,同时注重提升行业原有工作流程中基于AI的新能力和应用场景。例如,在政策比较中,利用大模型可高效准确地对比不同地区政策间的异同,这是传统方式难以实现的。
此外,我们还专注于研发自动驾驶领域的对抗攻防技术,并已成功开发出相应产品。并在多家车企和自动驾驶公司的研发阶段进行了应用,并取得了一定的成功率,能有效防止商用系统在实际运行中遭遇重大故障。
值得一提的是,如果没有安全可控为前提,大模型就完全无法落地,从而无法应用,这是零和一的问题,有了安全可控,才有可能实现大模型的应用。