财联社
财经通讯社
打开APP
AI浪潮下的大模型安全:2B和2C各有侧重点
Play
语音播报
00:00
/
00:00
00:00
在2024上海网络安全产业创新大会,专家们指出了2C和2B场景在安全方面的不同关注点——在2C场景中,用户体验和隐私保护是核心,而在2B场景中,商业机密和数据安全则更为关键。

《科创板日报》2月29日讯(记者 朱凌) 当前,以大语言模型为代表的AI技术应用正在渗透至千行百业,成为推动各行各业转型升级的新引擎。然而,随着这些技术的应用日益广泛,大模型的安全性问题也日益凸显。大模型之于网络安全行业,将带来哪些机遇?围绕大模型的安全问题,行业将给出何种解法?

《科创板日报》记者昨日来到2024上海网络安全产业创新大会,听到了来自中国信通院华东分院、蚂蚁集团、商汤、翼方健数、上海交通大学网络安全学院等产学研界专家对此的答案。

▌技术与安全的平衡

《科创板日报》记者注意到,在圆桌讨论中,专家们都强调了在利用大模型技术的同时,必须平衡其带来的便利与潜在的安全风险。

中国信通院华东分院院长廖运发提到,大模型的发展为网络安全带来了新的机遇,尤其是在内容安全、数据隐私保护、运行可靠性等方面。然而,大模型的安全性问题也不容忽视,包括基础设施安全、数据隐私泄露、运行稳定性等。

例如,大模型生成的内容可能涉及意识形态问题,需要进行网络备案和监管。此外,大模型的运行可靠性、稳定性和可解释性也是当前研究的重点。大模型在信息通信和安全领域的应用,需要重点关注基础设施的安全问题,以及数据隐私的保护。

上海交通大学网络安全学院教授王士林从学术角度分析了大模型与网络安全的关系,提出了大模型可能带来的新威胁,如内容安全问题、功能安全问题、数据安全和部署问题等。他从学术研究的角度,分析了AI和网络空间安全之间的关系。他强调,大模型的生成能力增强,使得内容安全监测变得复杂。他强调,大模型的生成能力增强,如何监测和评估生成内容的安全性,是当前研究的重点。

商汤集团信息安全委员会负责人吴友胜从安全从业者的角度,提出大模型在安全领域的积极影响,如大模型在提升安全自动化处理能力方面的积极作用。但在实际落地过程中,仍需面对数据规模、质量、标签化的要求,以及算力和算法的挑战。如黑客利用AI技术进行攻击的自动化等。

翼方健数技术总监孙维东总监则表示,大模型在数据安全和网络安全方面是新机遇和挑战并存。他强调了算力基础设施和模型安全防护的重要性,国产化硬件的投入将为大模型提供更可信和安全的基础设施。

▌2C与2B场景的安全差异

经过近一年半时间的发展,如今,大模型的话题,正从底层技术的研发走向如何更好的落地应用。在讨论大模型在不同场景下的应用时,本次会议中,专家们指出了2C和2B场景在安全方面的不同关注点——在2C场景中,用户体验和隐私保护是核心,而在2B场景中,商业机密和数据安全则更为关键。

廖运发强调了在2B场景中,需要特别关注标准适配问题,以及大模型本身可能引起的商业机密和客户数据利益问题。

王士林从用户角度提出了对大模型性能和实时性的要求,以及对内容安全的关注。大模型在2B场景中的应用需要确保没有漏洞和恶意后门,而在2C场景中,则需要关注用户隐私数据的合规处理。

吴友胜则从产品部署的角度,分析了2B和2C产品在安全职责、效率要求和用户关注点上的差异。他强调,大模型在2B端的部署通常是私有化的,这在一定程度上降低了安全风险。然而,大模型的二次开发过程可能会带来新的安全职责变化。

孙维东持同样观点,他从服务客户的过程中距离,B端用户在尝试使用大模型数据赋能时,首先关注的是安全问题,包括合规性和商业机密的保护。而C端用户,尤其是个人开发者和设计师,对知识产权的保护和平台的安全性有着迫切的需求。

在与会专家看来,大模型安全是一个多维度的问题,需要从技术、法规、标准等多个角度进行综合防控。在技术层面,需要开发更先进的监测和评估工具,以确保大模型的安全性。在法规和标准层面,需要制定相应的规范,指导大模型的安全开发和应用。未来,大模型安全将继续是网络安全领域的重要议题。

人工智能 网络安全
财联社声明:文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
商务合作
专栏
相关阅读
评论