财联社12月19日电,记者从上海交通大学获悉,该校科研人员近日在新一代光计算芯片领域取得突破,首次实现了支持大规模语义媒体生成模型的全光计算芯片。相关成果12月19日发表于《科学》杂志。据了解,随着深度神经网络和大规模生成模型迅猛演进带来超高算力和能耗需求,传统芯片架构的性能增长速度已出现严重缺口,光计算等新型架构受到广泛关注。 “所谓光计算,可以理解为,不是让电子在晶体管中运行,而是让光在芯片中传播,用光场的变化完成计算。光天然具备高速和并行的优势,因此被视为突破算力与能耗瓶颈的重要方向。”论文作者、上海交大集成电路学院助理教授陈一彤表示,把光计算真正用到生成式AI上并不简单,已有的全光计算芯片主要局限于小规模、分类任务,光电级联或复用又会严重削弱光计算速度。如何让下一代算力光芯片运行复杂生成模型,是全球智能计算领域公认的难题。 陈一彤课题组此次提出并实现了全光大规模语义生成芯片LightGen,采用极严格算力评价标准的实测表明:即便采用性能较滞后的输入设备,LightGen仍可取得相比顶尖数字芯片2个数量级的算力和能效提升。团队表示,LightGen之所以实现性能飞跃,在于其在单枚芯片上同时突破了“单片上百万级光学神经元集成”“全光维度转换”“不依赖真值的光学生成模型训练算法”三项关键瓶颈,使得面向大规模生成任务的全光端到端实现成为可能。 据介绍,LightGen可完整实现“输入—理解—语义操控—生成”的闭环,完成高分辨率(≥512×512)图像语义生成、3D生成(NeRF)、高清视频生成及语义调控,同时支持去噪、局部与全局特征迁移等多项大规模生成式任务。“LightGen为新一代光计算芯片助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式智能计算提供了新的研究方向。”陈一彤说。
财联社11月22日电,天津大学人工智能学院于强教授团队联合国际科研人员,在神经网络信息处理机制研究中取得重要突破。该研究聚焦于大脑神经网络的“基本零件”——突触,首次揭示了其处理时空信息的核心机制。相关成果于11月22日发表于国际著名学术期刊《美国科学院院刊》(PNAS)。
财联社11月16日电,记者获悉,华为将在11月21日发布AI领域的突破性技术,有望解决算力资源利用效率的难题。具体来看,华为即将发布AI领域的突破性技术,可将GPU(图形处理器)、NPU(神经网络处理器)等算力资源的利用率,从行业平均的30%至40%提升至70%,显著释放算力硬件潜能。据透露,华为即将发布AI领域的突破性技术,是通过软件创新实现英伟达、昇腾及其他三方算力的统一资源管理与利用,屏蔽算力硬件差异,为AI训练推理提供更高效的资源支撑。
财联社8月2日电,浙江大学脑机智能全国重点实验室8月2日发布新一代神经拟态类脑计算机—Darwin Monkey(以下简称“悟空”)。“悟空”支持的脉冲神经元规模超过20亿,神经突触超过千亿,其神经元数量已接近猕猴大脑规模,在典型运行状态下功耗约为2000瓦。这是国际上首台神经元规模超过20亿的基于专用神经拟态芯片的类脑计算机。人类大脑是一部极其高效的“计算机”。类脑计算是将生物神经网络的工作机理应用于计算机系统设计中,构建像大脑一样低功耗、高并行、高效率、智能化的计算系统。
财联社3月3日电,深圳市科技创新局印发《深圳市具身智能机器人技术创新与产业发展行动计划(2025-2027年)》,加大机器人AI芯片攻关。研究集神经网络处理器指令集架构、存算一体计算架构、异构多核架构、低功耗模式及算法工具链于一体的新型AI芯片架构。研发支持Chiplet集成扩展、具身智能VLA/VTLA端到端大模型和多模态大模型推理加速、认知推理类脑芯片、低延时驱动接口、多传感接口、低功耗的机器人AI芯片。研制机器人端侧计算芯片及模组,推进国产化替代。
财联社2月19日电,天眼查App显示,华为技术有限公司申请的“模型的训练方法、车辆的控制方法及相关装置”专利2月18日公布。摘要显示,一种模型的训练方法、车辆的控制方法及相关装置,可以应用于人工智能领域,方法包括:获取目标车辆的路况信息;根据路况信息,通过第一神经网络模型,得到目标信息,目标信息为目标车辆的行车意图预测、行驶路径的预测或者目标车辆和环境的交互行为预测;根据目标信息,通过专家系统或者专家系统对路况信息和路况信息对应的标签处理得到的结果,更新第一神经网络模型。本申请利用专家系统的输出来引导确定用于更新AI模型的梯度,相当于对AI模型进行了闭环训练,从而提高了AI模型的精度。
《科创板日报》5日讯,日本冲绳科学技术研究所认知神经机器人团队开发了一种具有新颖架构的具身智能模型。它允许科学家访问神经网络的各种内部状态,并且能够以与人类儿童相似的方式学习泛化,揭晓了神经网络中认知发展和信息处理的关键信息。该成果发表在新一期《科学·机器人学》杂志上。