打开APP
×
17:43
研究:训练数据含0.001%的错误信息足以“毒害”医学AI模型
《科创板日报》14日讯,纽约大学的一项研究揭示了大型语言模型(LLM)在医学信息训练中的潜在风险。研究表明,即使训练数据中仅含有0.001%的错误信息,也可能导致模型输出不准确的医学答案。
人工智能
阅读 54593
特别声明:文章内容仅供参考,不构成投资建议。投资者据此操作风险自担。
相关企业家
联系Ta
联系企业家
为保护双方个人信息请联系您的专属助理进行接洽
我再想想
点击复制
复制成功,请去微信添加