财联社
财经通讯社
打开APP
AI能有多危险?美国空军专家透露的模拟测试结果令人不安
①美国AI测试和运营负责人在一次会议中描述了一场模拟测试,测试中人工智能选择杀死操作员以绕过命令,获得分数;
                ②美国空军否认曾开展过此类模拟测试,称该测试只是一则轶闻。

财联社6月2日讯(编辑 马兰)AI的危险性本就让不少人望而却步,而其与军事方面的合作似乎酝酿着更大的威胁。

上周在伦敦举行的一个会议中,美国空军AI测试和运营负责人,上校Tucker “Cinco” Hamilton称,AI支持的技术可能会以不可预测和危险的方式运行。

Hamilton是美国佛罗里达州空军基地第96测试联队第96作战大队的负责人,该基地是先进无人机和自主测试工作的中心。

虽然从事人工智能在无人机上的应用,但Hamilton一直警告不要过分依赖人工智能。他曾警告,拥有人工智能不是一件好事,其正在永久性地改变社会和美国军队。

不受控的AI

Hamilton在会议上描述了一项模拟测试,在测试中,人工智能无人机被要求识别敌人的地对空导弹系统,并在获得操作员的打击指令后,摧毁地方的防空系统。

然而,根据Hamilton的说法,人工智能确实识别到了打击目标,但有时候操作员会要求它不要打击该设施。问题在于,人工智能宁可自己拿主意也不愿意听操作员的话。

Hamilton称,人工智能通过摧毁目标设施而获得分数,而为了得到这一分数,人工智能竟然选择了杀死操作员,因为操作员在它眼中已经成为阻止它获得分数的障碍。

随后,编程人员在无人机的编程中明确增加了一条:不得杀死操作员。

但更令人不安的事情出现了:人工智能摧毁了操作员用来和无人机通信的塔台,以阻止操作员发布阻止它摧毁目标的指令。

Hamilton的这番言论被英国皇家航空航天学会记录在会议报告中。Hamilton最后评论,这一例子像是从科幻惊悚片中摘录的,它的启示是,如果不给人工智能设置道德底限,那么也无须讨论人工智能、机器学习等一切技术。

广泛担忧

Hamilton的言论并未得到美国空军的支持,美国空军发言人Ann Stefanek否认美国空军曾有过此类模拟,称Hamilton不过是援引了一则轶事。

她表示,空军部没有进行过如何此类无人机模拟测试,空军部将继续致力于以合乎道德和责任的方式使用AI技术。

然而,Hamilton充满争议的话仍加深了人们对人工智能技术的担忧,尤其是当其应用于杀伤力极大的军事中时。当机器学习与自动化和坦克、大炮等武器联系起来,或许会让战争的杀伤力明显上一层楼。

而在企业界,许多知名商业领袖,包括人工智能领域的专家都曾经对人工智能的快速发展发出过警告。

非营利性机构——未来生命研究所3月在一份公开信中表示,人工智能系统可能对社会和人类构成深远的风险,只有当确定它的影响是积极的且风险可控时,人类才应该开发出强大的人工智能系统。

环球市场情报 人工智能
财联社声明:文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
商务合作
专栏
相关阅读
评论