(日内瓦综合电)美国和以色列疑似在打击伊朗时使用了人工智能(AI)技术,这不仅引发许多道德和法律问题,也使人担忧人类可能正在失去对战争机器的控制。
自发动军事行动以来,美国和以色列已对伊朗境内发动数千次空袭,包括在战争首日(2月28日)击毙伊朗最高领袖哈梅内伊。
美国纽约新学院的AI和机器人专家阿萨罗(Peter Asaro)指出,从计划时间很短、目标数量庞大来看,美以两国很可能使用AI来识别伊朗境内的目标。
他说,AI可以大幅提高速度,“你可以通过自动化流程,比人类更快生成一长串目标名单”。关键在于,在授权打击前,人类是否真的逐一审查这些目标,并确认是否合法、是否具有军事价值。各国都希望在战场上比对手更快作出决定,但问题是:“你是否仍然真正掌控局势?”
过去十年,各国一直在讨论未来出台关于规范自动化武器使用的条约,并将今年稍后决定是否启动正式谈判。虽然目前没有专门规范AI和自主武器的条约,但现有国际法依然适用。
阿萨罗在日内瓦出席联合国会议时告诉法新社,争论的核心在于目标选择,以及人类可能失去有效的控制。支持者常称AI更精准、错误更少,但他指出,这些系统多建立在保密平台上,外界难以了解它的运作逻辑和得出结论的方式。
伊朗南部米纳布一所女校28日遭袭,伊朗称造成150多人死亡并称是美以所为,但两国未证实此事。法新社称这所学校靠近两个由伊朗伊斯兰革命卫队控制的地点。多项报道称,学校与军事设施分开存在已至少十年。
阿萨罗说,如果出现误判,那是人类判断失误,还是系统数据过时?抑或数据库出错?也可能目标识别无误,但打击偏离?
他表明,出错方式很多。但更令人担心的是,如果系统本身得出结论,把学校视为威胁,那么它的判断依据是什么?
他说:“如果出了问题,谁负责?法律如何界定?道德界线在哪里?”
