(巴黎/华盛顿综合电)美国特朗普政府正制定严格的人工智能(AI)合同准则,要求AI企业必须允许旗下AI模型,使用于政府的所有合法目的。

据《金融时报》报道,美国总务管理局起草的这份合同准则,要求想要与美国政府合作的AI企业,必须授予政府一项不可撤销的许可,让政府可以出于所有合法目的使用它们的AI模型。

这份指导意见涵盖所有民用合同,是政府加强AI服务采购的广泛举措之一。五角大楼正在考虑的军事合同也有类似的准则。

此次政策收紧的导火索是战争部与AI企业Anthropic之间的矛盾。

战争部上周取消与Anthropic的一份合同,理由是Anthropic拒绝让战争部无条件使用旗下的Claude AI模型。

延伸阅读

美国多个政府部门开始停用Anthropic
美国多个政府部门开始停用Anthropic
美以疑用AI攻打伊朗 专家追问责任归属与道德底线
美以疑用AI攻打伊朗 专家追问责任归属与道德底线

Anthropic对旗下技术可能用于大规模国内监控及致命自动化武器表示担忧,寻求在合同中加入保障条款。战争部长赫格塞斯批评Anthropic想要“夺取美军作战决策的否决权”。

白宫已将Anthropic列为供应链风险,这一待遇通常仅针对中国或俄罗斯企业。

另一家AI企业OpenAI则与战争部达成协议,允许战争部在机密网络中使用其模型。不过,OpenAI修订与战争部的合同,确保旗下技术不会用于国内监控。

在政策角力的同时,AI在军事领域的应用正以前所未有的规模展开。美以联军自2月28日以来对伊朗发动了数千次空袭,专家相信AI在目标甄别与筛选中发挥了核心作用,但也引发了关于技术失误导致平民伤亡的剧烈争议。

专家指出,AI被用来缩短所谓的“攻击链”,即从发现目标到下达攻击指令的决策时间。

不过,AI在战场上的致命应用引发了道德与法律的深思。伊朗官方通报,当地一所学校近日遭到轰炸,造成150人死亡。尽管美以双方尚未承认对这起袭击负责,但由于学校靠近伊朗伊斯兰革命卫队的两个设施,外界质疑学校被炸极可能是AI目标识别错误所致。

华盛顿智库战略与国际问题研究中心高级研究员詹森指出,各国军方还未从根本上重新思考如何借助AI进行规划和开展行动,“这需要一代人的时间来想清楚”。