随着机器人技术的发展,科学家已经开发出具备一定人工智能的“杀手武器”系统,比如可执行对地打击任务的无人机、车载武器站等,这些机器可通过自身携带的武器弹药对敌目标进行杀伤,同时也会攻击有生目标。
目前,联合国正在讨论具有智能的致命性武器使用问题,执行国际法来约束杀手机器人技术的研制和扩散,这可能意味着《终结者》杀手机器不会问世,同时联合国还就杀手机器的道德和社会影响进行讨论。
2014年11月前,联合国将起草一份《特殊常规武器公约》,目的是限制人工智能杀手机器武器的研制,这种武器系统属于常规武器,但又与常规武器不同,可自行攻击敌方目标,如果面对已经投降的敌方有生部队,已经设定程序的杀手机器可将它们全部消灭,目前一些国家已经在无人机上验证该技术,未来无人机可自主选择威胁程度高的目标进行打击。或者在城市巷战中车载式武器站可超越人工控制,自行开火,对此联合国将对这些人工智能的武器系统进行控制。
日内瓦的联合国办公室的工作人员迈克尔认为未来战争可能具备极强的先发制人打击,首当其冲的就是无人作战平台,但冲突双方需要确保武器系统的最终开火权必须在人类的牢牢控制之下,不可以由智能机器系统决定。伦斯勒理工学院和耶鲁大学的研究人员在五年内探索出智能机器人的对与错,这些机器对人类的发展有何贡献。
威斯康星大学麦迪逊分校研究人员认为机器人发展出理性思考的能力可能不会出现,也就是说具有情感的机器人我们还无法研制出来,这涉及到人类大脑的意识问题,未来的杀手机器人只会在程序控制之下的作战,如果程序错误或者被入侵,那么此类机器可能会滥杀无辜,甚至对己方部队开火。