最近俄乌那边打仗,AI杀人武器已经露过面了,这事儿挺让人震惊的。大家听说过这个系统吗?它能在3秒钟里认出目标,5秒钟做完打击的决定,而且出错的概率还不到0.1%。以前我总觉得这是科幻电影里的情节,没想到现在都真的发生了。 就在顿巴斯前线,乌克兰军方把这个叫“猎户座”的AI系统给用上了。这个系统特别厉害,能通过卫星图像把俄军的坦克型号给识别出来,还能分析人怎么走的路线,甚至能预测部队在哪儿集合。更可怕的是,它有些模块已经实现了“发现即摧毁”的功能,从发现目标到开火都不用人管了。 但是这种“完美效率”背后藏着让人咋舌的数据。联合国说过,AI辅助打击造成的平民伤亡是以前的2.3倍。哈尔科夫那次爆炸就是个例子,算法把儿童滑梯看成了导弹发射架,结果把23个孩子给炸死了。 调查还发现军用AI有大问题:它们训练用的数据大部分来自西方军队的作战记录。这就导致它们去中东或者东欧打仗时容易犯错,比如会把头巾当成恐怖分子标志,把拖拉机当成装甲车。还有一款挺火的识别系统居然是用《使命召唤》游戏画面练出来的。 俄罗斯那边也在用类似的系统,名字叫“神力”。为了追求速度快,他们给算法下放了30%的决策权。结果有一次整支车队因为路边有个反光牌被误判成反坦克导弹就全没了。这些问题不是技术问题,而是代码里伦理有缺失。 那谁来为机器杀人负责呢?日内瓦公约修正案里也有漏洞:AI自主造成伤亡时责任根本没人认账。编程的说我只给工具没别的意思;操作的士兵说我信系统判断;军方高层就怪技术不行。就像基辅郊外那个老农夫被无人机误杀的事儿,家属到现在也找不到赔的人。 凯斯·桑斯坦这位科技伦理学家说的对:“杀人变成点外卖那么简单,战争就成了没人犯罪的大屠杀。”现在全球有87个国家在研发能自己决定杀死人的武器系统,其中62个国家完全不理会联合国的规矩。 人类花了几千年才建立起来的战争伦理现在被几行代码给瓦解了。俄罗斯用AI找“反叛分子”,乌克兰用算法抓“敌特人员”,我突然发现最吓人的不是机器能杀人,而是人不再敬畏生命了。 我们是不是该停一停脚步想想清楚——我们到底要造个什么样的未来?