当AI把嫌疑评分弄到100分而不给0分时,这事就变得危险了。茱莉亚·努埃诺在伦敦做研究,她手里有很多加沙的视频和位置信息。她把这些东西拼在一起,交给南非的团队送去海牙。她把住宅区和商业区的轰炸时间都对好了。她在约旦河西岸的监控名单上发现了问题。以色列军方用Lavender系统给居民打分,这个系统没有给0分。努埃诺说,这种预判式行动会让人觉得所有行动都是合理的。她也提到约旦河西岸的做法,军方用社交网络监控来提前锁定可能的袭击者。她把种族灭绝的理解拉宽了,不只看直接的杀伤。她也强调记录必须留下。现在的问题是,谁来设定阈值,谁来承担错误。努埃诺把正义的定义交给当事人,她也承认国际秩序正在被考验。南非团队把材料送到了国际法院,努埃诺说系统没有给任何人留出零分。她在伦敦参与法证建筑的调查。努埃诺盯着的是这一步:先把人分成一批批目标。她提到一种新的麻烦:信息太多,真假混在一起。她把零碎画面拉回到一个可检查的结构里。在她的叙述里,图像不再是旁证。她还提到广告系统会把你当作某类人。这些流程很慢,慢到现场已经变化很多。当AI被拉进战场后,事情变得很直接。她也不把希望只押在一个机构上。她认为这说明目标选择和时段选择是配套的。有些人觉得这只是拼图游戏。有国家用抓人来管帖子。争议更大的部分落在人工智能上。这些国家把注意力从爆炸带来的损毁挪到拍摄者是不是合规。法证建筑做的是反过来的工作:把零碎画面拉回到一个可检查的结构里。努埃诺写书时把种族灭绝的理解拉宽了。有人认为这是一种递归结构:系统说你是目标。当AI把怀疑变成分数时,谁来承担错误?一些国家用抓人来管帖子。当AI被拉进战场后,事情变得很直接:先把人分成一批批目标。努埃诺提到一种新的麻烦:信息太多、真假混在一起、讨论滑到这段画面是不是允许传播。她在伦敦参与法证建筑的调查,把加沙的影像和位置拼起来。这个国家用抓人来管帖子,很多人只要转发就可能被盯上。这个系统没有给0分的设置。在她的叙述里,图像不再是旁证而成了争夺现场的一部分。一些国家用抓人来管帖子。法证建筑做的是反过来的工作:把零碎画面拉回到一个可检查的结构里。一些人认为这是一种递归结构:系统说你是目标、行动跟进后又把结果回填。当AI被拉进战场后,事情变得很直接:先把人分成一批批目标、再去解释为什么要打。这些流程很慢、慢到现场已经变化很多。在她的叙述里、图像不再是旁证而成了争夺现场的一部分。这个系统没有给0分的设置、分数从一开始就把无辜挤没了。