一艘万吨巨舰在电磁炮火中轰然解体——这段视频在社交媒体上疯传,画面逼真,冲击力十足。可它根本不存在。所谓“日本电磁炮击毁舰船”,不过是人工智能捏造的一场视觉骗局。真正的试验,是日本在“飞鸟”号试验舰上用40毫米电磁炮发射320克弹丸,击穿靶船留下一个十字形孔洞。真实远不如虚构震撼,却更值得我们警醒:当AI能凭空制造战争幻象,谁该为这场认知战买单?
这场虚假视频的传播链条清晰:AI生成内容以“军事突破”为噱头,在抖音、B站、微博等平台快速扩散,标题耸动,播放量动辄数万。尽管真实测试仅验证了动能穿透能力,离实战部署尚远,但AI炮弹先一步击穿了公众的认知防线。中国在电磁炮技术上的系统性领先——自2018年“海洋山”号测试以来,已实现33兆焦动能、200公里射程与连续120发无故障发射——反而被淹没在虚假叙事中。技术差距未被正视,安全焦虑却被放大。
追责的第一环是创作者。他们用AI生成虚假军情,博取流量,甚至可能蓄意制造恐慌。《人工智能生成合成内容标识办法》第十条明文规定,用户发布AI内容必须主动标识。若明知虚假仍传播,已涉嫌违反《治安管理处罚法》。但现实是,许多账号匿名操作,源头难溯。更讽刺的是,有些AI生成者标注了“AI创作”,却被搬运者删去标识二次传播,最终被处罚的往往是下游转发者,而非始作俑者。
平台责任紧随其后。抖音、微信、B站均已部署AI内容识别系统,自动添加显式与隐式标识。理论上,未标识或疑似AI内容应被拦截或提示。但技术并非万能。北京互联网法院2025年11月审结的首例“平台判定AI生成”案暴露了致命短板:平台以算法黑箱为由,拒绝提供判定依据,法院最终因证据不足判其败诉。这意味着,当平台声称“已识别”,却无法证明其科学性时,监管便陷入空转。军事类AI谣言正利用这一缝隙,悄然扩散。
法律框架看似严密,执行却常遇阻滞。从生成者到传播平台,责任链条环环相扣,但举证难、鉴定难、跨部门协同难,让追责步履维艰。公安部“净网”行动虽已查处多起AI造谣案,但针对高敏感的军事信息,平台常以“数据涉密”为由拒绝开放算法日志,执法机关难以获取完整证据链。国投智能的“鉴真”系统虽能识别近500种AI伪造手段,准确率超94%,但其应用仍限于反诈政务平台,未全面接入内容审核前端。
技术狂奔之时,制度必须踩准节奏。AI能造炮,也能造谎。我们不能等到虚假炮弹真正引爆社会信任,才想起去追查引信。真正的防御,不在海上,而在代码与法规的交界处。当真相需要鉴定,责任就不再只是法律条文——它是每一行算法的透明,每一次点击的审慎,和每一份监管的刚性。
