ai 生成的内容必须要有明显的标记,那对读者来说就是误导甚至是欺诈。

随着AI技术越来越普及,像生成内容这种由人工智能创造的产物,就把传统出版物给侵占了。在2023年,很多消费者都遇到了问题,比如买了本教人摄影的书,结果里面的示范图明显不对劲,有的模型脸上模糊得不行,还有光影逻辑全乱套,甚至有的手上长出六根指头,这些看起来很像AI做出来的东西。出版社一开始解释说作者没说这些图是怎么来的,他们也没查出来,后来就给退款了。 还有一本叫做“奇幻人文艺术图鉴”的绘本也挺有意思,在国家版本馆登记的时候写了“利用AI绘画工具辅助创作”,但拿到网上卖的时候,电商平台的页面和书皮上都没写清楚用了AI。这两件事给大家提了个醒,尤其是那些教人怎么做的书里如果出现了很假的教学例子,那可真是害人不浅。要知道,知识类的书最看重的就是准不准、靠不靠谱,要是里面全是没经过检验的AI生成内容而且也不告诉你,那这本书作为知识载体的公信力就没了。 为了规范这种情况,国家互联网信息办公室联合了好几个部门发布了《人工智能生成合成内容标识办法》,这个办法在2023年9月1日就正式开始实施了。办法说的很明白:凡是AI生成的内容必须要有明显的标记。不过这话说起来容易做起来难,网络上的东西随时能改也能查到源头,可是纸质书印出来了就改不了了,技术上也不好鉴别。不过这也不能当出版社免责的借口。 中国政法大学知识产权中心的赵占领分析说:要是书里大量用了AI生成的内容却不做标识,那对读者来说就是误导甚至是欺诈。毕竟大家买这些书是希望看到人类智慧直接写出来的东西。游云庭律师从法律角度讲得更明白:根据《消费者权益保护法》,消费者有权知道自己买的东西是真的还是假的。对于那些教专业技能、强调写实性和准确性的书来说,用AI一定要慎之又慎。 作者是内容的第一责任人,必须把来源说清楚;出版社作为发行的主体,也得把把关审核这关做好。如果书里大规模用了没标识的AI内容而不告读者,那出版社肯定有责任。游云庭建议这种情况下读者可以要求“退一赔三”,还可以找消协帮忙或者去法院告他们。 至于具体怎么标识,《标识办法》提了两个办法:显性和隐性。显性就是在封面上或者图旁边用大字直接写出来;隐性就是在图片里加个数字水印。不过对于那种要拆封才能看的书(塑封书),得在买之前就能看清楚的地方标上字才行。 赵占领还补充说现在的技术很发达,显性标识可能会被恶意去除掉;而且有些人用国外的AI工具做图可能就避开了国内的水印要求。这都要求出版社在审核之前得多做功课。 说到底AI只是个工具嘛,它确实给内容创作带来了新机会。但要是把它用到知识教育这块严肃的领域里去(尤其是那种传授专业知识的书),就必须守着真实准确这道底线原则不能变。新规已经定下来了关键在于落实。 这就要求创作者得讲诚信;也要求出版机构赶紧适应技术变革升级一下审核流程和技术手段才行。它们得实实在在担起“把关人”的职责。在封面下面、在内容中间给读者守住质量和信任的防线。只有大家一起坚守专业标准和职业伦理,在享受技术带来的好处时(拥抱技术红利),才能把出版物当作社会公器维护好它的珍贵价值。