
AI写作简直糟透了。乍看之下好像有点智慧,再看一眼就发现空洞无物。它有种让人受不了的轻浮劲儿,就像个度假村推销员。幽默感几乎为零,独创性更是彻底缺席。但它最致命的缺陷是缺乏脆弱感。作者是人,人是一团乱麻,而我们作为读者、作为人、作为混乱的存在,自然会对这团乱麻产生共鸣。
尽管有这么多毛病,AI写作还是在蔓延。文学经纪人被投稿淹没,只好加免责声明抵制AI写作。文学杂志也跟进了。亚马逊呢,拼命想挡住AI生成的书籍潮,却收效甚微。
作者们发现,自己的作品刚上架,劣质模仿品就冒出来了。假书真能造成伤害。往小了说,不知情的读者以后可能会避开真正的作者。往大了说,低质量的书损害消费者信心,进一步削弱本已低迷的公众文学胃口。
大部分小说读者渴望的是人类创作的那团乱麻。布克奖得主乔治·桑德斯最近说,他对机器写作没兴趣,正是因为它缺乏人类体验。连AI倡导者、《如何思考AI》的作者理查德·萨斯坎德也拒绝在小说中采用机器写作的吸引力:
但人类写作和AI写作的界限越来越模糊。上个月,一家大型出版社因为一本青少年小说掺入了AI生成的文本而停止发行。出版商——显然包括作者本人——直到出版后才知情。读者可能渴望人类的混乱,但作者们却一直隐瞒AI的使用——只有少数人被抓到。
出版业为阻止AI入侵,迈出了小碎步。去年,Faber在《Helm》上贴了“人类创作”标签,这本气势磅礴的史诗是萨拉·霍尔花了几十年写成的。像许多作者一样,霍尔的作品被偷去训练大型语言模型,未经同意,也无补偿。Books By People组织与出版社合作,去年底推出了“有机文学”认证。作家协会最近也推出标识,用来辨别人类写的书。古典学者玛丽·比尔德支持作协的方案。她说:“在我的荒岛上,我只认人类写的书。”
这些标签理论上有价值,但实践中有限。似乎对“合理使用”缺乏共识,是大多数问题的根源。有人争辩说,AI编辑辅助是可以接受的。但具体怎么操作?底线在哪?AI能提出15个替代结局吗?能修改几个平庸段落吗?语言模型能建议重写开篇句吗?在我看来,这种干预不像人类干的,但对别人来说是可以接受的。
我们来看看Books By People对合理使用的严格定义:
按照那个定义,一本“人类创作”的书仍然可以受益于AI编辑辅助。那什么算“有意义的内容”?写作中哪部分没意义?“有意义”对不同的人含义不同。
即使不跨越模糊的界限,“人类创作”的标签似乎也完全依赖信任。不只是一层,而是好几层:读者信任标签;标签提供者信任出版商;出版商信任作者。作协的“人类创作”标识似乎只靠作者注册——没别的了。
这些标签姑且相信作者的声明。但如我们所见,很多作者用AI,却很少人承认。这些标签提供了快速钻空子的途径:宣称是人类写的,你部分或完全由AI生成的书就能像个冒牌货似的,带着标榜人性的标签上架。
我们需要更严厉的措施,给读者一个公平的选择。正如艾米莉·M·本德和亚历克斯·汉娜在《AI骗局》中指出的,一种办法是强制公司在源头加水印,追踪内容的生成。隐藏的元数据也有类似潜力。检测模型能轻易找到AI生成的作品,AI公司也接受这个想法。但语言模型的扩散意味着,没有监管——甚至可能有监管——普遍应用似乎不太现实。懂技术的“作者”总能找到绕过隐藏标记的方法,比如用数字工具或直接抄AI写的,即使这会拖慢他们的“写作”速度。
出版社必须反击。标签不该声明什么是人做的,而应该揭露什么是机器造的。诉讼可以遏制撒谎。出版商可以在合同中加入禁止使用AI的条款,明确什么是合理使用。这些条款应该规定,AI没有用于生成、编辑或重写文本的任何部分,为消费者提供有法律支持的保障。
这种绝对主义可能看起来极端。然而,作者们不太可能反对,毕竟有1万人在三月份的伦敦书展上通过所谓的“空书”抗议AI。如果作者不签这种条款,他们的书就应该标明AI身份。出版社应该乐于划清界限。毕竟,人类才是竞争优势。如果AI写作越来越好并充斥整个行业,出版商就会遭殃。既然能写个提示词就搞定,干嘛还买书?
给小说中的AI打标签,这需求呼应了社会更广泛的透明度呼声。AI在生活的许多领域越来越模糊真实与虚假的界限。慈善机构用AI生成图像博取同情,深度伪造破坏民主进程。AI网红影响力越来越大。AI艺术作品充斥市场。而在文学——这个曾经神圣的领域——AI正在泛滥。
模糊的界限要求清晰。它们需要新的规则和与消费者的新契约。给AI打标签只是为了提供更公平的选择。它让我们可以根据自己的偏好和偏见做出消费决定。在常是混乱的小说世界里,给AI打标签让我们可以选择那些由过于人性化的人类写成的书,带着所有的脆弱和混乱。