跳过正文

当AI顶会开始封杀LLM:一场精分的话语权保卫战

AI顶会正在上演大型精分现场:一边用GPU集群训练下一代大模型,一边禁止投稿者用LLM写论文。ICML、NeurIPS等会议近期密集出台限制令,理由直白得可笑——他们被AI生成的学术垃圾(AI slop)淹没了。

这本质上是一场学术精英的防御性撤退。会议组织者声称要维护评审质量,却刻意回避了一个荒诞现实:这些"低质量内容"恰恰来自对AI技术本身的过度追捧。更尴尬的是执行层面的技术困境——检测工具对GPT-4内容的误判率高达30%,所谓的"润色允许、生成禁止"在实际操作中形同虚设。当研究者用Claude重构实验逻辑时,这算语法修正还是内容创作?最终只能靠作者自觉申报,合规成本全转嫁给个体研究者。

真正的输家是非英语母语的学术边缘群体。对中国、印度、欧陆研究者而言,LLM曾是打破语言壁垒的平权工具,能让他们与MIT、斯坦福的实验室同台竞技。禁令一出,英语母语机构的"人力资源优势"瞬间放大——他们可以雇佣专业编辑,而发展中国家的研究者只能回归手工写作。这不是质量管控,这是隐性的学术殖民。

长期来看,全面禁止注定失败。未来五年,规范必然从"禁用"转向"透明披露"——就像统计方法必须注明一样,研究者只需申报人机贡献比例。但眼下这场运动暴露了学术共同体面对技术冲击的慌乱:他们既想享受AI带来的研究红利,又拒绝接受AI对知识生产流程的重构。这种既要又要的姿态,维持不了太久。


原文链接:AI conferences have rushed to restrict the use of LLMs for writing and reviewing research papers in recent months after being flooded with AI-generated slop (Melissa Heikkilä/Financial Times)

本文由 AI 辅助生成,仅供参考。