向AI证明“我不是AI”的学术新困局何解 专家建议

将AI生成内容纳入学术诚信规制体系

  毕业季的喧嚣渐息,因“AI率”检测新规引发的争论仍在持续。

  一面是学生绞尽脑汁“降AI率”,只为“向AI证明自己不是AI”以获得答辩资格,催生了“代降AI率”的隐秘灰色产业;另一面是教师在教学中对AI“介入”的困惑:查还是不查?用还是不用?

  这一学术监管难题正困扰全球教育系统。当论文写作任务恰好落入AI最擅长的领域,依赖“AI率”检测来评判,是否已偏离了教育的初衷?有高校人士坦言,高等教育正经历“山呼海啸般的改变”,关键在于如何合理使用AI。

  对此,《法治日报》记者近日采访了首都师范大学教育政策与法律研究院副院长蔡海龙、北京外国语大学法学院教授姚金菊。

  面临准确率瓶颈

  记者:在社交平台上,“代降AI率”服务明码标价。不少学生认为当前AIGC率(生成式人工智能参与度)检测处于“博弈期”——既难精准识别AI内容,又易误伤原创。这类检测技术是否尚不成熟?

  蔡海龙:主流的论文AI检测系统主要使用困惑度和突发性指标来计算AI率,并结合论文的语言模式和风格特征进行整体识别。就当前来看,此类技术还远未成熟,其稳定性和可信性都面临不小的挑战,漏报和误报情况也时有发生,难免误伤真实原创内容。

  姚金菊:目前AIGC检测技术确实处于典型的“博弈期”。一方面,AI生成内容的“人类化”速度正在加快。新一代大语言模型生成的文本不仅语法规范、结构清晰,而且在风格模仿、用词逻辑等方面不断趋近人类。这直接削弱了传统检测工具赖以判断的“语言指纹”,也使检测系统面临更高的误判风险。

  另一方面,AIGC检测技术的发展相对滞后。目前市面上的检测工具,无论是商业的还是学术的,都面临准确率的瓶颈。研究和实践表明,这些工具不仅存在大量的“漏报”(未能识别出AI生成内容),还存在令人担忧的“误报”(将人类原创内容标记为AI生成)。例如,一些行文流畅、结构清晰、语法严谨的人类作品,恰恰因为其“完美”而易被误判为AI生成。

  记者:这种困境下,若学生陷入“用AI写,再用AI查改”的循环,是否沦为低效的文字游戏?

  姚金菊:当一些高校将AI检测结果等同于学术诚信评估依据,学生便被迫进入“规避AI率”的游戏——写完后自查,再不断微调语言、变换结构,甚至将其文字改为逻辑不通的语句,只为压低一个概率性指标,不仅浪费时间,更背离了写作的学习初衷。这实质上暴露出当前一些学校对AI的态度还停留在防范和压制阶段,缺乏真正的引导机制。

  蔡海龙:学校如果过度依赖AI检测工具来评价学生的论文,那么势必会导致学生投入更多的时间和精力来学习如何规避检测。加强对论文的AI率检测,短期内或许可以形成震慑效应,但长此以往,无疑会使论文写作变为一场无休止的“猫鼠游戏”。

  避免“算法一票否决”

  记者:AI工具已深度融入写作流程(如润色、逻辑优化),边界模糊。禁止恐推高监管成本,促使隐蔽使用甚至催生灰色服务;鼓励又可能导致AI取代学生思考,削弱能力培养。“查AI率”政策,简单禁止或鼓励是否都不可行?

  蔡海龙:必须承认开展论文AI率检测确实能够在一定程度上避免学生对于AI写作的过度依赖,从而捍卫必要的学术标准和学术底线。

  但就现实而言,任何极端的处理方式——简单禁止或全面鼓励都并不可取。取消检测,可能导致学生直接提交AI成果,引发严重学术不端,损害学术公正,并使评价体系失效。过度强化检测,技术上难实现,且加剧“猫鼠游戏”,限制学生接触学习AI技术的机会,造成与社会脱节。这要求相关部门深刻思考培养目标与评价方式,构建适应AI时代的新理念新方法。

  姚金菊:“查AI率”应进入一个“规则导向、弹性治理”的阶段,既承认AI的合理性,也明确其使用边界。为此,需要从以下三方面完善制度配套:

  首先,建立国家规范,统一使用边界。通过出台统一规范,对AI工具的使用范围、申报制度、违规行为进行法律明确。可区分具体使用情境,将AI使用划分为“允许使用”(资料搜集、语言润色)、“应申报使用”(生成段落、内容辅助)、“禁止使用”(完全代写、考试中使用)三类情境,并制定清晰可操作的边界判定标准,防止“一刀切”式惩戒;

  其次,完善高校操作机制。设立AI使用声明制度,要求学生在提交论文时申报使用情况,并保留写作过程记录(草稿、生成对话等)。同时,设立救济程序,对AI检测结果高风险的内容提供人工复核,避免“算法一票否决”;

  最后,重塑科研评价方式。从注重结果转向重视过程与思维,增加口试、草稿痕迹、思维导图、小组互评等方式,减少“一次性最终文本”作为唯一成果的依赖。此外,还应开设AI素养课程,让学生了解模型逻辑、生成偏差与伦理风险,具备负责任使用AI的能力。

  立法形成清晰规则

  记者:目前高校对生成式AI,比如ChatGPT的管理,主要通过黑白名单、场景划分、使用披露、伦理教育和惩戒机制。是否存在全国性统一规范缺失的问题?

  姚金菊:近两年,我国各高校已经着手制定相关管理规范,但除少数高校给出了AI工具使用指导意见,大多数高校对此仍缺乏系统性、规范化的管理。

  各高校间规范标准不一,如阈值设定、禁用场景差异大,可能导致跨校学术交流时标准混乱。且目前检测工具也不一致,技术可靠性尚不稳定,易造成误判。另外,由于学科差异性较大,AI应用风险不同,仅凭校级规范统一管理易造成“一刀切”的风险,不利于AI工具的合理使用。

  目前现有规范多数针对学生的AI工具使用行为,对于教师评审使用行为鲜有提及,相应处罚更是无从谈起。在国家层面应结合国际标准,设置基础红线,明确绝对禁止项(AI代写论文、伪造实验数据);强制披露要求(模型名称、使用比例、生成内容标注格式),以及通用处罚标准,而高校层面则应保留学科适配权,允许高校在国家框架下制定细则。

  蔡海龙:应对AI深度渗透教育,需构建完备的规则体系:

  明确辅助与代写的法律界定。立法应当形成清晰的规则,明确区分可接受的AI辅助使用与构成学术不端的代写行为,消除实践中的模糊地带。

  将AI生成内容纳入学术诚信规制体系。现有的学术诚信制度还没有就AI生成内容的问题作出有效回应,迫切需要修订学术规范,强制要求对AI生成内容进行透明标注,并将未声明使用AI的行为明确定性为学术不端,配套建立梯度化追责机制。

  确立AI参与创作的知识产权归属原则。在现行法律否认AI著作权主体资格的前提下,明确规定人类创作者对AI辅助产出内容的主体权责,同时推动立法建立动态调整机制,适应技术迭代衍生的新型权益关系。

声明:文字、图片版权归原作者所有,如有侵权请联系我们,我们立刻删除。
国际绿色品牌联盟
Avatar photo

作者 绿色在线

  “绿色在线”创建伊始,坚持以绿色人文,绿色人生的永恒理念,始终坚持服务于社会发展需要和国内外广大客户需求,传播国内外绿色文明、绿色文化、绿色经济、绿色能源、绿色旅游、绿色农业、绿色发展等最新动态信息。为了绿色在线更好的发展壮大,欢迎各界有缘人士,友情参与共同发展。