
毕业典礼本是庄严时刻,一位加州大学洛才矶分校(UCLA)学生却因“行为艺术”引发争议。他在上台前打开笔记本电脑,展示完成论文的“关键工具”——ChatGPT,并坦言期末论文与考试全靠人工智能(AI)完成。这一幕在社交平台引发数千万次观看,公众与教育界随之掀起激烈讨论。
有人赞赏他的坦率,也有人担忧:若医生、律师等专业人士也靠人工智能“代笔”毕业,社会信任将面临危机。
“边开胸边问ChatGPT怎么动手术”的讽刺,道出了对专业伦理的深层焦虑。
“科研填空游戏”蔓延
这并非个别现象,而是整个学术体系正在面临的现实。生成式人工智能正重塑人类写作与思考的方式。如今,不少数据库与期刊也遭遇“低质量论文”浪潮。以美国公共健康数据库NHANES为例,2023年相关论文暴增至近5000篇,2024年更逼近8000篇。许多研究结构雷同,仅停留在简单统计层面。
统计学家Matt Spick称,这是全球蔓延的“科研填空游戏”:用人工智能拼接数据、套用模板语言,迅速拼出可投稿的论文,缺乏真正的问题意识与原创性。
为了应对人工智能生成论文,各高校纷纷引入人工智能率检测机制,要求学生提交论文前“自证清白”。但现有算法主要依赖语言特征,反而容易将规范、专业的写法误判为人工智能生成。
学生王子依的经历颇具代表性。她独立完成的论文却因“其一”、“其二”等表述被系统标红,人工智能率始终不合格。无奈之下,她反而使用人工智能改写文字以降低AI率,结果论文风格像儿童读物——变成了用人工智能对抗人工智能。
这类机制不仅效果存疑,还催生灰色产业链:代降人工智能率、标点符号调整、机翻回译等等,学生成了绕过系统的技术玩家。人工智能检测,逐渐异化为一场内卷的技术游戏。
忽视知识本质探索
教师也面临困境。他们既想维护学术诚信,又难辨真假。有些论文语言华丽、逻辑工整,却缺乏人味。一些老师尝试改变评估方式,例如要求学生脱稿汇报、讲述个人经历,或设计人工智能难以完成的任务等。这些创新,或许正是应对人工智能挑战的方向。
其实,人工智能工具本身是中立的。真正的问题在于当前的学术评价制度过分重视数量与格式,导致师生被动应付,追求“看起来像研究”的成果,忽视了对知识本质的探索。在这种环境下,人工智能成了提升效率的工具,却也挤压了思考空间。
教育的目的不该是审判谁用过人工智能,而是引导学生形成独立思考与理解世界的能力。这种能力无论人工智能多强大,永远不可被取代。
UCLA学生的行为虽然激进,却为教育体系敲响警钟。人工智能已是不可逆的时代趋势,关键不在于禁用,而在于如何正确引导。唯有重构评估体系,赋予学生判断与创造的能力,才能真正让人工智能成为知识进化的助力,而非学术沦陷的推手。