立陶宛维尔纽斯大学,过去一年开除10名违反AI使用规则的学生;美国耶鲁大学,一名学生因AI使用工具纠纷,将三名教授、两名院长告上法庭。麻省理工学院、明尼苏达大学等高校,近来都陆续发生类似情况。
从“概念的游戏”到“潘多拉魔盒”,社会开始思考如何与AI相处,学术研究领域讨论尤为激烈。

(一)
学术研究关乎知识的积累、传承和创新,势必需要审慎对待。
此前国内各大高校相继出台了规定和办法,规范AI技术在学术研究中的使用场景。今年2月,中国历史研究院历史研究杂志社推出《关于规范生成式人工智能工具使用的启事》颇具代表性。
总体来看,《规范》严格限制AI使用,将其仅限于语言润色、文献检索、数据整理与分析、思路开拓等环节,超出者将判定为“违反学术诚信”。同时,《规范》也明确保持开放态度,未来将根据技术发展作出相应调整。
种种尝试,客观反映出学术界探索AI时代知识生产边界的自觉。首先,从内容来看,它将知识生产视作以人为主的智力活动,对AI的智识价值与人格地位仍有所保留。其次,从过程来看,它更强调AI的辅助作用和工具功能,且严格设置了禁止边界。最后,它要求待发表的学术文章进行AI检测,且主张严格外审。可以看到,“人的作品”而非“AI的作品”仍然是判断研究是否具有学术价值的核心标准。

(二)
其实,无论是权威期刊发布的规范,还是众多高校推出的各类指导意见,本质都是在维护治学的终极目标——求真。
一方面,AI技术为搜集、翻译、提炼和分类开源信息提供了巨大便利,但它也极易让人陷入“认知陷阱”,误认为“信息即是知识”。特别是对于学术训练刚刚起步的学生来说,搜集和研判信息本身就是批判性思维的训练过程,有助于培养概念化思考能力和逻辑推理水平,实现从被动接受信息到主动获取知识的认知飞跃。诚然,AI技术加持下,我们不必再“挑灯苦读”,海量信息唾手可得。但“使用巧办法”不等于“投机取巧”,将泥沙俱下的信息误认成知识势必会引发“真相危机”。
另一方面,AI大模型依赖数据集与算法。如果用于训练大模型的数据未经严格筛选,本身存在谬误,那么生成内容便可能出错。同时,AI会基于训练数据“编造”虚构数据和事件,做出前后矛盾的陈述,产生“AI幻觉”,投喂虚假信息。此外,AI生成的内容很大程度上与提问方式有关,极易受提问者的思维定式和认知偏见影响,导致集中展示特定观点、刻意回避某类信息、呈现片面真实等问题。
治学的核心在于求真,智能的目标立足效率。求真本是一个反复试错的艰难求索过程,追求效率从来不是目的。对于学术研究中的技术性环节,例如翻译、制图、校对,使用AI技术提高效率无可厚非,而一旦涉及知识性内容,我们仍然需要牢牢把握主导权。

(三)
如今,AI技术深度介入我们的工作生活,谁也无法自我隔离于智能时代之外。如何重构研究中的技术伦理,划定智能与治学的边界,有三个问题值得进一步讨论。
第一,AI的角色是工具还是协作者?长期以来,我们面对的技术大多具有客体化体征,因而可将其简单视为工具、手段或者策略,更多讨论的是效率问题和个人偏好,例如纸质书和电子书孰优孰劣,应该使用软件还是卡片做文献摘录,等等。但是,当技术具有一定智能,主体与客体间的“使用与被使用关系”被突破,是否应当发展人与技术的“协作关系”,这仍然需要付出巨大的勇气去尝试。
第二,AI生成的内容是否属于知识?传统观点认为,无论是通过创造、发现或者习得,只有人的智力成果才能被称为知识。需要讨论的是,如果在人工干预下,AI生成的信息具有一定原创性或启发性,那么是否也可以将“人工指导智能”视作知识的生产过程?更进一步讲,是否仍然应该将人视作知识积累的唯一角色?
第三,AI辅助在“脑内”还是在“脑外”?当前流行的观点是,对于学术作品来说,不承认AI生成的主体架构、核心观点和主要段落具有原创性。AI的使用场景仅限于“格式规范”而非“内容生成”,不鼓励AI在学术研究中“显性表达”。

(四)
“技术发展史,又是一部人类恐惧史”。其实,这种“恐惧”未尝不是一种力量。它可被视作一种社会接受机制,让我们审慎推动技术的运用,令其朝着符合社会整体利益的方向发展。
AI治学亦然。它快速挑战传统的治学边界,颠覆了以往的信息获取方式,甚至重塑了知识与权力的固有结构,或引发熊彼特所言的“创造性毁灭”。但我们既不用盲目拥抱,也不必产生“替代焦虑”。全面了解其具体功能和潜在风险,在保证“治学求真”的原则下不妨多试一试,“为新技术立法”,也为人类发展护航。
撰文:严展宇
作者单位:对外经济贸易大学计算社会科学实验室
流程编辑:U072