从侵权法到作弊,ChatGPT在高等教育领域的未来是什么?
伯克利的人工智能专家正在研究像ChatGPT这样的东西将如何改变从招生筛选和研究到撰写大学论文的一切。图片来源:Pexels 照片:Cottonbro Studio
它通过了律师考试,首先以平庸的成绩,然后跻身新晋律师的顶级行列。它的得分高于90%的SAT考生。它几乎在GRE的口头部分取得了优异成绩 - 尽管它在AP作文方面还有改进的空间。
自机器学习界面ChatGPT首次亮相以来的几个月里,数以百计的头条新闻和热点报道已经围绕人工智能将如何彻底改变从医疗保健和商业到法律事务和购物的一切。但当谈到高等教育时,评论更加复杂,既乐观又不安。
许多人预测“大学论文的死亡”,尽管它仍然非常活跃。
但加州大学伯克利分校的专家表示,越来越清楚的是,ChatGPT和类似的工具将改变教育。在某些方面,这些变化很容易想象,比如为论文提示添加细微差别,而计算机无法轻易回答。然而,在其他方面,我们才刚刚开始想象这种快速变化的技术将如何颠覆课程作业,部署为24X7导师,并改变我们对知识工作的看法 - 高等教育的基石。
“这将是令人振奋的,不稳定的和变革性的,”伯克利的访问学者布莱恩克里斯蒂安说,他是机器学习,人工智能和人类价值观方面有影响力的作家。他说,为了跟上这些变化,现在是教育工作者教学生如何有意义地使用这些工具的时候了。
“在某种程度上,我们正在为学生进入就业市场做好准备,”他说,“从道德上讲,我们应该尽最大努力适应不断变化的就业要求,因为社会开始自动化知识工作的过程。
伯克利多年来一直在努力了解如何为这些变化制定路线。跨学科专家委员会为人工智能在大学运营中的道德使用制定了深入的行动计划。教师们召开了会议,讨论在课堂上使用人工智能进行教学的新策略,并预测如何将其用于作弊。课程如雨后春笋般涌现,帮助学生探索人工智能技术的伦理影响。当学生们在Reddit论坛上讨论他们如何接受和滥用ChatGPT时,一些教授鼓励学生将其作为批评论文回复的起点。
正如一位伯克利法学教授总结他的班级任务:尝试“击败它”。
“猫从袋子里出来了。没有回头路了,“CITRIS政策实验室创始主任,伯克利大学副研究教授Brandie Nonnecke说。作为人工智能治理和伦理方面的专家,Nonnecke是加州大学全系统工作组的联合主席,该工作组评估了ChatGPT等产品的风险和潜力。现在,她正在帮助领导这项工作,以确保公平和问责制得到优先考虑,并将风险降至最低,她说“我们不能不使用”。
“现在的问题是如何设置适当的护栏,以确保我们的学生能够从这些类型的模型中学习,”Nonnecke说,“而不是把头埋在沙子里说,'你根本不能使用它们。
这并不像人工智能系统的当前迭代是凭空而来的。
自 1960 年代以来,研究人员一直在研究越来越擅长模拟人类语音的工具。一个长期的目标是通过图灵测试——创建计算机生成的段落,与人类编写的段落几乎没有区别。
渐进式进展是实实在在的。但在过去的一年里,这项技术取得了最大的公共飞跃,比任何其他最新技术都更能吸引全世界的注意力。从艺术创作者到语言生成器,像ChatGPT这样的人工生成技术具有一定的新颖性。突然间,人们可以亲眼看到进步。
它的新功能的例子比比皆是,从在几秒钟内创建视频游戏代码到基于一张纸上的草图创建网站。微软宣布计划将像ChatGPT这样的机器学习系统直接构建到Microsoft Word中,该系统可以在瞬间完成论文,商业计划和营销文案。谷歌同样透露了将类似内容折叠到Google Docs中的计划。促销公告吹捧这些经常敷衍的写作作业将腾出多少时间进行更深入的思考和解决问题。
自1998年谷歌推出以来,ChatGPT迅速成为热门学院和大学最重要的变化之一,并永远改变了研究游戏。
但是,尽管有一些预示着种种承诺,其他人将ChatGPT称为学习的丧钟 - 这个系统将迎来作弊者的天堂,并且肯定会阻碍批判性思维,创新和进步。如果有人能对《尤利西斯》进行文学研究,或者写一篇关于19世纪初经济理论的五点文章,为什么还要读书呢?这种观点认为,复制和粘贴人工智能论文将成为本世纪学生的祸害。
伯克利学者说,这比这更复杂。
像Turnitin这样的抄袭检测程序已经表示,他们将采用程序来检测人工智能生成的、被撕掉的文本。ChatGPT背后的公司OpenAI同样创建了一个选项来确定文本是否是使用该平台创建的。甚至有人谈论在ChatGPT文本中包含数字水印,这是一种便于检测的指纹。
科学史学家、伯克利历史系主任凯瑟琳·卡森(Cathryn Carson)教授表示,像ChatGPT这样的工具存在“巨大的学术诚信问题”。有时,他们产生的散文充满了虚假,并被呈现为真理。此外,就其本质而言,这些机器学习程序吸收了大量未归属的在线文本,并通过一系列复杂的计算将其作为一篇新文章喷出。
“从某种意义上说,这是一个抄袭引擎,”卡森说。“从另一种意义上说,我的教职员工将来不会问一些 ChatGPT 可以轻松回答的问题。我们对让学生复制样板文件不感兴趣。我们有兴趣让他们思考并帮助他们学习如何做得更好。
例如,卡森说,与其要求学生写一篇关于革命战争起因的五段文章,不如要求学生将课堂上谈论的概念与对冲突的更广泛理解联系起来——换句话说,写机器学习工具不知道的细节。
“生成人工智能的流畅性将会提高,”卡森说。“但是,对经验现实的不受束缚或相对不受束缚将仍然存在,因为模型只是预测单词,而不是将它们与下面的现实联系起来。
自 ChatGPT 风靡全球以来的几个月里,伯克利的教学中心为教师组织了网络研讨会,讨论有关 ChatGPT 及其风险的最佳实践。他们推出了一个网站,概述了这些程序和工具构成的威胁。
CITRIS和伯克利Banatao研究所的执行董事Camille Crittenden共同主持了一个小组,专注于与UC系统中AI相关的“学生体验”。她说,她最初对ChatGPT对写作的未来可能意味着什么持怀疑态度。毕竟,文字处理有助于磨练一个人对某个主题的想法。这是高等教育的标志。
“我认为从现在开始,我们应该从根本上假设学生会使用它,”克里滕登说。
她也越来越喜欢它的使用。“如果我们能以这种方式接受它,并让教师帮助他们的学生理解它如何被用作工具,它可以成为一个工具,”她说,“不是作为他们可能创造的东西的替代品,而是一种辅助。
克里斯蒂安(Christian)在2020年出版的《对齐问题》(The Align Problem)一书因其对人工智能影响的评估而广受赞誉,他将当前关于学术诚信的讨论比作一场猫捉老鼠的游戏。教育工作者正在使用基于计算机的工具根除计算机生成的家庭作业。他说,它可能不会保持这种状态。
相反,他认为检测和逃避游戏将让位于老派评估方法的结合 - 想想书面和口头,面对面的考试 - 以及人们普遍接受人工智能工具将在家庭作业中发挥作用。
最终,这可能会重新激发整个大学对创造性合作的兴趣。
“机器学习模型越来越强大,但就其本质而言,它们倾向于反映而不是挑战习惯性叙事和知识创造模式,”克里斯蒂安说。“他们主要在真空中运作。我认为大语言模式可能会改变大学的本科教学,强调原创研究的互动和社会维度。
Chris Hoofnagle教授见证了这种互动层面。
Hoofnagle是伯克利法学教授,也是技术和法律交叉领域的专家,他是越来越多的教师之一,鼓励学生使用ChatGPT等工具。在他看来,当前的代际鸿沟让人想起很久以前律师事务所合伙人的分歧:是否使用电子邮件。没有它,一些律师将足够成功,Hoofnagle说。但最好的人会利用这项技术来发挥自己的优势。
Hoofnagle说,他已经向ChatGPT提出了法律问题,然后指示他的班级评估其答案的优势和劣势。
“问题是,他们能打败ChatGPT吗?”霍夫纳格尔说。
在像法律这样需要大量按部就班、预先格式化的写作的领域,像 ChatGPT 这样的程序可以加快该行业一些最乏味、最重要的部分。起草最初的客户回复信或在财产纠纷期间背诵判例法可以在短短几分钟内突然完成,从而可以更深入地思考其他更棘手的案件。
Hoofnagle说,它甚至可以使法律援助民主化 - 任何需要向房东提交一封充满法律术语的关于老鼠侵扰的严厉信件的人都可以免费起草。它不会是完美的,也不会消除在其他情况下对优秀律师的需求。这不是重点,他说。它只需要“足够好”。
“作为律师,”Hoofnagle说,“他们的工作将是解决这些统计模型无法回答的难题。
至于作弊,Hoofnagle说,一些学生可能会滥用这个系统,“但这些人可能永远不会学到成为一名好律师所需的技能。
ChatGPT 的优势不仅仅是为学生写一篇 500 字的文章。在几秒钟内,通过一些详细的指导,它可以生成写作提示,并在课程大纲上首次通过。它甚至可能有助于加快复杂的拨款申请。
“在某些方面,它可能有助于减轻一些更乏味的行政写作,”克里滕登说。“有很多乏味的写作必须完成。为什么不使用这样的东西呢?
像 ChatGPT 这样的事情远远超出了对作弊或在一定程度上走捷径的道德担忧。全国各地的高等教育官员正在研究工具如何彻底改变大学的运作方式,从使用可以立即回答入学问题的人工智能集成聊天机器人到利用24/7办公时间的虚拟助教机器人。
2020年,加州大学校长迈克尔·德雷克(Michael Drake)委托一个由所有32个校区的10名教职员工专家组成的小组,就如何在大学运营中监督人工智能提出建议。Nonnecke和另一位伯克利人工智能专家Stuart Russell共同主持了该小组。一年后,即 2021 年 77 月,该组织最终确定了 <> 页的报告,德雷克发誓要实施它。
该报告提出了四项主要建议:将UC在采购和监督中负责任的AI原则制度化;建立校园级人工智能委员会,制定评估人工智能技术的战略,并将这些工具记录在公共数据库中。
“我们需要为大学制定适当的护栏,并透明地说明大学如何在其服务中使用这些工具,”Nonnecke说,他现在正在共同主持一个委员会,旨在在整个UC系统中实施该小组的计划。
新的和现有的学术供应商将如何整合聊天机器人,如ChatGPT,还有待观察。目前还不清楚立法如何纳入所有这些讨论。
Crittenden说,就像十多年前社交媒体巨头带来的不可预见的后果 - 从错误信息到增强的不信任 - 一样,知道我们还不知道的事情具有挑战性。“将会有一些权衡,我们无法提前完全理解,”她说。
Nonnecke说,透明度,降低风险并确保用户可以选择提出问题和反击至关重要。就目前而言,这些工具完全掌握在监管和监督乏善可陈的私营营利性公司手中。这在Nonnecke的脑海中提出了另一个问题。
“我们如何加强与这些公司的公私合作伙伴关系,”她说,“以更好地确保我们的公共机构能够从这种变革性技术中获益,使其不仅仅掌握在行业手中?”
历史学家卡森有道德问题,特别是公司如何利用剥削劳动力来过滤有毒内容和构建人工智能平台。卡森希望有机会进行选择和批评,尤其是在科技巨头和高等教育在快速发展的机器学习和人工智能领域发生碰撞的时候。
“我们正处于这项技术的爆炸式增长和营销的爆炸式增长之中,营销在领先于,有时甚至边缘化,对下游后果的仔细思考方面有着良好的记录,”卡森说。“每当你想到技术时,想想权力是如何转移的。这是我们作为一所大学的责任的一部分。
举报/反馈