感谢网友 Xiaozhi 的线索投递!
去各大高校图书馆转一圈,会发现头上一副耳机、手边一杯咖啡,电脑上一个 AI 工具网页几乎成了当代大学生标配。
学生热衷于在 ChatGPT 的帮助下完成作业,教师们却头疼于无法杜绝学生用 ChatGPT 作弊的行为。
人工智能可以根据一个提示,在几秒钟内免费创建整篇论文或研究论文。教师和教授表示,他们迫切需要帮助来打击滥用行为。
《每日邮报》2023 年 1 月 30 报道称,UNSW 的 1 名学生使用 ChatGPT 自动生成论文被抓,这也是全澳第一个使用 AI 技术作弊被抓的学生。
UNSW 人工智能教授 Toby Walsh 表示,各大高校都在评估如何阻止学生使用 AI 技术作弊。随后,新州、昆州和塔州都封锁了校园网络对于 ChatGPT 的访问,以防学生通过该技术作弊。
但 Walsh 教授表示,阻止校园网络访问 ChatGPT 是没有意义的,因为学生们可以通过代理绕过封锁。
「想要彻底阻止学生作弊,只能把他们放在一个没有网络的环境里,给他们一张纸和一支笔。」
CDT 最近进行的一项调查发现,59% 的中学教师确信有些学生使用了 AI 来帮助完成学业,比前一个学年上升了 17 个百分点。
要想靠老师和学校的盯梢,避开 ChatGPT 的诱惑很难办到,解铃还须系铃人 —— 让 AI 企业亲自出马解决抓「AI 枪手」。
据悉,OpenAI 已经开发出一款能够高精度识别 ChatGPT 生成文本的工具,但迟迟未发布。
「文本水印」抓作弊,成功率 99.9%
ChatGPT 由人工智能系统提供支持,生成原理是根据输入内容预测句子中接下来出现的 token。
OpenAI 正在讨论的反作弊工具将稍微改变 token 的选择方式,这些变化会留下一种称为水印的图案。
这些水印肉眼无法察觉,但可以通过 OpenAI 的检测技术发现,检测器提供整个文档或部分文档由 ChatGPT 编写的可能性的分数。
根据内部文件,当 ChatGPT 创建足够多的新文本时,水印的有效率可以达到 99.9%。
虽然准确率超高,OpenAI 工作人员仍然担心,换一种方式可以轻松卡 Bug,通过简单的技术来删除水印。
例如让 Google 将文本翻译成另一种语言,然后再翻译回来,或者让 ChatGPT 在文本中添加表情符号,然后手动删除它们。
另一方面,公司内部普遍认为,谁可以使用该探测器将也是一个棘手的问题。
如果拥有该工具的人太少,工具基本上就没有用处。如果太多人获得访问权限,有些人可能会尝试破译水印技术。
OpenAI 员工也讨论过,直接向教育工作者或外部公司提供检测器,帮助学校识别人工智能撰写的论文和抄袭作品。
谷歌其实也开发过一种水印工具,可以检测 Gemini AI 生成的文本,叫做 SynthID,正处于 Beta 测试阶段,尚未广泛使用。
OpenAI 有一个工具可以确定图像是否是使用文本到图像生成器 DALL-E 3 创建的,该工具于去年春天发布用于测试。
该知情员工表示,该公司优先考虑音频和视频水印而不是文本,因为其危害更为严重,尤其是在美国繁忙的选举年。
AI 文本分类器
早在 2023 年 1 月,OpenAI 就发布了一种算法,旨在检测多个 AI 模型(包括其自己的模型)编写的文本。
但它的成功率仅为 26%,七个月后 OpenAI 就将其撤回。
其他公司和研究人员还开发了一些工具来检测人工智能创建的文本,许多教师表示他们已经使用过这些工具。
但它们有时无法检测由高级大语言模型编写的文本,并且准确率很低,可能产生误报。
最近在佐治亚州一所私立高中任教的教育工作者人工智能顾问 Mike Kentz 表示,起初,学生们确实被震慑到,以为老师们已经完全掌握了一种方法,可以弄清楚他们是否使用了人工智能代写。
但到了年底…… 他们慢慢发现,等一下,我的老师好像不知道。
一些老师鼓励学生使 AI 来帮助研究或提供想法反馈。但问题是,当学生使用像 ChatGPT 这样的应用程序来完成所有工作时,学生甚至不会去检查自己交的是什么。
去年,犹他大学政治学教授 Josh McCrain 给学生布置了一份写作作业,作业要求插入了难以辨认的小文字,其中提到了和作业无关的蝙蝠侠。
如果他们将作业复制并粘贴到人工智能中,作业提示内容就会被合并,「蝙蝠侠」就会干扰作业内容。
果然,少数学生提交了作业 —— 一篇蝙蝠侠论文。
McCrain 教授正在调整写作作业,更多地关注人工智能不太熟悉的时事,并恳求学生不要将他们的工作外包给人工智能。
「这就是我试图向学生们强调这一点的地方:你需要自己学习这些东西。」McCrain 教授说。
争论不休
知情人士称,有关水印工具的讨论早在 OpenAI 于 2022 年 11 月推出 ChatGPT 之前就已经开始。
它是由计算机科学教授 Scott Aaronson 开发的,过去两年他在得克萨斯大学休假期间一直在 OpenAI 从事安全工作。
2023 年初,OpenAI 联合创始人之一 John Schulman 在一份共享的 Google 文档中概述了该工具的优缺点。
OpenAI 高管随后决定,在采取进一步行动之前,他们将征求一系列人士的意见。
在接下来的一年半时间里,OpenAI 高管反复讨论,并寻求新数据集优化算法,犹豫是否发布该技术。
内部文件显示,2023 年 4 月,OpenAI 委托进行了一项调查,结果显示,世界范围的人们以四比一的比例支持人工智能检测工具的想法。
同月,OpenAI 对 ChatGPT 用户进行了调查,发现 69% 的人认为作弊检测技术会导致使 AI 技术错误指控。
近 30% 的人表示,如果 ChatGPT 部署了水印功能,而竞争对手没有部署水印,他们会减少使用。
另外,OpenAI 内部还有一种反对的声音是反作弊工具可能会损害 ChatGPT 的写作质量。
知情人士称,OpenAI 今年早些时候进行了一项测试,发现文本水印不会降低输出质量。
6 月初,OpenAI 高级员工和研究人员再次聚会讨论该项目。该组织一致认为水印技术效果良好,但去年的 ChatGPT 用户调查结果仍然是一个头疼的问题。
内部文件显示,OpenAI 需要在今年秋天之前制定一项计划,围绕 AI 透明度以及相关潜在新法律来左右公众舆论 ——
「如果做不到这一点,我们就有可能失去负责任企业的信誉。」
参考资料:
-
https://www.wsj.com/tech/ai/openai-tool-chatgpt-cheating-writing-135b755a?mod=tech_lead_story
本文来自微信公众号:微信公众号(ID:null),作者:新智元,原标题《OpenAI 开发 ChatGPT「反作弊神器」,99.9% 超高命中率!但没发布》