过去的几个月里,科技界一直在热议最近公之于众的新人工智能(AI)模型——ChatGPT。
该项目由OpenAI在2022年底推出,展示了一个具有独特语言能力的语言模型,能够理解自然语言,产生类似人类的反应以及从大量数据中学习。
它的出现代表着人工智能技术的发展向前迈出了重要一步,可以更细致地模仿人类的语言和交流。
虽然这项技术的出现无疑具有重要的进步意义,但它也向学者和出版商提出了新的问题。
如果ChatGPT可以将写作复制到几乎与人类无差别的状态,那么该如何在研究和出版中利用它?使用这样的工具合乎规范吗?
ChatGPT有可能改变学术论文和其他学术内容的写作方式。
摘要(abstracts)、总结(summaries)和其他关键要素只需一个提示即可自动生成,这将节省时间,提高效率,甚至可以帮助作者确定自己工作中的关键要素。
然而,关于生成文本的质量仍然存在激烈的争论,因此在考虑将ChatGPT作为写作工具时应当谨慎行事。
尽管如此,未来的文本生成AI不但可以帮助不擅长写作的科学家写出连贯顺畅的论文,甚至还可以帮助把数据翻译成不同的语言。
无论如何,重要的是需牢记人工智能技术仍处于起步阶段,使用它有可能出现写作质量差、内容误导和期刊被拒的情况。
ChatGPT和类似的人工智能模型有一些非常严重的缺点。ChatGPT可以被用来生成带有剽窃性质的内容或以误导或不道德的方式操纵数据。
用过ChatGPT的人(在本文写作时ChatGPT还是免费的),会发现它会对同一问题给出许多不同的回答,这些答案虽然是正确的,而且在很大程度上与人类写作没有什么区别,但充满了冗余和模糊的信息。
因此,用ChatGPT写的论文很可能质量较低且缺乏原创性。对于高度重视新颖性的学术出版来说,这是个很严重的问题。
一位图书管理员的分析表明,聊天机器人寻找优质原始资料的能力也很差,而且它在提供引文方面“惨败”。
此外,如果研究人员越来越依赖人工智能来生成他们的内容,那么这可能会导致他们的批判性思维和写作能力萎缩。
更糟糕的是,如果ChatGPT或其他类似模型变成付费才能使用,那么就可能会在低收入国家的研究人员和那些有足够资金利用AI生成的研究人员之间产生一种不公平的情况。
使用AI模型的最大问题之一是缺乏质量控制。虽然像ChatGPT这样的AI语言模型可以快速生成大量的文本,但存在生成内容的质量达不到学术出版所需标准的风险。
重要的是要有适当的质量控制措施,以确保内容的准确性、相关性和可靠性。我们如何能确定随便一篇文章是不是由人工智能生成的呢?
有人可能认为识别机器人语言很容易,但最近的一项研究发现,由ChatGPT生成的“假”摘要中只有68%被审稿人识别出来。
这意味着未来可能会有大量的AI生成的内容被发表,尤其是当这些模型变得更加复杂并且能够规避人类读者的检测时。
ChatGPT的惊人表现强调了有必要为在学术论文中使用AI制定强有力的指导规范。《自然》杂志最近发表了一篇文章,指出有些作者已经开始在他们的投稿中使用ChatGPT。
虽然争论目前仍在持续进行,并可能在未来几年成为一个热门话题,但有些期刊已经禁止将ChatGPT列为论文的共同作者。
虽然AI不能被列为作者,主要是因为作者身份涉及对文章的责任,但如果在文中准确记录使用AI的方方面面,仍然可以将AI用作准备稿件的工具。
最后,ChatGPT并不是这个领域唯一的AI。它最近的成功无疑会催生竞争对手,而且也已经开发出来用于其他目的的模型。
网络上已经有AI生成的以政客和名人为主角的喜剧性语音、图像和视频(“deepfakes”),甚至还有用AI制作的整档节目,这表明AI的潜在用途相当深远。
出版业只是AI正在影响的一个领域,而ChatGPT的诞生只是技术发生更大转变的征兆。
当我们无法从神经网络的创作中辨别现实时,当我们自己的写作与机器写作无法区分时,问题就来了。
展望未来,很明显,研究人员和出版商需要协商确定,该领域什么做法可以接受,以及未来的指导规范需要什么措施来得以执行。
联系我们 | 站点地图 | 友情链接 | 授权代理商 | 加入我们
© 2010-2024 中国: LetPub上海 网站备案号:沪ICP备10217908号-1 沪公网安备号:31010402006960 (网站)31010405000484 (蝌蝌APP)
增值电信业务经营许可证:沪B2-20211595 网络文化经营许可证:沪网文[2023]2004-152号
礼翰商务信息咨询(上海)有限公司 办公地址:上海市徐汇区漕溪北路88号圣爱大厦1803室