7小时写一本书!有人已经用ChatGPT赚稿费了,年入6位数美金
文/徐永倩
商务君按:能写文章、编代码,仅用7小时就写成一本书。当人们慨叹ChatGPT强大的功能时,它已悄悄“革”了自己的“命”。近日,多模态预训练大模型GPT-4横空出世,与此前ChatGPT所用的模型GPT-3.5相比,它的文本处理量扩大至2.5万个单词,还能处理图像内容。在用户同时输入文本和图像的情况下,能够生成自然语言和代码等文本。
越来越智能的ChatGPT给内容生产领域带来了新的挑战。当出版业遇到ChatGPT,我们的工作和生活会怎么样呢?
OpenAI的首席执行官山姆·阿尔特曼(Sam Altman)也没有想到,一个为了和竞争对手抢夺先机,帮助公司重新赢得行业关注,在两周内“草草赶制”的计划外产品,能浇灭“元宇宙”热浪,成为新一代的科技引爆点。ChatGPT收获百万级用户量仅用了5天时间。
事实上,聊天机器人并不是新鲜概念。早在2016年,国内外科技巨头便开始布局聊天机器人领域。在客服和搜索引擎等商业场景里,智能聊天程序更是得到了广泛应用。最后却只有ChatGPT能引起全民狂欢。究其原因,还是因为这回人工智能真的动了人脑的“蛋糕”。
严格来说,ChatGPT早已不是聊天机器人,更不是搜索引擎。之所以震惊全球,是因为它能做到两件事:理解我们对它提出的要求,同时生成的文本不管内容还是形式都合乎常理。这是不是已经和人脑的某些功能有些类似了?
甚至在某些方面,它能比人脑更极致:ChatGPT的“养料”——数据库,只要开发进程仍在继续,其容量突破PB并不是问题(PB:Petabytes,是计算机存储容量单位,1PB=1024TB)。
没有思维,不能思考,但可以撰写文案,完成翻译、写代码等任务。不仅如此,它还能生产出类似图书、论文这种高度浓缩人类智慧的产物。是的,ChatGPT能“创作”。
虽然无意,但更加智能的ChatGPT确实给内容生产领域带来了新的挑战。纵观出版界,有人热烈欢迎,也有人明令禁止。
担忧和威胁
其中,权威学术期刊《自然》(Nature)杂志明确表态,认为ChatGPT和类似的技术工具的发展,对学界透明度产生了极大的威胁。
期刊主编霍尔顿·索普(Holden Thorp)更是直公开表示,“《自然》不会接受语言模型工具以作者的身份出现在杂志上,因为人类作者发布作品后,在收到关注和稿费的同时还要对内容的真实性、准确性负直接责任。我们不可能让AI工具承担这种责任,也无法向其追责。”
同时,期刊在官方声明中也规定,如果学术研究人员在创作论文的过程中使用了ChatGPT这类工具,需要在文稿中说明使用详情,否则可被视为学术剽窃。
在《自然》看来,不管是哪种技术正在流行,对科学的研究过程以及相关文字产品的创作过程的方法和依据都是公开透明、有迹可查的。现实是,无论是借助ChatGPT进行研究,还是全由ChatGPT撰写文稿,知识生产过程中的透明度和信任度根本无法维持。
这也是《自然》一直坚持的原则:学术研究必须要保证方法透明,学术出版物的作者要诚信、真实。这是科学赖以进步的基础。
美国《科学》(Science)杂志则提到,他们与其供稿作者的协议中有一条要求,“登刊作品必须是原创的”,“所以我们不能接受由ChatGPT生成的文稿”。“对科学研究尽可能地做出客观记录是人类为解决重要问题所做的努力之一。技术虽然重要,但只是帮助研究学者提出假设、设计实验和理解结果的工具。最终,论文还是要靠‘人脑’独立产出的。”
ChatGPT不仅带来了学术伦理问题,其背后还暗藏了许多法律风险。
放射界期刊《放射学》(Radiology) 认为在使用由ChatGPT或其他语言模型生成的稿件时,版权问题首当其冲。“如果这些AI生成的文稿被用于商业用途,必须要保证使用时不能侵犯现有的任何版权。如果采用由人工智能创建的放射学报告时引发了医疗事故,也将随之产生归责问题。”
不少出版商还提出,轻易对ChatGPT“放行”还会引发著作权和知识产权等侵权行为。
除此之外,ChatGPT是基于信息生成文本的,最后呈现的结果不仅和其学习数据库有关,还与训练它的对话模板有关。
其学习模型极度依赖数据库的丰富程度和体量大小,如果学习材料不够多,那它生成的内容容易以偏概全,产生常识性与事实性错误。而且基于其数据库里的观点倾向,还有可能生成诸多暗含极端价值观的内容。而当前版本的ChatGPT并不提供任何内容准确性、事实性以及观点倾向性的评估。
现阶段,法律层面还未厘清ChatGPT的行为边界,无法准确辨别出有ChatGPT“痕迹”的稿件,这成为多数出版机构拒绝ChatGPT的直接原因。
在去年年底,美国西北大学展开了一项研究,研究者要求ChatGPT根据发表在《美国医学会杂志》(JAMA)、《新英格兰医学杂志》(NEJM)、《英国医学期刊》(BMJ)等行业权威期刊上的精选文章,撰写出50篇医学研究摘要。然后让抄袭检测器和人工智能输出检测器以及医学领域审稿人同时对这些摘要进行识别,并要求医学领域审稿人找出ChatGPT编造的摘要。
结果显示,ChatGPT生成的摘要顺利通过了抄袭检测器,人工智能输出器只找出了66%的生成摘要,审稿人仅正确识别了68%的生成摘要和86%的真实摘要。
同时高昂的检测成本也让出版机构望而却步。美国科幻杂志《克拉克世界》(Clarkesworld)的主编尼尔·克拉克(Neil Clarke)公开表示,这类AI生成稿件的投稿数量增长得非常快,如果出版社打算用第三方工具来检测出这类稿件,那将是一笔不小的开支。
“而且这些第三方工具也不见得有效,还需要社里调配大量人力核验这些作品。”“无论是时间成本还是资金投入,这都不是一家普通出版社能承担的。”他补充道。
拥抱和狂欢
也有学者提出,出版机构不应将ChatGPT视为威胁,可以通过“改造”物尽其用,把它当作更高效、便捷的信息处理工具。毕竟高效地产出更有可能带来高额收益。
国际期刊出版集团康泰纳仕(Condé Nast )的渠道战略全球执行董事莎拉·马歇尔(Sarah Marshall)认为ChatGPT在帮助出版界进化。“它确实可以让我们节省很多时间。集团里的每个部门都在尝试如何才能最好发挥ChatGPT的能效。毫无编程基础的员工用它生成自动化办公的操作代码。编辑还会用它来翻译国际上的专题文章。它还可以为平台读者提供个性化的阅读建议。”
在他看来,ChatGPT并不会让编辑和作者失业,只会让工作流程变得更高效。
BBC内容自动化专家和执行产品经理大卫·卡斯威尔(David Caswell)也是积极拥抱ChatGPT队伍中的一员。在他看来,ChatGPT的背后是新一代生成性人工智能引发的又一场信息革命,“这次的影响力和20世纪90年代初的互联网革命一样猛烈。”
“这种技术就像电一样,不仅非常容易使用,而且产出的内容是能马上投入使用的。这种普遍性和颠覆性足以成为一股扫荡全球的创新力量。”“我们现在也在尝试把汇总文章和简报的工作交给ChatGPT,同时采编部和多媒体部也用ChatGPT来核查事实、清洗数据、大批量调整图片格式以及制作音视频。”
与部分内容媒体和出版集团还在探索使用ChatGPT的最佳方式不同,对亚马逊来说,新的出版方式已经开启。
不少业余作家通过向ChatGPT下达简单的提示生成文本块,从而在几个小时内就能完成一本几十页的电子书,并通过亚马逊Kindle平台的自助出版服务直接出售,快速获利。到2月中旬,亚马逊Kindle商店中,在作者和合著者一栏里填有“ChatGPT”的图书已经超过200本。而这个数字还在不断被刷新。
就在2月22日,韩国出版商SnowfoxBooks发行了全球首本由ChatGPT撰写、AI翻译校对的实体书。出版方披露,ChatGPT只用了7小时就完成了《寻找人生目标的45种方法》(45 Ways to Find the Purpose of Life)必要的信息收集和数据研究工作,还用英文撰写了135页内容。之后,出版机构采用智能AI翻译应用Papago,在2小时内将内容翻译成了韩文。
现在在YouTube、TikTok和Reddit等平台上,“如何用ChatGPT在几小时内完成一本书”的视频频频登上热榜,并且所生成的图书类别也十分多样,不仅有经管类、生活类,连专业程度较高的开发代码主题也有涉及。
除了一些写作新手在用ChatGPT写书,专业作家们也开始用ChatGPT写作了。推理小说家詹妮弗·莱普(Jennifer Lepp)直言,自己有7部作品正在用ChatGPT进行创作。
“标题、导语,连故事情节都由ChatGPT生成。”莱普负责后期的调整润色部分。莱普说,合理的作案动机、严丝合缝的推理过程以及凸显张力和人性的情节脉络,ChatGPT完全能胜任处理推理文中这些最具挑战的部分。
同时,在AI的帮助下,她几乎一个月左右就可以写完一本新书。目前她已经出版了26本小说,年收入达到了6位数美金。
虽然,ChatGPT回答自己不能替代作家、记者或者编辑,众多测评也验证了现阶段ChatGPT生成的文稿缺乏思想性和情感共鸣。但根据其运作原理来看,只要用更充分的模板规范其对话模式和对话内容,并且用人类的要求来调节模型,引导它往人类价值标准上靠拢,ChatGPT何时能生成极具创意和情节的小说,也只在于技术更迭的速度。
就像澳大利亚国立大学国家公众意识科学中心访问学者丹尼·金斯利(Danny Kingsley)说的那样,即使当下禁止ChatGPT以作者的身份进入某些领域,但未来人工智能将普遍存在于我们的生活中。
一直以来,面对科技发展,人类似乎始终相信,能被机器代替的一定是那些“唯手熟尔”、毫无创造性、没有人文价值的职业岗位。但是当需要发挥创意的工作都能被AI取代时,人类思想该被置于何种地位?人类的价值何在?其实威胁人类的并不是ChatGPT,而是其背后的“大语言模型”之潮。