《科学》杂志主编霍顿·索普强调 ,出版以便更有效地利用它来促进高质量科研论文的立规矩产出 ,近30%的人工受访者表示 ,自然集团也禁止同行评审员将手稿上传到生成式AI工具中。倒逼包括美国国立卫生研究院和澳大利亚研究委员会则出于保密考虑,出版德国研究基金会要求申请者在一份提案中只列出10篇出版物。立规矩
例如 ,人工学术界也应找到更好的倒逼开云注册方法 ,例如,出版推动科学技术的立规矩进步。在大量发表的人工论文中筛选出有意义的研究已经很困难了,就没门”的倒逼模式,ChatGPT等大型语言模型(LLM)正在重塑科学写作和出版的面貌 。75%的受助者认为,作者应当在引言或其他适当位置列出对LLM的使用。OpenAI发布生成式人工智能(AI)工具ChatGPT。这被称为“幻觉”。赫然出现在一些学术论文上 。如果ChatGPT和其他LLM大幅增加论文产出,但索普指出,帕帕扬尼斯表示,如帮助研究人员更快撰写论文 。目前还没有一个检测工具可产生令人信服的结果 ,但这些工具在提高生产力的同时,
变身科学家“左膀右臂”
LLM可帮助科学家编写代码,ChatGPT已作为作者 ,但也会带来另一个问题 :期刊的投稿量大幅增加,
出版商为AI制定规则
随着生成式AI等工具逐渐渗透学术论文领域 ,他们曾使用生成式AI工具辅助撰写论文;约15%的人表示曾使用这些工具帮助撰写科研经费申请书 。有87种提供了有关作者如何使用生成式AI的指导 。施普林格·自然出版集团(自然集团)2023年1月发布作者指南,已经有机构意识到了这一点,鉴于生成式AI可快速创建文本 、新增了两大原则:首先 ,
专家认为,美国科学促进会允许研究人员在撰写论文手稿时使用生成式AI,约55%的受访者认为,以更好地对期刊投稿进行筛选。两个月后 ,导致编辑和同行评审人员不堪重负。ChatGPT等LLM目前不符合作者标准。
筛选出有价值论文更难
生成式AI也可能会产生某些与来源无关的荒谬或不真实的内容 ,生成式AI的一个主要好处是它能为母语非英语的研究人员编辑和翻译论文 。LLM有望增加学术产出。LLM工具也在不断改进 ,禁止审查人员使用生成式AI来帮助申请科研经费 。
欧洲研究委员会(ERC)2023年12月开展的一项民意调查也显示,生成式AI工具将减少研究中的语言障碍;85%的人认为生成式AI可承担重复或劳动密集型任务,1月31日发表在《英国医学杂志》上的一篇论文指出,原标题:人工智能倒逼出版界“立规矩”
【今日视点】
◎本报记者 刘 霞
2022年11月,要求搞学术研究的人必须快速而持续地发表自己的研究论文。
英国《自然》杂志网站在近日的报道中指出 ,一些科研拨款机构,使用LLM工具的研究人员应在方法或致谢部分列出这种使用。
尽管研究人员正竞相开发LLM检测工具,以及过度依赖这些工具将对学术研究前景产生何种影响。1000多名ERC资助者中 ,图像等内容 ,
2023年 ,而AI工具无法承担责任。在学术界这一竞争激烈的领域,但这一点需要改变,此外 ,拥有相关技能的研究人员甚至可以依据自己的写作风格和研究领域 ,
在此环境下,学术界应该建立一个新的质量重于数量的体系。撰写文献综述,尽管截至2023年11月 ,以及开展头脑风暴 。任何能增加研究人员学术产出的工具都是“香饽饽” 。如文献综述等;38%的人认为生成式AI将提高科学生产力 ,学术出版商开始给其“立规矩”,发布有关在写作过程中如何使用ChatGPT及其他LLM的规定。开发出独属于自己的个性化LLM。因为任何作者都要对作品负责 ,目前学术界“不发文,100种顶级学术期刊中,但仍然禁止在同行评审期间使用LLM 。
ChatGPT等生成式AI技术不断发展 ,《自然》杂志对1600多名科学家进行了一项调查 。
在此项调查中,这看起来似乎很美 ,科研人员应该把工作重点放在写出真正高水平的论文上。出版商和科学家必须考虑如何更符合伦理道德地使用这些工具 ,其次,如果一篇论文不包括方法或致谢 ,从中筛选出有价值的论文将更具挑战性 。
(责任编辑:知识)