在科技迅速发展的今天,人工智能(AI)工具如 ChatGPT 被广泛应用于各个领域,尤其是在教育和科学研究的简化解释上,然而,专家们对于依赖这些工具来总结科学研究的风险提出警告。 根据一项为期一年的评估,虽然 ChatGPT 能够对科学研究论文进行相对不错的总结,但其在准确性和细微差别的把握上却存在显著的不足。
科学研究论文通常充满了技术术语和复杂的语言,这使得普通人难以理解其中的突破性成果。 这正是科学记者的角色所在,他们负责撰写简明易懂的文章,帮助读者理解这些成就。 最近,科学期刊的新闻办公室和科学新闻包团队(SciPak)开始测试ChatGPT Plus,旨在评估其是否能够以更简单的语调准确传达讯息。
经过一年的测试,团队发现ChatGPT生成的总结往往「为了简单而牺牲准确性」,并且需要「大量编辑以去除夸张」。 他们指出,ChatGPT对于「突破性」这一词的偏爱,显示出AI在用词上的过度使用,这甚至影响了我们日常的交流方式。
在测试中,团队每周使用ChatGPT的付费版本撰写两篇研究论文的三个独特总结,这些总结随后由人类写手进行评估。 虽然ChatGPT并非完全失败,但在科学研究和交流中至关重要的细微差别上表现不佳。 白皮书中指出,ChatGPT目前版本在细节把握及研究局限性说明等方面仍有明显不足,无法为非专业观众合成或翻译研究结果。
一名人类写手表示,ChatGPT的总结可能会破坏信任。 他指出,当面对信息密集、细节繁多且复杂的研究时,ChatGPT最终会回归到行话的使用。 这些发现引发了对于AI在科学沟通中角色的深思,专家们呼吁在使用这些工具时应保持谨慎。
值得注意的是,OpenAI于今年7月推出的深度研究(Deep Research)功能,进一步强化了ChatGPT的数据综整与分析能力,虽然仍处于限量测试阶段,且对安全风险有严格控管。 此外,ChatGPT与Operator智能体的结合,使其除了生成文字外,能主动在网站作与资料筛选,扩展了研究助理的工作范畴。 根据OpenAI与哈佛经济学家合作的研究,截至今年7月,ChatGPT周活跃用户已达8亿,显示出AI工具在教育、科研等多领域的广泛影响力与风险并存。