中国科技报 07月11日 02:17
[要 闻] 明确应用边界 完善规则指南
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

人工智能正深刻影响学术出版,提升效率的同时也带来新挑战。专家指出,过度依赖AI可能导致编辑丧失独立性,并引发学术诚信和创新风险。文章探讨了AI在审稿环节的潜在风险,以及如何通过数据安全措施和明确的规则来规范AI应用。行业虽已制定相关指南,但在具体细节上仍需完善,同时强调技术监管的重要性,以保障学术出版的健康发展。

💡 AI在学术出版中的应用日益广泛:人工智能大模型技术在科技期刊写作与出版领域得到应用,显著提升了学术出版服务效能,例如知网90%以上的文献加工、编排和标注工作都已实现机器智能完成。

⚠️ AI深度介入带来的潜在风险:AI在审稿环节的应用可能导致稿件泄露的风险。此外,过度依赖AI可能会对学术创新构成挑战,因为AI生成内容主要依赖历史语料,并存在算法偏见。

✅ 应对挑战的建议:建立完善的数据安保措施和本地化向量库,确保数据安全;制定明确的规则,界定AI的使用场景和程度,例如《学术出版中的AIGC使用边界指南2.0》;加强技术监管,例如知网提供的生成式人工智能检测工具。

AI深度介入学术出版带来新挑战,专家建议——

    ◎本报记者 薛 岩

    “现在有了人工智能技术,编辑如果过多依靠人工智能来判断文章价值,就会丧失自身的独立作用,形成‘AI依赖症’。”在7月10日举办的中国科协年会平行论坛——2025中国科技期刊发展论坛上,同方知网数字科技有限公司副总经理、总编辑肖宏表示,要积极应对AI深度介入学术出版带来的新挑战。

    当前,人工智能大模型技术迅猛发展,特别是生成式人工智能在文本理解和处理方面的突破,正深度融入科技期刊写作与出版领域,显著提升学术出版服务效能。

    肖宏表示,知网每天要加工文献3万余篇,90%以上的文献加工、编排和标注工作都已实现机器智能完成。然而,当AI深度介入知识生产核心环节,其引发的潜在风险也引发了学者们广泛关注。

    以审稿环节为例,人工智能技术可以快速搜索分析海量的文献和网页知识,进行信息汇总与分析,为审稿人提供有价值的参考意见。但当人工智能技术深度嵌入审稿流程,也可能会带来稿件在发表前泄露的风险。

    为此,肖宏建议,建立完善的数据安保措施和本地化向量库,这样既能确保数据不出境、保障安全,又能支持外部专家调用数据进行审稿。

    “过分地依赖人工智能可能会对学术创新构成挑战。”中国高校科技期刊研究会理事长张铁明表示,学术研究本质是创新性劳动,需要深层次思考。而人工智能生成内容主要依赖历史语料,也存在算法偏见,使用不当不仅会有损于研究的创新性,还会引发学术诚信、学术伦理等风险。

    目前,针对生成式人工智能在学术出版中的应用边界、编辑把关尺度等核心问题,行业尚未达成共识,这也成为规范其应用、保障学术创新的重要难题。

    “关键在于要制定明确的规则。”张铁明表示,目前,国内的一些行业协会、出版机构已经制定人工智能应用于学术出版的相关指南、规则,包括《学术出版中的AIGC使用边界指南2.0》等。但在细节制定上仍需进一步完善,包括明确界定“何种场景下可使用AI”“使用程度如何”等问题。

    这些具体规则的落地实施,也离不开有效的技术监管手段作支撑。

    作为国内的学术资源平台之一,中国知网近年来在学术成果检测方面进行了积极探索。目前,知网已构建覆盖大量中英文献及引文数据的学术大数据体系,并研发出一款生成式人工智能检测工具,供学校和科研机构使用。

    “我们旨在为学校、机构提供了一个客观的检测工具。”肖宏表示,至于具体的重复率、相似比阈值设定是否合适,还需要各单位根据自身学术标准和具体情况来确定。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

人工智能 学术出版 AI风险 科技期刊 学术规范
相关文章