ミッション
責任あるAI使用の枠組み策定に向けての取り組みは、学術関係者がAIの進化に対応できるよう、明確な基準を確立し、研究出版における責任ある透明性の高いAIの活用を促進することを目指すものです。
AI使用のガイドラインの明確化
私たちエナゴは、研究発表・論文出版におけるAI使用の包括的ガイドラインの策定が必要だと考えます。これにはAIの使用法の明確な分類と、人の目による確認・検証の義務付けなどが含まれます。
AIリテラシー向上
世界中の研究者が、論文作成時のAIツール使用についての倫理やルールを共通認識として分かち合うことが求められています。数値に基づく最新の情報を発信することで、研究に従事するすべてのステークホルダーのAIリテラシー向上を図っていきます。
責任あるAI使用の枠組み策定に向けての取り組み
が喫緊の課題である理由
論文撤回件数の急増
AIに関連する論文の撤回件数が急増しており、科学の信頼性が脅かされています。De大規模言語モデル(LLM)の登場は、AIの生成した論文の投稿件数を増加させて出版システムに大きな負担をかけ、オーサーシップを曖昧にする可能性があります。こうした課題に対し、学術出版会は速やかに対応することが求められています。
研究成果が捻じ曲げられることも
AI生成コンテンツを専門的な人間による確認・検証を経ずに使用する場合、研究の本当の価値が損なわれ、論文撤回につながる可能性があります。人の目による確認が不可欠ですが、その必要性が明確に定義されていないことも少なくありません。そのことは、出版社にとっても著者にとっても好ましくありません。
AI使用ガイドラインの課題: 出版社が対応すべきポイント
情報開示の課題
- 多くの出版社は、著者にAIを使用したことを明記するよう求めています。しかしAIを使用して生成・編集された内容について、人による確認・検証を行うことは必ずしも義務付けられていません。
- AIを使用したことのみの申告では、原稿のAI生成コンテンツが適切に検証され、必要な修正が加えられているかが出版社には分かりません。
- AI生成コンテンツに関し、人間による精査が行われたのか、また誰がどのように精査を行ったのかが開示されない場合、研究の信頼性が疑問に付されます。
AIの使用方法の分類
- 一口に論文原稿作成時のAI使用と言っても、その使い方は単純な文法校正から文書全体の生成まで多岐に渡ります。現時点でそうしたAI使用方法の分類は標準化されていません。
- 標準化された分類がないことで、研究者にとっては、自身のAI使用が適切か否か、あるいはどのような媒体やシチュエーションにおいて許容されるのかが不明確である可能性があります。
- AI使用の定義の不統一は、出版社・媒体の側にとっても、送られてくる原稿の実態把握を難しくしてしまします。

論文著者は様々な疑問を持っています
AI使用に関するガイドラインの不統一 - 困惑する研究者たち
%
の研究者が、出版社に対し、適切なAI利用に関するガイドラインの提示を求めている
%
の研究者が、潜在的な落とし穴、誤り、偏りなどから回避できるような支援を出版社に求めている
%
の研究者が、出版社にAI活用に関するベストプラクティスやヒントの共有を求めている
責任あるAI使用の枠組み
責任あるAI使用とは、出版社の明確なガイドラインと情報に準拠する著者の行いです。出版業界には、次のような枠組みや情報、ツールの提供が求められています。