エナゴのミッション
責任あるAI使用の枠組み策定に向けての取り組みは、急速に進化する研究出版環境において、透明性のある倫理的なAI使用を推進するためのものです。
世界の最新動向を反映した枠組み
全ての研究と学術出版を倫理的かつ正確にできるよう、出版社や大学と連携し、学術出版におけるAIの動向に関する情報を共有していきます。
AIリテラシー向上
世界中の研究者や学生が研究や学習においてAIを活用する際に、倫理性や透明性を確保できるよう促します。
責任あるAI使用の枠組み策定に向けての取り組み
が喫緊の課題である理由
論文撤回件数の急増
AI使用に関連する論文の撤回件数が急増しており、科学の信頼性が脅かされています。大規模言語モデル(LLM)の登場は、AIの生成した論文の投稿件数を増加させて出版システムに大きな負担をかけ、オーサーシップを曖昧にする可能性があります。こうした課題に対し、学術出版に関わる業界には速やかな対応が求められています。
研究成果が捻じ曲げられることも
AI生成コンテンツを専門的な人間による確認・検証を経ずに使用する場合、研究の本当の価値が損なわれ、論文撤回につながる可能性があります。人の目による確認が不可欠ですが、その必要性が明確に定義されていないことも少なくありません。そのことは、出版社にとっても著者にとっても好ましくありません。
AI使用ガイドラインの課題
情報開示の課題
- AI使用に関する出版社ポリシーの多くでは、AIを使用したことの申告が著者に義務付けられていますが、AIによって生成された全ての文が、しかるべき人の手で精査された状態にはなっていません。
- コンプライアンスを検証するための監査や認証の標準は現時点では存在せず、編集者は投稿者を信頼するか、各種の検出ツールに頼らざるを得ません。
AIの使用方法の分類の課題
- 一口に論文原稿作成時のAI使用と言っても、その使い方は単純な文法校正から文書全体の生成まで多岐に渡ります。現時点でそうしたAI使用方法の分類は標準化されていません。
- 標準化された分類がないことで、研究者にとっては、自身のAI使用が適切か否か、あるいはどのような媒体やシチュエーションにおいて許容されるのかが不明確である可能性があります。
- AI使用の定義の不統一は、出版社・媒体の側にとっても、送られてくる原稿の実態把握を難しくしてしまいます。

論文著者は様々な疑問を持っています
AI使用に関するガイドラインの不統一―
困惑する研究者たち
こうした課題への取り組みは、進化するAIを今後、研究者たちが自信を持って有効に使い続けていく上で、不可欠だと思われます。
%
の研究者が、出版社に対し、適切なAI利用に関するガイドラインの提示を求めている
%
の研究者が、潜在的な落とし穴、誤り、偏りなどから回避できるような支援を出版社に求めている
%
の研究者が、出版社にAI活用に関するベストプラクティスやヒントの共有を求めている
責任あるAI使用の枠組み
責任あるAI使用は、明確な出版社ガイドラインがあり、それを論文著者が十分に把握することではじめて可能になります。