学術出版社の皆さまへ
責任あるAI 使用の枠組み策定に向けて

研究の信頼性を、連携と教育を通じて守る

ミッション

責任あるAI使用の枠組み策定に向けての取り組みは、学術関係者がAIの進化に対応できるよう、明確な基準を確立し、研究出版における責任ある透明性の高いAIの活用を促進することを目指すものです。

AI使用のガイドラインの明確化

私たちエナゴは、研究発表・論文出版におけるAI使用の包括的ガイドラインの策定が必要だと考えます。これにはAIの使用法の明確な分類と、人の目による確認・検証の義務付けなどが含まれます。

AIリテラシー向上

世界中の研究者が、論文作成時のAIツール使用についての倫理やルールを共通認識として分かち合うことが求められています。数値に基づく最新の情報を発信することで、研究に従事するすべてのステークホルダーのAIリテラシー向上を図っていきます。

責任あるAI使用の枠組み策定に向けての取り組み
が喫緊の課題である理由

論文撤回件数の急増

AIに関連する論文の撤回件数が急増しており、科学の信頼性が脅かされています。De大規模言語モデル(LLM)の登場は、AIの生成した論文の投稿件数を増加させて出版システムに大きな負担をかけ、オーサーシップを曖昧にする可能性があります。こうした課題に対し、学術出版会は速やかに対応することが求められています。

研究成果が捻じ曲げられることも

AI生成コンテンツを専門的な人間による確認・検証を経ずに使用する場合、研究の本当の価値が損なわれ、論文撤回につながる可能性があります。人の目による確認が不可欠ですが、その必要性が明確に定義されていないことも少なくありません。そのことは、出版社にとっても著者にとっても好ましくありません。

AI使用ガイドラインの課題: 出版社が対応すべきポイント

AI使用に関する現在のガイドラインは、急速に進化する技術に必ずしも追い付いているわけではありません。学術出版への信頼を維持できるよう、研究者たちに、現状を反映した明確なガイドラインが提供される必要があります。

情報開示の課題

  • 多くの出版社は、著者にAIを使用したことを明記するよう求めています。しかしAIを使用して生成・編集された内容について、人による確認・検証を行うことは必ずしも義務付けられていません。
  • AIを使用したことのみの申告では、原稿のAI生成コンテンツが適切に検証され、必要な修正が加えられているかが出版社には分かりません。
  • AI生成コンテンツに関し、人間による精査が行われたのか、また誰がどのように精査を行ったのかが開示されない場合、研究の信頼性が疑問に付されます。

AIの使用方法の分類

  • 一口に論文原稿作成時のAI使用と言っても、その使い方は単純な文法校正から文書全体の生成まで多岐に渡ります。現時点でそうしたAI使用方法の分類は標準化されていません。
  • 標準化された分類がないことで、研究者にとっては、自身のAI使用が適切か否か、あるいはどのような媒体やシチュエーションにおいて許容されるのかが不明確である可能性があります。
  • AI使用の定義の不統一は、出版社・媒体の側にとっても、送られてくる原稿の実態把握を難しくしてしまします。

論文著者は様々な疑問を持っています

Q.
ガイドラインで、AIツールの使用の有無についてのみ開示の義務が定めらており、人間による精査・検証が必要とされていない場合、AI生成コンテンツをそのまま出版できるのか?
Q.
文法や文構造のチェックにAIツールを使った場合でも、AIの使用を細かく開示する必要があるのか?それとも大まかな説明だけで大丈夫なのか?
Q.
データ分析にAIを使い、文章自体は自分で書いた場合、AIツールの使用を原稿内で開示しなければならないか?
Q.
先行研究のパラフレーズや要約にAIを使ったものの、着想や引用の選択は自分で行った場合、そのまま申告しなくて大丈夫?それとも、AIの使用方法を細大漏らさず記入しなければならないのか?
Q.
複数著者の論文において、そのうち1人だけがAIツールの助けを借りて執筆を行った場合、出版社および査読者に対する透明性を担保するため、そのことについて開示する必要があるのか?

AI使用に関するガイドラインの不統一 - 困惑する研究者たち

多くの研究者たちにとって、責任あるAIツールの使用とは何なのかが分かりづらいのが現状です。1つの要因として挙げられるのが、それに関わるガイドラインの不統一です。標準指針の不在は、研究者たちの情報開示にバラつきをもたらし、不適切なAIツール使用にもつながり、ひいては出版社にとっての大きなリスクともなります。

%

の研究者が、出版社に対し、適切なAI利用に関するガイドラインの提示を求めている

%

の研究者が、潜在的な落とし穴、誤り、偏りなどから回避できるような支援を出版社に求めている

%

の研究者が、出版社にAI活用に関するベストプラクティスやヒントの共有を求めている

責任あるAI使用の枠組み

責任あるAI使用とは、出版社の明確なガイドラインと情報に準拠する著者の行いです。出版業界には、次のような枠組みや情報、ツールの提供が求められています。

フレームワーク

AI使用に関する開示条件、AIを使用して得られたものを人間が精査・検証する義務や条件、AI使用の用途・方法の分類に関するガイドラインなどを、個々の出版社を超えて標準化するための実践的なフレームワーク。業界標準との整合性を確保するための既存のガイドラインの検証と修正。
ガイドラインを見る

白書&ツールキット

AI生成コンテンツを効果的に特定、開示、管理するための実践的なホワイトペーパーとツールキット。編集部と著者が責任あるAI利用と適切な開示を確実に行うための情報・ツールです。

有識者とのパートナーシップ

AI倫理の専門家との会議やイベントを通じた、研究出版業界における倫理的なAI使用のベストプラクティスの探究、方法策定。

教育とトレーニング

ウェビナー、ポッドキャスト、その他の教育・啓発プログラムなどの提供。出版におけるAIに関する知識を幅広い研究コミュニティに浸透させることが、学術出版会全体のインテグリティ向上につながるでしょう。
リソースを見る