責任あるAI使用の
枠組み策定に向けた呼びかけ

研究の信頼性を、連携と教育を通じて守る

エナゴのミッション

責任あるAI使用の枠組み策定に向けての取り組みは、急速に進化する研究出版環境において、透明性のある倫理的なAI使用を推進するためのものです。

世界の最新動向を反映した枠組み

全ての研究と学術出版を倫理的かつ正確にできるよう、出版社や大学と連携し、学術出版におけるAIの動向に関する情報を共有していきます。

AIリテラシー向上

世界中の研究者や学生が研究や学習においてAIを活用する際に、倫理性や透明性を確保できるよう促します。

責任あるAI使用の枠組み策定に向けての取り組み
が喫緊の課題である理由

論文撤回件数の急増

AI使用に関連する論文の撤回件数が急増しており、科学の信頼性が脅かされています。大規模言語モデル(LLM)の登場は、AIの生成した論文の投稿件数を増加させて出版システムに大きな負担をかけ、オーサーシップを曖昧にする可能性があります。こうした課題に対し、学術出版に関わる業界には速やかな対応が求められています。

研究成果が捻じ曲げられることも

AI生成コンテンツを専門的な人間による確認・検証を経ずに使用する場合、研究の本当の価値が損なわれ、論文撤回につながる可能性があります。人の目による確認が不可欠ですが、その必要性が明確に定義されていないことも少なくありません。そのことは、出版社にとっても著者にとっても好ましくありません。

AI使用ガイドラインの課題

急速に進歩するAIは、データ合成、画像生成、分析などにおいて大きな力を持っています。しかし出版社ガイドラインが、その進歩に追いつくことは容易ではなく、論文著者に混乱やリスクがもたらされることも考えられます。コンプライアンス上の問題を回避するには、明確で倫理的なAI使用に関するコミュニケーションが不可欠です。

情報開示の課題

  • AI使用に関する出版社ポリシーの多くでは、AIを使用したことの申告が著者に義務付けられていますが、AIによって生成された全ての文が、しかるべき人の手で精査された状態にはなっていません。
  • コンプライアンスを検証するための監査や認証の標準は現時点では存在せず、編集者は投稿者を信頼するか、各種の検出ツールに頼らざるを得ません。

AIの使用方法の分類の課題

  • 一口に論文原稿作成時のAI使用と言っても、その使い方は単純な文法校正から文書全体の生成まで多岐に渡ります。現時点でそうしたAI使用方法の分類は標準化されていません。
  • 標準化された分類がないことで、研究者にとっては、自身のAI使用が適切か否か、あるいはどのような媒体やシチュエーションにおいて許容されるのかが不明確である可能性があります。
  • AI使用の定義の不統一は、出版社・媒体の側にとっても、送られてくる原稿の実態把握を難しくしてしまいます。

論文著者は様々な疑問を持っています

Q.
ガイドラインで、AIツールの使用の有無についてのみ開示の義務が定めらており、人間による精査・検証が必要とされていない場合、AI生成コンテンツをそのまま出版できるのか?
Q.
文法や文構造のチェックにAIツールを使った場合でも、AIの使用を細かく開示する必要があるのか?それとも大まかな説明だけで大丈夫なのか?
Q.
データ分析にAIを使い、文章自体は自分で書いた場合、AIツールの使用を原稿内で開示しなければならないか?
Q.
先行研究のパラフレーズや要約にAIを使ったものの、着想や引用の選択は自分で行った場合、そのまま申告しなくて大丈夫?それとも、AIの使用方法を細大漏らさず記入しなければならないのか?
Q.
複数著者の論文において、そのうち1人だけがAIツールの助けを借りて執筆を行った場合、出版社および査読者に対する透明性を担保するため、そのことについて開示する必要があるのか?

AI使用に関するガイドラインの不統一―
困惑する研究者たち

研究者がAIの力を積極的に取り入れていることは明らかで、この1年間でもその使用率は大幅に上昇ししています(前年57%から84%)。AIの利用使用は増加しているものの、導入における主要な障壁は依然として存在します。AIの利用使用が広まるにつれ、いくつかの主要な懸念が持ち上がっており、研究者たちの実体験から、様々な課題も浮かび上がってきています。

こうした課題への取り組みは、進化するAIを今後、研究者たちが自信を持って有効に使い続けていく上で、不可欠だと思われます。

%

の研究者が、出版社に対し、適切なAI利用に関するガイドラインの提示を求めている

%

の研究者が、潜在的な落とし穴、誤り、偏りなどから回避できるような支援を出版社に求めている

%

の研究者が、出版社にAI活用に関するベストプラクティスやヒントの共有を求めている

責任あるAI使用の枠組み

責任あるAI使用は、明確な出版社ガイドラインがあり、それを論文著者が十分に把握することではじめて可能になります。

フレームワーク

AI使用に関する開示条件、AIを使用してで得られたものを人間が精査・検証する義務や条件、AI使用の用途・方法の分類に関するガイドラインなどを、個々の出版社を超えて標準化するための実践的なフレームワークが必要です。
ガイドラインを見る

白書&ツールキット

AI生成コンテンツを効果的に特定、開示、管理するための実践的なホワイトペーパーとツールキット。編集部と著者が責任あるAI利用と適切な開示を確実に行うための情報・ツールです。

有識者とのパートナーシップ

AI倫理の専門家との会議やイベントを通じた、研究出版業界における倫理的なAI使用のベストプラクティスの探究、方法策定。

教育とトレーニング

ウェビナー、ポッドキャスト、その他の教育・啓発プログラムなどの提供。出版におけるAIに関する知識を幅広い研究コミュニティに浸透させることが、学術出版会全体のインテグリティ向上につながるでしょう。
リソースを見る
研究漫画

考えることをやめたとき、
研究はどうなるのか

現役で研究に従事され、エナゴの英文校正・学術翻訳サービスもご  
利用いただいている実験太朗先生と共作者の立花美月先生による漫  
画『ハカセといふ生物』新作・番外編を公開。

「研究とは哲学・・・考えることである。では考えるこ  
とをやめたとき、研究はどうなるのか・・・」

この大きな問いに、あなたはどう答えますか?   
 

漫画を読む