By: Enago求められる生成AIの利用ガイドライン
求められる生成AIの利用ガイドライン
ChatGPTのような生成AI(人工知能)ツールが加速度的に進歩するにつれ、学術出版を含むさまざまな分野への浸透が進み、その影響力はますます高まってきています。これらのツールは、研究論文の執筆プロセスを合理化し加速する上で非常に有用である一方、その利用において慎重な検討が必要な課題も抱えています。
本記事では、研究プロセス、特に学術論文の執筆と出版における生成AIの利用ガイドライン策定の必要性について考えていきます。
CANGARUイニシアチブ
ChatGPTのような大規模言語モデル(LLM)は、責任をもって利用されなければなりません。生成AIツールを学術論文の作成に利用することにはリスクが伴い、学術コミュニティのための標準化されたガイドラインの必要性が急速に高まっています。
この問題に立ち向かうため、2023年、学術研究や科学的言説におけるツールの責任ある利用、開示、報告に関する一連の推奨事項を標準化するための国際的な取り組み「CANGARU(ChatGPT, Generative Artificial Intelligence, and Natural Large Language Models for Accountable Reporting and Use)」が立ち上がりました。このイニシアチブは、エルゼビア、シュプリンガー・ネイチャー、ワイリーなどの大手出版社や、著名ジャーナルの代表者、出版倫理委員会のような業界団体らを含む学術出版社と研究者とのパートナーシップです。AIの適切な使用方法、情報開示の義務付け、研究インテグリティを維持するための禁止行為の概要を示すための統一されたコンセンサス主導の基準を確立した上で、ガイドラインおよび補足的な説明を普及させることを目指しています。CANGARUガイドラインは、研究分野横断的なLLMの適切な利用における国際的なコンセンサスの確立に向け、いかに重要なステップが踏まれているかを示す一例であり、このガイドラインに従い、研究でLLMを使用する際の潜在的な弊害を認識しておくことで、透明性と説明責任の原則を守りながら、責任ある倫理的な方法でLLMの可能性を最大限に活用することができると期待されています。
2024年2月にbioRxivに投稿されたプレプリント論文によると、2022年にChatGPTがリリースされて以降、2023年から2024年の2年間にarXivなどに投稿されたプレプリントを最新の大規模言語モデル(LLM)テキスト検出技術を用いて分析した結果、AIが作成したコンテンツを含む原稿が約5%に達していたことが判明しています。AIが生成したテキストが科学論文に広く影響を及ぼしていることは明らかであり、早急に明確な基準が必要とされているのです。CANGARUのリーダーであるGiovanni Cacciamani(ジョバンニ・カッチャマーニ)は、2024年4月Scienceに投稿された記事で、この「急速に進化する」技術に対応するには、ガイドラインを毎年更新する必要があると注意喚起しています。
標準化されたガイドラインの必要性
『Science』や『Nature』のような影響力の大きな学術雑誌(ジャーナル)の多くは、他の出版社や団体らとともに、学術論文におけるAIツールの使用に関する方針を定めており、AIツールは説明責任を果たせないため、著者になることはできないとしています。方針によって異なる部分もありますが、基本的には著者は、AIツールをどの部分で(どのような用途で)使用したかを申告する必要があります。
世界的な学術・技術・医学(STM)分野の商業出版社の団体である国際STM出版社協会は、2023年12月に学術コミュニケーションにおける生成AIの利用に関する方針「Generative AI In Scholarly Communications | 2023」を公開していますが、2025年9月には2023年の方針をベースにした「Recommendations for a Classification of AI Use in Academic Manuscript Preparation(仮訳:科学論文作成におけるAIの利用方法の分類提言)」を公開しています。
2023年発行の国際STM出版社協会のガイドラインは、出版プロセスにおけるAIの使用に関する倫理的かつ実際的な考慮事項を概説しており、上記の分類提言では著者によるさまざまなAI の利活用を具体的に定義しています。とはいえ、その他のAIの利用が許容される、あるいは期待される範囲に関する実際の指針については、分野によって基準が異なることを踏まえ、出版社の判断に委ねられています。
一方、欧州では2024年3月20日に研究活動におけるAIの使用に関するガイドライン「Guidelines on the responsible use of generative AI in research developed by the European Research Area Forum」が策定されました。その後、2024年5月21日に「EU Artificial Intelligence Act」が成立し、8月に発効。2025年7月10日には、AI規制法に基づくAIの行動規範「General-Purpose AI Code of Practice」の最終版を公開しています。いずれも、飛躍的に発展する生成AIの技術を論文執筆に利用するにあたり、透明性と、論文(研究の成果)に対する著者責任の維持の必要性を強調するものです。
日本に目を向けてみると、所属する学生や教職員に向けて生成AI利用ガイドラインを設定する大学・研究機関が増えているようです。ただし、それぞれの指針やガイドラインには細かいばらつきがあるため、研究者の間で混乱が生じることもあります。学術論文の執筆におけるAIの利用について標準化されたガイドラインを設けることが、明確性と一貫性を提供し、透明性、説明責任、責任ある科学的成果を全面的に確保することにつながるのではないでしょうか。
明確なガイドラインの確立は極めて重要です。その成功は、多くの出版社がそのガイドラインを採用することと、研究機関、資金提供機関、学術委員会を巻き込んだ強固な実施メカニズムにかかっていると言えるでしょう。また、研究者には、AIを活用しつつも、研究倫理と透明性を重視することが求められます。
AIを活用するには、人間の知性を補完するような協調的アプローチをとっていく必要があります。さらに、人間とAIが効果的に共同作業を進めるために必要なスキルを身につけるための教育・訓練プログラムを優先して行うことが極めて重要です。研究インテグリティを維持するには、急速に進化する生成AIの能力と歩調を合わせる積極的な対策が不可欠なのです。
※本記事は、2025年10月時点での情報を基に作成したものです。AI技術は急速に発展しており、各出版社や大学・研究機関などが定める指針も見直されることがあります。論文を作成する際には、出版社、ジャーナル、所属研究機関や団体などの公式ウェブサイトで必ず最新の情報を確認してください。
参考
【参考1】国際的な学術編集者団体によるAI方針
ICMJE(国際医学雑誌編集者委員会) 4. Artificial Intelligence (AI)-Assisted Technology
COPE(出版倫理委員会) Authorship and AI tools
WAME(世界医学編集者協会) Chatbots, Generative AI, and Scholarly Manuscripts
【参考2】主要な学術出版社のAIガイドライン
Nature: Artificial Intelligence (AI)
Springer: Artificial Intelligence (AI)
Elsevier: Generative AI policies for journals
Wiley: Artificial Intelligence
その他
Npj digital medicine The long but necessary road to responsible use of large language models in healthcare research
こんな記事もどうぞ
エナゴ学術英語アカデミー AIによる研究不正とデータ操作のリスク
エナゴ学術英語アカデミー 研究報告ガイドラインの発展と学術出版への影響、今後の展開
よくあるご質問
英文校正サービスとはどんなサービスですか?+
英文校正サービスとは、論文など専門性の高い内容を読み手に正確に伝えるために、研究対象領域と学術英語の専門知識を持つ校正者が英語文章を磨き上げるサービスです。エナゴの英文校正サービスの強みの一つは、英文校正・英文校閲・英語校正を2名以上で提供する校正の体制にあります。
エナゴの強みは何ですか?+
エナゴの強みは、研究分野と学術英語の知識を有する英語ネイティブ2名体制の英文校正、専門分野の合致、そして「英語の質」を理由にジャーナルからリジェクトされない再校正・返金保証「エナゴの約束」です。ジャーナル投稿用論文の英語を丁寧に校正し、国際ジャーナル編集者・査読者の目に耐える英文へと洗練させます。