EnagoBy: Enago

生成AI使用にともなう倫理的な問題:AIが共著者に?

生成AI使用にともなう倫理的な問題:AIが共著者に?

生成AI使用にともなう倫理的な問題:AIが共著者に?  
生成AIの台頭にともない、研究者はAIツールの活用範囲を広げてきました。今では、文章を洗練させ、言い換え、さらには新しいアイデアを捻出するための支援にまでAIを活用しています。しかし、執筆プロセスにおけるAIの役割が非常に大きくなり、支援と執筆の境界線が曖昧になったらどうなるのでしょうか?どのような倫理的問題が発生するのでしょうか?

適切な監視をしなければ、AIが著者の認識を超えて研究論文の内容や主要な論旨に影響を及ぼしたり、加筆修正などをしたりすることで、気づかないうちに「共著者」の役割を担わせてしまう可能性は捨てきれません。

Neurosurgical Review誌がAIによって作成された論文の急増に対処すべく、特定の大学からの投稿を撤回したとの記事は、研究インテグリティ(公正性)における新たな課題を浮き彫りにしました。論文の「撤回」とは、科学論文の信頼性、公正性、統一性を守ることを目的として出版後に行われる処分であり、論文の科学的信頼性に疑いが生じたような場合に行われるものです。論文の撤回は、著者のみが申請あるいは発表できるとしているジャーナルが一般的ですが、AIに関連する論文を撤回するよう大学が要請するという事態も起きています。2025年5月16日、MITがAIと科学的発見に関するプレプリント論文の撤回を掲載先であるarXivに要請したことは記憶に新しいでしょう。

さらに、大規模言語モデル(LLM)が「delve(徹底的に調べる、掘り下げて調査する)」のようないくつかの特定の単語を過剰に使用する傾向を踏まえてLLMの利用を推定した調査によると、科学論文のアブストラクト(抄録)の少なくとも10%は、LLMによるレビューを受けていると推定できたと記されています。これは、アカデミックライティングにおけるAIの影響力の高まりを浮き彫りにしていると言えるでしょう。  

目次  
1. AIが知らず知らずのうちに共著者に  
2. 倫理的な意味  
3. 意図せずAIを共著者にしてしまうのを防ぐ  

AIが知らず知らずのうちに共著者に  

著者の意図に意図に反して

AIを共著者にしてしまうケース

・文章の/書き換え時に<br>AIを使用する

・AIの使用を<br>申告しない

・AIを使って<br>アイデアを作成する

・最終的な<br>コンテンツの作成を/AIに依存する  
 

1. 生成AIでコンテンツの書き換えや改変を行う  
ChatGPTを始めとする生成AIツールやLLMは、文法を修正するだけではなく、以下のような修正あるいは改変を行う可能性があるので注意が必要です。

  • 元の意味(文意)を変えて主要な議論や結論を生成したり、言い換えたりしてしまう
  • 科学的正確さに影響するような元の知見の言い換えや編集を提案してしまう
  • 研究者の最初の考えにはなかった新たな洞察の作成や編集を行ってしまう

研究者がAIによる生成物を批判的にレビューせずに使用すると、AIが生成したコンテンツを自分のものとして取り込んでしまい、その結果、信頼性のないコンテンツが論文に入り込んでしまうことになりかねません。そうなると、一部であってもAIが知的所有権を持つことになってしまいます。  

2.AIの使用事実や役割を申告しない  
2025年現在、AIやLLMを著者として記載することはできません。AIやLLMは論文執筆への貢献度に対する説明責任や責任を負うことができないからです。しかし、以下に挙げたような場合、研究者がAIの使用を明らかにしないと、論文執筆においてAIが意図したよりも大きな役割を果たしたように見えてしまう可能性があります。

 AI使用に関する適切な申告(例:「方法」セクションなど)がないまま、AI生成コンテンツが原稿に含まれている  
 人間が書いたテキストとAIが生成したテキストの境が曖昧になっている  
 AIの役割を認識せずに、無意識のうちにAIの提案や編集に依存し、論文の構成をAIに任せてしまう

AIの使用を適切に記載することなく研究プロセスに介入させてしまうと、研究インテグリティに関する倫理的懸念につながる可能性があるのです。  

3.AIで、意図しない新しいアイデアを創ってしまう  
LLMは、編集にとどまらず、仮説、解釈、結論を提案することもできます。LLMによる提案を研究者が慎重に評価することなく採用してしまうと、LLMが事実上新たな知的貢献をしたことになってしまいます。

例えば、AIは仮説の変更や、データを解釈する新しい方法を提案したりしてくるので、研究者がその妥当性や正確性を評価することなく、これらの変更を最終原稿で採用した場合、AIの生成物が中核的な知的貢献となり、事実上 「ゴースト・コントリビューター(存在しない貢献者) 」となってしまう危険を孕んでいます。  

4.説明責任を負えないAIが過度に介入する  
AIの使用が拡大するにつれ、研究者がAIに頼りすぎ、論文の最終版が、研究者が当初考えていたよりも過度にAIの提案を反映したものになってしまうことも起こりえます。以下のような場合は特に注意が必要です。

 AIが大幅な構造変更(段落の再編成、セクションの書き換え、議論の流れの変更など)を行った場合  
 人間の介入を最小限に抑えて、テキストの大部分をAIが書き換えた場合  
 研究者が変更箇所やその影響を批判的に精査しなかった場合

こうした場合、AIは単なる補助ではなく、オーサーシップレベルの貢献と見なせるような程度、論文作成に関与していることになってしまいます。  

AIを研究に使用する際の倫理的な意味  

学術論文の執筆には責任が伴います。著者は自分の著作物を準備し、その正確性を保証し、剽窃や虚偽表示といった倫理的な問題に対して責任を負わなければなりません。しかし、AIは著者としての責任を負うことができません。  

AIはコンテンツ作成時の間違いや解釈ミス、あるいは倫理的な違反に対して責任を負うことはできない

AIは共著者として俯瞰することも、オーサーシップの役割に対して意味のある一貫性を示すこともできない  

長期的に見れば、適切な情報開示なしにAIが生成した文章を使用することは、より多くの撤回につながる可能性があります。

例えば、Nature誌の分析によれば、2023年に撤回された論文は過去最高の1万本を超えており、また、学術誌から削除された論文を追跡している「Retraction Watch」には、生成AIツールのひとつであるChatGPTによって書かれた形跡のある論文が90本以上リストされています。また、学術出版における生成AIの利用については、研究に対する説明責任を取れないAIを共著者とみなすべきではなく、人間の著者が内容に対する全責任を負わなければならないとの明確な指示を出している出版社もあると、ある研究論文が報告しています。

学術論文におけるAIの使用、執筆原稿が専門的な文章になっているか、誤植がないかなどの確認を行う校正にAIを使用した場合でも、完全に情報を開示すべきです。  

意図せずAIを共著者にしてしまうことを防ごう  

研究インテグリティを維持するために、意図せずAIを共著者にしてしまうのを防ぐためには、以下の予防措置を講じるようにしてください。

1. 透明性のある申告: 研究者は倫理指針に基づき、AIツールを使用した場合には論文の方法または関連するセクションで開示しなければなりません。  
2. 批判的評価: 研究者は、AIが生成したコンテンツを採用する前に批判的に精査し、元の意図を変えないように注意する必要があります。  
3. 人間(著者)による継続的な管理: AIの使用は、生成されたコンテンツを適切に評価した上で、適度な(過度でない)構造的編集や文章の明確化に限定するようにします。  
4. オーサーシップ・ガイドラインの順守: 明確に記されたオーサーシップ・ガイドラインに従い、研究に責任を持てる人間の貢献者のみを著者として記載します。AIツールの技術的なサポートの優秀さは認めるところですが、共著者としては認められません。  
5. アイデアの所有権: 研究者は、論文に記したアイデア、分析、知的貢献の所有権を維持し、AIは自分の研究をサポートするためにのみ使用するに留め、著者の役割を代替させたりその使用を隠したりすべきではありません。

AIが学術論文の作成における強力なツールであることは間違いありませんが、その役割は慎重に管理されなければなりません。今後、ジャーナル出版社および研究機関は、AIの関与の許容レベルを定義し、その利用について研究論文中に明確に情報公開することを義務付けるよう、方針を更新することが期待されています。

情報開示の規範はまだ発展途上ですが、研究者は、AIを意図せず共著者にしてしまうことなく、あくまでも補助ツールとして使い続けるために、透明性、批判的評価、明確なオーサーシップを確立することが奨励されています。  

参考情報  
COPE Authorship and AI tools  
SPRINGER NATURE Artificial Intelligence Review Submission guidelines  
Elsevier The use of generative AI and AI-assisted technologies in writing for Elsevier  

こんな記事もどうぞ  
エナゴ学術英語アカデミー:学術界・教育界のAI導入への姿勢について考える―前編  
エナゴ学術英語アカデミー:学術界・教育界のAI導入への姿勢について考える―後編  
エナゴ学術英語アカデミー:ICMJE Recommendations:2024年更新ではAI使用における透明性の確保を強調