学術界・教育界のAI導入への姿勢について考える―後編
学術界・教育界におけるAIの導入に関するアビ・シュタイマン(Avi Staiman)の考えや、World Knowledge Forum 2023での現代のAI活用を牽引するサム・アルトマン(Sam Altman)とベン・ネルソン(Ben Nelson)の対談には大いに触発されました(詳しくは、関連記事をご覧ください:学術界・教育界のAI導入への姿勢について考える―前編)。
学術界や教育界におけるAIの活用状況については、ネット上でも大量の投稿を簡単に見つけることができますが、この新しい技術に対する意見は賛否両論です。この記事は、GoogleがGPTに対抗する生成AIサービスとされているGeminiを発表(2023年12月6日発表)してから約1週間後に書きましたが、この時点ですでに2つのサービスの差異に関する情報をまとめることができました。学術界や教育界が泳ぎ方を学ばないまま、AIの流れに飛び込み、懸命にあらがおうとしている理由を考えるには良い機会となると思います。
歴史的に学術界は、既存の価値基準を覆すような技術(インターネットなど)が不可欠になるほど浸透する前は、こうした技術に対して非常に懐疑的でした。もし、AIの統合といった変化が、約束されたような利益をもたらすものでなければ、新しい技術が一般化するのを待つことも容認されたかもしれません。
AIの統合は、学術界における技術のレベルアップを図り、多様性・公正性・包括性(Diversity, Equity and Inclusion : DEI)、効率、そして生産性を向上させることにつながる可能性があります。しかし、一方で、性急かつ、ほぼ間違いなく熟考不足な統合に、一部の人間はいら立っているような様子も見受けられます。
生成AIコンテンツの検出について
前編でも少し書いたAI生成コンテンツの誤検出について踏み込んでみます。学術界の作業に従事する役割の一環として世界中の研究機関の主要な管理者の意見を聞いてみたところ、AIに関連する情報の認知度(または欠如)には大きなばらつきがあることが判明しました。そして、不正確な「注意」を受けたことに対して人々がネットのコミュニティで声を上げていることには驚かされます。
AI生成コンテンツ検出ツールによる誤検出で悪影響を受けた人の言い分の裏には、意思決定者である人間が、AI検出ツールは100%正確とはなりえないとの事実を受け入れたがらないという事実があります。人間もAIも学び、成長するためには失敗、つまり間違いを犯すことが必要です。ニューラルネットワークが精度を高めるためには、誤りを犯すことも必要であり、AIに人間の判断力や創造力のようにコンテンツを「100%正確」に検出、あるいは「完璧」に生成することを期待するのは意味がありません。
生成AI検出ツールの使用方法を再調整する
生成AIが誤検出をするのを否定できない以上、どうすればいいのか。この点に対処するには、既存の生成AIベースのテキスト検出ツールの結果を状況証拠として使用するとともに、他のあらゆる兆候を精査した後に、人間の査読者が判断を行うようにします。こうすることが、文章を洗練させるためにAIベースのスペルチェックや文法チェックを数十年にわたって役立ててきたのと同様に、滑らかな文章に整え、人間らしさを高めるのに生成AIを活用する最適な方法のようにみえます。
AIツールの助けを借りている学生/研究者/著者らが、どのようなアシストを必要としているかについては議論されています。自分で作成したコンテンツの言い換え、文法修正、校正をAIに頼っている人たちの意見は特に重要です。AIツールを良心的に使っているにも関わらず、AIコンテンツ検出ツールによって、カンニングのような不正行為に関与したと誤って認識されることもあるからです。
論文執筆にAIをどう利用するかには様々な見解があり、疑問な点も無きにしもあらずだと言えます。しかし、AIの助けを借りて書かれたり、修正されたりした論文であっても、その研究基盤が、事実に基づいた確固たるものであると共に独創的であることが重要なのです。
もうひとつ言えるのは、盗用・剽窃を検出するためにAIツールを利用するアプローチをとるなら、フラグが検出された原稿の部分(セクション)に対して、フラグの重要性を判断するのが合理的だということです。たとえば、原稿の序論(イントロダクション)のフラグは、結果や考察に付けられたフラグよりも重要度が低いと見なします。言い換えれば、AI検出ツールを使用すること自体の分量よりも、何をどこで使うかが重要だということです。
AIツールの利用を促進する
研究を進める技術について考えるにあたり、製品開発の原則から学んでみましょう。どんな製品や技術も、基本的には繰り返しの作業から生まれ、常に何らかの発展が望まれます。研究プロセスは、繰り返しの作業と証拠に基づく改良の上に成り立っているので、新しい技術を受け入れ、段階的な改善を行うことをお勧めします。そうすれば、新しい技術を早期導入することによる短期的なメリットを逃さず、さらなる改良とそれに伴う長期的なメリットを享受することができるでしょう。
AIが生成した欠点(AIの不完全性)を、批判的思考やファクトチェックのトレーニングを提供するために、より創造的に活用したり、同じツールを使って人間による欠点を平滑化したりできるかもしれません。教育や研究環境システムに混乱を招くような規制でAIの利活用を縛るのではなく、より効率的に教育や研究を向上させるために利用できるようになる日が来るかもしれない、と思えてきませんか?
前向きな考え方
「僕はしゃべり過ぎた、でもしゃべり足りない」
― マイケル・スタイプ『Losing My Religion』
前後編にわたって書いた記事の締めくくりとしては、我々は、AIの不完全さを意識的に認めつつ、AIの可能性を認識し、AIを活用した研究・教育業界全体のシステム構築に取り組む必要があるということです。
AIインフラは、学生、教育者、科学と知識普及に従事する機関にとって最善の利益につながることを目的として使用すべきでしょう。学術界・教育界へのAIの導入は、やるべきかどうかではなく、いつ、どのようにやるべきかが問題なのです。完璧を待つのではなく、AIの不完全さを受け入れながら、AIを貴重な協業者、または資産として活用しましょう。
こんな記事もどうぞ
学術出版におけるChatGPTなどのジェネレーティブAIツールのリスクと可能性(ウェビナー)
【Scholarly Kitchenへのゲスト投稿】査読の変革におけるAIの役割


