【AsianScientist】生成AIが論文執筆、発表者は誰か?

生成AI(人工知能)が科学論文を執筆し、発表するようになるにつれ、科学界は、テクノロジーの使用範囲、テクノロジーの規制方法、科学の慣習への影響そのものをめぐる問題と格闘している。(2023年12月15日公開)

書くことは、石に刻まれた絵文字から紙にこすられた黒鉛、あるいは古典的なタイプライターから現代のキーボードに至るまで、歴史を通じてさまざまな形態をとってきた。道具の違いはあるものの、これらすべての書き物の形式には人間の脳がコンテンツを作成したという一つの共通点があった。

しかし、2022年11月、人間のように書くことができる生成AI である ChatGPT という新しい文章作成方式が世界に紹介された。リリース後の数カ月で、何百もの異なる種類の生成 AI がインターネットに氾濫した。中には美術品や詩を作成できるものや、実際の人間の声を模倣できるものもある。

生成AIは、まず大量の情報を提供してトレーニングする必要があるという点で、人間の脳と同じように機能する。ChatGPTの場合は、インターネットが情報源であった。この種類のプログラムは一般に大規模言語モデル (LLM) として知られるものであり、プロンプトまたはコマンドをトレーニング中に学習したパターンや接続と統合して回答を生成したり、新しいコンテンツを作成したりする。

一定のコーディング規約という例外はあるものの、AI によって生成されたコンテンツは人間の介入を必要としない。それにもかかわらず、AIは驚くほど熟練度の高い文を書くことができる。Open AIのGPTシリーズの最新バージョンであるGPT-4は、米国の大学入学統一試験である SAT試験のEvidence-Based Reading and Writing(読み書き試験)で800点中710点を獲得した。これは、2022 年の全米平均より181点高かった。

これほどすばらしい性能を備えているならば、このテクノロジーを人間の書き込みを補助し、置き換えるために使用したいという誘惑に駆られる。そのよい例は、科学論文の執筆の補助に使用されることであり、ChatGPTはすでに研究の著者としてもその名が挙げられている。世界有数の科学誌natureに掲載された最近の論文では、少なくとも4つの例が取り上げられている。

これからは、執筆、特に科学論文における生成 AI の使用について、倫理的問題と現実的問題を含め、差し迫ったいくつかの問題について論じなければならない。生成AIはいつ使用できるのか、それともそもそも使用すべきなのか?

避けられる話題

Natureの生成AIに関するガイドラインは、その用途が明確に記載されている限り、特定の状況下で科学論文や出版物に使用できるとしている。Natureの編集方針には、「LLMを使用した場合は、原稿の方法 セクション(方法セクションがなければ、別の適切なセクション)に適切に記載すべきである」と書かれてある。

しかし、すべてが同じ考えというわけではない。たとえば、別の主要科学ジャーナルであるScienceは、この問題について少し異なる見解を持つ。「編集者の明示的な許可がない限り、AI、機械学習、または類似のアルゴリズムツールから生成されたテキストを科学ジャーナルに掲載する論文で使用してはならず、そのようなツールが生成した図、画像、グラフィックを添付してはならない」 。編集部は、これらの境界を越えることは重大な犯罪であり、科学的違法行為に相当すると付け加えている。

「生成 AI の世界はまだ初期段階にあり、出版社は使用に関するルールを確立できていません」と、科学ジャーナリストであり、Natureでこの問題について寄稿したクリス・ストケル・ウォーカー (Chris Stokel-Walker) 氏はAsian Scientist Magazineに語った。「これらのルールや方針は時間の経過とともに変わっていくことでしょう」

規制の悪夢

私たちの多様な社会に入ってくるあらゆる新しいテクノロジーがそうであったように、生成AIの使用に関しては、無制限の自由から完全な禁止まで、幅広い考えがあるだろう。これは、たとえば、学校に電卓が導入されたときに見られた。1986年、教師と保護者は、子供たちは数学を学習し理解するために電卓を隠し持つようになるのではないかと懸念し、サウスカロライナ州サムターの街頭に集まり、抗議した。

このような出来事のほとんどは、テクノロジーを許可するかどうかではなく、被害を最小限に抑えつつテクノロジーをどのように使用すべきかということが真の問題となっている。

シンガポール国立大学(NUS)のデビッド・マーシャル初代首相記念教授の称号を持ち、AIガバナンス・シニアディレクターであるサイモン・チェスターマン (Simon Chesterman) 教授はAsian Scientist Magazineのインタビューで、「過剰な規制は望ましくありません。人々がテクノロジーの恩恵を受けられなくなるからです。しかし、規制が緩いと、規制が非常に困難になるほどテクノロジーの進歩が進み、何らかの損害が生じる可能性があります」と語った。電卓のおかげで人々は複雑な計算を行えるようになったが、基本的な暗算は苦手になった。

メリットはリスクを上回るか?

科学文献の書き方を学び、作成することは容易なことではないが、科学の分野では英語が国際語であるという事実のため、言語の壁によりさらに複雑なものになっている。科学分野で分かりやすい文章を書くには、何年もの練習と勉強が必要である。しかし、新しいテクノロジーがこの学習曲線をなくし、新しい科学知識が社会にもたらすメリットを促進できるならば、メリットがリスクを上回ると主張できる。

シンガポール科学技術研究庁(A*STAR)情報通信研究所(I2R) の聴覚言語知能 (ALI) 部門の責任者であるオー・アイ・ティ (Aw Ai Ti) 氏はAsian Scientist Magazineとのインタビューで 、「AIリライトツールは、優れたアイデアと高い読解力を持っていても、自分の考えをうまく文章で表現できない研究者を助けてくれます」と語った。オー氏は、このような言語の壁を乗り越えて情報共有を促進するために、SGTranslateという言語処理・機械翻訳技術を開発中である。

また、オー氏は、ChatGPT のようなツールを使用すると、洗練された論文を作成でき、読者は内容をさらに理解できるようになるとも述べた。オー氏は「一般的には、情報の詰まった長い段落を要約して読解と理解を容易にしたり、スペルや文法の間違いをチェックしたりすることで科学者の生産性を向上させることができます」と述べた後、クロスチェックは依然として必要であり、オリジナルの文章に取って代わるような使い方をしてはならないので、このテクノロジーの使用には注意が必要であると付け加えた。

責任の問題

理論上、十分なトレーニングと正しいプロンプトがあれば、生成 AI は科学論文を発表できるほど高度なものになる可能性を持つ。ScienceNatureといった主要な科学雑誌はそれぞれ異なるガイドラインを持つが、一つ共通することがある。それは、AIのオーサーシップを認めていないことである。

チェスターマン教授によると、問題は、生成AIの基礎となる仕組は、人間が理解するようには理解させるように作られていないことである。「したがって、私たちが意味するところのオーサーシップを、生成AIに当てはめることは間違っています」。

科学論文での生成AIの使用に関する現在の議論の大部分は、責任に関するものである。AIが偽の研究論文を作成したり参照したり、あるいは患者の血圧測定値と自宅の住所を混同したりした場合、誰が責任を負うのか?これは、科学探求の誠実性と責任に対する信頼の低下を意味することとなろう。

ディープフェイク、個人に向けたフィッシング詐欺、フェイクニュースはすでに私たちの社会の問題となっている。AI によって生成されるコンテンツが人間が作成するものに近づきつつある中、AI企業にとって、AIが生成するコンテンツの透明性を最高水準に保つことが、特にAIが私たちの日常生活や職業生活に溶け込むにつれて、ますます重要になるだろう。科学論文に関しては、生成 AI が出版業界をどの程度変えていくかを見守り続けなければならない。

上へ戻る