オーストラリアのウーロンゴン大学(University of Wollongong)は2月26日、同大学法学部(School of Law)のアーミン・アリマーダニ(Armin Alimardani)博士が、大学の課題に生成AIを使用する実証的研究を行い、その可能性と問題点を明らかにしたことを伝えた。この研究の成果は学術誌IEEE Transactions on Technologyに発表された。
この研究では、法学部の学生に出された「自動運転車の倫理面・法律面での影響に関する政策文書を提出する」という課題において、生成AIを自由に使用してよいが、その使用について批判的に熟考し、AIの生成物を信頼できる情報源により裏付けることを条件とした。
学生は責任あるAIの使用に関する訓練を受けていたにもかかわらず、この研究の結果により、AIを学習プロセスに組み込むことのさまざまな課題が浮き彫りになった。
同博士は「多くの学生はAIをうまく利用していた一方で、相当な数の学生が責任あるAIの使用に関する指示を無視していました。完全に捏造された情報源を使用している例や、実在する文献の内容を不正確に伝えている例がみられました。この現象はAIの"ハルシネーション"として知られていますが、教育への影響は特に懸念されます」と語る。
学生の課題で生成AIを使用することは既に多くの学術機関で行われている。同博士は上記のような問題の発見に多くの時間を要したことから「多くの教育者が、もっともらしいコンテンツのように見えるハルシネーションを見逃していると思われます」と懸念し、より厳重な警戒の必要性を訴えている。
同博士はまた、「教育者はAIの使用に関する指示を与えるだけでなく、継続的なフィードバックや、AIが生成した不正確なコンテンツの実例を示すことにより、積極的に学生を責任ある生成AIの慣行へと引き入れる必要があります」と指摘している。
サイエンスポータルアジアパシフィック編集部