オーストラリアのロイヤルメルボルン工科大学(RMIT)は6月15日、デジタルヘルス専門家らが、同国の医療システムでは、人工知能(AI)を活用しそのリスクを管理するための態勢が十分に整っていないと指摘していることを公表した。これらの見解をまとめた同大学とマッコーリー大学(Macquarie University)、オーストラリア連邦科学産業研究機構(CSIRO)の教授らによる論文は、学術誌Medical Journal of Australiaに発表された。
著者らは、AIが医療部門にもたらしうる意図しない結果に対する準備の重要性を強調した。マッコーリー大学のエンリコ・コイエラ(Enrico Coiera)教授は「医療グレードでないAIを臨床診療で使用することに関しては立ち止まって考える必要がある。ChatGPTのようなシステムは臨床診療での使用を想定しておらず、患者ケアのいかなる側面においても安全に使用できることは検証されていない」と警告する。
また、RMITのカリン・フェアスポール(Karin Verspoor)教授は、「アルゴリズムに関する主権(sovereignty)、すなわち、豪州でAIを作成または修正する能力が、ある程度なければ、国家が新たなリスクに晒され、AIが地域の状況に適合しなくなる」と指摘する。
著者らが設立メンバーとして参加する、100以上の学術機関や業界団体、医療機関から成る連合組織「Australian Alliance for Artificial Intelligence in Healthcare」は、医療におけるAIの今後の開発に向けたロードマップを策定している。著者らは、このロードマップの推奨事項は、AIを活用して安全かつ倫理的に個別化された医療を提供できる医療システムを2025年までに実現するための道筋を示していると述べた。
サイエンスポータルアジアパシフィック編集部