シンガポール国立大学(NUS)は2月5日、視覚障害者向けに人工知能(AI)を利用して周囲の物を見ることを補助するウエアラブル補助装置AiSeeについて、アップグレードを繰り返していることを公表した。
視覚障害者は、意思決定に不可欠な対象物の識別において、日常的な困難さに直面している。例えば、食料品の買い物でも視覚障害者にとって、食料品を識別することは難しい。2018年に開発され、これまで徐々にアップグレードされているAiSeeは、最先端のAI技術を活用することで、これらの行動を補助することを目指している。
スランガ・ナナヤッカラ(Suranga Nanayakkara)准教授(左)ら研究チーム
AiSeeプロジェクトの主任研究者でNUSコンピューティング学部情報システム・分析学科のスランガ・ナナヤッカラ(Suranga Nanayakkara)准教授は「AiSeeの目的は、より自然なインタラクションでユーザーに力を与えることです。人間中心の設計プロセスに従うことで、私たちはカメラで補強されたメガネを使用するという典型的なアプローチは視覚障害者にとって抵抗があるかもしれないと考えました。そこで、目立たない骨伝導ヘッドフォンを組み込んだハードウエアを提案しています」と語る。
AiSeeは3つの主要コンポーネントで構成されている。1つ目はAiSeeに搭載されたマイクロカメラで撮影された画像からテキスト、ロゴ、ラベルなどの特徴を抽出して処理できるビジョンエンジンコンピューターだ。2つ目はAI画像処理ユニットと対話型Q&Aシステムだ。ユーザーが撮影した写真をもとにクラウドベースの高度なAIアルゴリズムを使って対象物を特定することができ、ユーザーはさまざまな質問を通して対象物の詳細を知ることができる。3つ目は骨伝導サウンドシステムで、骨伝導技術を採用したことにより、視覚障害者は安全確保に重要な環境音を遮ることなく必要な情報を得ることができる。
AIが搭載されたAiSee
(提供:いずれもNUS)
研究者らは視覚障害者を対象としたユーザーテストを実施するためにシンガポールのSGイネーブル(SG Enable)社と協議を進めている。また、B.P. De Silvaホールディングス(B.P. De Silva Holdings)社はこのプロジェクトの支援に15万シンガポールドルを寄付した。
サイエンスポータルアジアパシフィック編集部