盲vに福音、O案内ロボットを日本科学未来館などが実証実xへ
盲の機垢量嫺蓋い梁紊錣蠅砲覆蠅修Δ淵淵咼押璽轡腑鵐蹈椒奪函AIスーツケース」を日本科学未来館と次世代‘мq\術開発コンソーシアムが共同開発、実証実xを始めた。このロボットは、スマートフォンと連動させ、スマホを通して周囲のX況をイヤホンから音mで教えてくれる。ロボットの気半歩iに出るように動き、`的地までO案内する。

図1 日本科学未来館と次世代‘мq\術開発コンソーシアムが共同開発したスーツケース型ナビゲーションロボット
開発したコンソーシアムは、オムロン、アルプスアルパイン、{水建設、日本IBMの4社が会^となっている組Eで、これまでも盲の気燭舛健常vと同じようなを送れるようなテクノロジーを開発してきた。今v開発の主は未来館が担った。実は未来館の館長である浅川智L子は、盲で元IBMのフェローでもあり、AIをはじめIT\術に秀でた人顱H獪がナビゲーションロボットのテクノロジーをけん引してきた。
このロボットは、k般のスーツケースとほぼ同じjきさながら、AIや收AIが詰まっている。実際に動かす場合にはスマホに`的地を設定し、始動すると`的地までのO案内をしてくれる。スーツケースの最も屬離哀螢奪廚ハンドルになっており、左への‘阿篦籏V、始動などはハプティクスなどで瑤蕕擦討れる。`的地へくとO動的にVまると同時に音mでも教えてくれる。屋内でのデモの様子は動画でも見ることができる(参考@料1)。
搭載されているテクノロジーのセンサ霾がjきなカギを曚辰討り、まず、O分の位を確認できるナ星R位のアンテナがスーツケースの屬砲△襦その下に周囲を見るセンサとしてのLiDARがある(図2)。スーツケースのCと両Cの3妓にはカメラがある。スーツケースのCにk応ディスプレイもいているが、ここではLiDARの様子などを表する。このディスプレイに表された情報は未来館の中のセンターにつながっており、異常があれば~けつけることができる。
図2 ナビゲーションロボットにはH数のセンサがいている
実際に周りに何があるかをC出するのはRGBセンサに深度センサを搭載したカメラ(図3)がi機∈妓、妓をそれぞれ見て、内陲離┘奪AIがそれらの画気鯣淑未垢襦深度センサでは周囲にいる歩行vとの{`をR定している。
図3 スーツケースのCにもカメラが搭載されており捉えたをAIで認識する
さらにNvidiaのGPU(@ORINかもしれない)も搭載しており、このGPUはWに‘阿任るルートをQする。さらに、このロボットに何かを問する場合には、4Gネットワークを通したクラウドベースで收AI を経て、v答してくれる。
実際に屋外でデモした時は、バスケットボールをeった人がi気ら歩いてくると、「バスケットボールをeった人がZづいてきます」と音mで教える。ここでは人間だけではなく、バスケットボールも学{しており認識できているため、より確にi気凌佑両霾鵑箸覆辰討い襦
まるで盲導犬と同様だが、このロボットが完に盲導犬と代できるというわけではない。盲導犬は僂鯏个襪海箸できるが、このロボットはF△気譴震O路が主であり、砂Wや石のHい囘个蠅呂任ない。しかしZOから歩OへのO路の段差度なら、ロボットを少しAめにするだけで屬辰討れる。また、階段はTできないものの、下りる階段あるいは屬覲段のiに来るとロボットはVまってしまうため、エレベータのある所まで迂vする要はある。
これまでの試作で実証実xを繰り返してきたが、2025Q4月から開されるj阪・関ヒ国F覧会の会場において複数運し、さらに運のデータを吸い屬押⊂γ化につなげていく。万F会場でのし出しは予約Uで、k般客も使えるという。
参考@料
1. 「AIスーツケースについて」、日本科学未来館ホームページ