Apple(アップル)がiOSの最新のベータに、興味深いアクセシビリティ機能を組み込んだ。それは、iPhoneのカメラの視野内に人がいると、その距離を検出するシステムだ。この機能により、現在、何より重要な目が不自由なユーザーが効果のあるソーシャルディスタンスを保つことができるようになる。 この機能はアップルよ拡張現実(AR)システムARKitにあるもので、画像処理の技術用語で「people occlusion」と呼ばれ、人間の形状を検出してバーチャルアイテムがその前や後ろを通るというものだ。この技術に、 iPhone 12 ProとPro Max のLiDAR装置を組み合わせると、目の不自由な人にとって便利なツールができる、とアクセシビリティのチームは気がついた。 一般的に、人が店や横断歩道を歩くときは他の人がどれだけ近く、あるいは遠くにいるかを、目が絶えず判断し注意している。しかしパンデミックの間にまず思いつくのは、他の人と約2mの距離を保つことだ。 この新しい機能は、拡大鏡(Magnifier)アプリ内のもので、iPhone 12 ProおよびPro MaxのLiDAR機能と広角カメラを使って、さまざまな方法でユーザーにフィードバックを行う。 赤外線ビデオに映るiPhone 12 ProのLiDAR。1つひとつの点が、それが反射するモノの正確な距離を教える 第1のフィードバックは、ユーザーに視界に人がいるかいないかを教える。誰かいたら最も近い人までの距離をフィートかメートルでアナウンスし、近づいたり遠ざかったりすると距離を頻繁に更新する。その人がいる方向からの音もステレオで拾う。 第2のフィードバックは、距離を知らせる音をユーザーにセットさせる。例えば6フィート(約183cm)にセットしたら、その人が6フィートよりも離れていたらある音が鳴り、6フィート以内であれば別の音が鳴るようセットさせる。ユーザーが知りたいのは、正確な距離が頻繁にわかることではなく、現在、人と十分な距離が保たれているかどうかということであるためだ。 そして第3のフィードバックは、ユーザーの皮膚に届く振動(周波数)で、人が近づいていることを教えるというものだ。これは目と耳の両方が不自由な人に便利だろう。この機能は検出した人を画面上の矢印で指して教える。視覚が不自由な人にもそ...