Seeking Alphaの記事で、アナリストのマーク・ヒベン氏は、Appleが9月9日のメディアイベントでVRゴーグルを発表する可能性について考察しています。私は99.9%、そんなことは起こらないと確信しています。もしその日が来たら、ティム・クック氏とその会社にいくつか提案があります。
「AppleはVR分野のエンジニアを雇用していることが知られている(http://9to5mac.com/2014/11/24/apple-virtual-reality-experiences/)」とヒベン氏は書いている。「また、AppleはiPhoneをディスプレイユニットとして利用するVRゴーグルの特許を取得したことも知られている(http://tinyurl.com/qbo4nyo)。
AppleがGoogle Glassの独自バージョンを開発することになったら、市場は生まれるかもしれません。いずれは。そして、先ほども述べたように、本当に特別な製品にするための提案があります。(Appleはおそらくそのような製品を「Apple Glasses」と呼ぶでしょうが、私は「iGlasses」でいきます。書くのが楽しいからです。)
ガートナーの調査グループによると、企業における拡張現実(AR)の導入はまだ初期段階にあるものの、AR技術は組織がビジネスプロセス、ワークフロー、従業員研修を補完・強化するための社内ツールとして活用できるレベルまで成熟しているという。ガートナーは、Rは仮想プロトタイピングとコンテンツの視覚化を通じてリアルタイムの意思決定を可能にし、ビジネスイノベーションを促進すると考えている。

ガートナーの主席リサーチアナリスト、トゥオン・フイ・グエン氏は、「拡張現実(AR)とは、テキスト、グラフィック、音声、その他の仮想的な拡張機能といった形で情報をリアルタイムに活用し、現実世界のオブジェクトと統合することです」と述べています。「ARは、モビリティ、位置情報、3Dコンテンツ管理、画像認識といった他の技術を活用し、最適化します。デジタル機器を介してユーザーの感覚を強化し、より迅速な対応や意思決定を可能にするため、特にモバイル環境で有用です。」
彼は、AR が特に次の点で強力であると述べています。
° 近くにあるものを発見する (例: 熱を発生する密閉された物体)
° 潜在的に特別な関心を引く現実世界の物体を提示する — たとえば、通常よりも高いレベルの放射線を発生する物体を検出して強調表示する。
° ユーザーにどこへ行くべきか、何をすべきかを示す — たとえば、視界が悪い危険な環境で作業者が修理を行うのを支援するなど。
° 関心対象物に関する追加情報(距離、サイズ、危険度など)を提供します。
ARサービスは、様々なデバイスセンサーを用いてユーザーの周囲を認識します。現在の実装は、一般的に位置情報ベースとコンピュータービジョンの2つのカテゴリに分類されます。位置情報ベースのサービスは、デバイスのモーションセンサーを用いてユーザーの位置に基づいた情報を提供します。コンピュータービジョンベースのサービスは、顔、物体、モーショントラッキングアルゴリズムを用いて画像や物体を識別します。例えば、テーブルの上の多数の物体の中から靴を識別したり、Googleゴーグル(画像ベースの検索)、光学式文字認識(OCR)などです。
「ARは、作業員が現場にいたり、情報にすぐにアクセスできなかったり、片手または両手とオペレーターの注意力を必要とする作業を行う業界において、ツールとして最も役立ちます」とグエン氏は付け加えます。「そのため、これらの従業員(ナレッジワーカーなど)は必要な情報に常に直接アクセスできることが多いため、無重力産業への影響は小さくなります。」
もちろん、Appleは一般消費者に受け入れられるデバイスが完成するまでは、いかなるタイプのスマートグラスもリリースしないでしょう。私としては、AppleがARだけでなく視覚障害にも対応したiGlassesをリリースするなら、ぜひ購入したいと思っています。
例えば、私のような軽度の視力障害を持つ人向けに、目が焦点を合わせているものに合わせて自動的に調整してくれるスマートグラスはどうでしょうか? つまり、読書の時は近視力、パソコン作業の時は中視力、遠くを見る時は遠視力、といった具合に自動的に調整してくれるのです。
このような技術はすでに初期段階にあります。これをARと組み合わせたiGlassesを想像してみてください。