ニュース

“空間再現写真”も撮影できるARデバイス「Apple Vision Pro」発表。視度矯正レンズはZEISS製

Apple Vision Pro。電源に接続するほか、手前のバッテリーユニットを使ってバッテリー動作も可能(連続2時間)。

Appleは6月5日、開発者向けイベントのWWDCに合わせて「Apple Vision Pro」を発表した。2024年の初めに米国の直販および直営店で3,499ドルで発売し、2024年末までに他の国でも発売予定だという。

同社が「空間コンピュータ」と表現するゴーグル型の端末。左右の目それぞれに対して4Kの解像度を持つパネルを搭載し、広色域・HDR表示にも対応。映像コンテンツの視聴だけでなく、Webブラウズやメールといった作業スペースを拡張現実上に広げる用途も想定されている。

Macや外部キーボードと連携し、いわゆるパソコン作業のスペースを拡張することもできる

操作は、使用者の視線を読み取ってポインティングし、人差し指と親指をつまむような動きでクリックの動作を指示する。基本操作のための物理的なポインティングデバイスは用意されておらず、Apple Vision Proの内蔵カメラがユーザーの手の動きを読み取るか、マイクで音声指示を聞き取る。

Apple Vision Proには12個のカメラ、5つのセンサー、6つのマイクが備わり、それらの入力を「M2」チップとは別に搭載される「R1」チップで高速に処理。いわゆるARデバイスの“映像酔い”に繋がる遅延を抑えたという。

外側に搭載されたカメラ
センサー類
LEDイルミネーターでユーザーの両目に不可視のパターンを照射し、その反応で視線追跡を行う

micro-OLED技術による表示パネルは1枚が切手ほどの小ささで、iPhoneのピクセル1個分のスペースに64ピクセルを詰め込んだものだという。左右2枚で2,300万ピクセルとなり、それぞれが4Kテレビのピクセル数を超える。

「visionOS」プラットフォームを提供。新たなApp Storeを用意するという。

接眼レンズは各3枚構成。メガネをかけている人に向け、ZEISSとの協力で「特製の光学インサート」を用意。磁石でレンズに取り付けることで、表示性能や視線追跡の性能に影響を及ぼすことなく、幅広い視力矯正に対応するとしている。

表示画面は、周辺の人に向けて外側にも備わっている。内側のカメラを使って装着者の目を映し出すことで、Apple Vision Proを頭部に装着したまま他の人とコミュニケーションが可能。ユーザーにも、周囲に人が近づくとその部分だけ拡張現実のマスクが透過し、相手の姿が見える仕組みが用意されている。

ユーザーの目を映し出した状態。目が見えることで、周囲の人とコミュニケーションが取れる状態であることを示す

また、搭載されているカメラを使って「空間再現写真とビデオ」を撮影可能。いわゆる3D写真と3Dビデオで、フレーム上のボタンを押すことで撮影が行われる。撮影中は、ユーザーの目を映し出す外側の画面(“EyeSight”と呼ぶ)を使って周囲に撮影中であることを示す。

また、装着時のフレーム右手側にはApple Watchのリューズと同様のDigital Crownが備わり、回転させることで没入の度合い(コンテンツの周囲に見える現実の様子もAR映像でマスクする)を調節できるという。

フレーム右手側のDigital Crown
Introducing Apple Vision Pro
本誌:鈴木誠