その昔、SF映画で見た「未来」が、ものすごい勢いで「今」になろうとしています。
スマホの次に来るものは何か?って、ここ10年くらいずっと言われてきましたけど、その最有力候補
「AIグラス」が、いよいよ本気出してきた感じです。
「スマートグラスではないの? Google Glassとか、昔ありましたよね? なんかイマイチ盛り上がらずに消えませんでした?」
そう思うところですが、半分正解で、半分不正解。
確かに、「スマートグラス」という概念は一回、ちょっとした「夢」で終わった感がありました。
カメラがついてて、目の端にちょっと情報が出る。でも、ぶっちゃけ「それ、スマホで良くない?」の壁を超えられませんでした。
何より「あいつ、こっち撮ってるかも…」っていうプライバシーの問題で、「Glasshole」なんていう不名誉なスラングまで生まれちゃいました。
でも、今まさに来ている波は、あの頃とはちょっとワケが違います。
主役が「グラス(ハードウェア)」から「AI(ソフトウェア)」にバトンタッチしたんです。
というわけで今回は、「AIグラス」が今どこまで来ていて、これから僕らの日常をどう変えてしまうのか?
そんな話を、ちょっとゆるっと、でも真面目に掘り下げてみたいと思います。
※【現状】「AIグラス」って、今なにができるの?
まず、今の「AIグラス」ってどんな感じよ?ってとこから。
今の市場は、大きく分けて2つのタイプがあるイメージです。
・タイプ1:『スマホ、もうポケットから出さなくていいよ』型(オーディオグラス系)
これが今、一番「現実的」なラインです。代表的なのは、Meta(旧Facebook)があのRay-Ban(レイバン)と組んで出してる「Ray-Ban Meta スマートグラス」。
見た目は、パッと見「ちょっとゴツいレイバン」。言われなきゃ、スマートグラスだって気づかないレベルにまで来てます。
じゃあ、何ができるか?
写真・動画が撮れる:グラスについてるカメラで、自分が見てるままの「一人称視点」の映像が撮れます。料理してる手元とか、子供と遊んでる時の目線とか、スマホじゃ撮れない臨場感ある映像が「撮るぞ!」って構えずに撮れる。
耳をふさがないスピーカー:ツルの部分にスピーカーが内蔵されてて、音楽を聴いたり、電話したりできます。耳をふさがないから、街の音も聞こえて安全。これはもう「メガネ型イヤホン」ですね。
ここまでは、スマートグラス。でも、最近のアップデートでここに「Meta AI」が搭載されました(まだ米国など一部ですが・・・)。
これがヤバい。
グラスをかけて「Hey Meta」と話しかける。
目の前の変わった建物を見て、「これ、なんていう建物?」って聞けば、AIが「それは〇〇ビルで、建築家××によって設計されました」と音声で教えてくれる。
海外のレストランでメニューを見て、「これ、日本語に翻訳して」と頼めば、読み上げてくれる。
つまり、「視覚」と「聴覚」を使って、リアルタイムにAIとやり取りできるようになったんです。今までは、スマホを取り出して、カメラを起動して、パシャッと撮って、Googleレンズで調べて…っていう「作業」が必要でしたが、
AIグラスは、その作業を「会話」に変えちゃったわけです。
・タイプ2:『アナタの視界、拡張します』型(ARグラス系)
こっちは、より「未来感」が強いタイプ。XREAL(旧Nreal)とかが有名ですね。
これは、レンズそのものに情報を「投影」します。
目の前に広がる大画面: これが一番わかりやすい。グラスをかけると、目の前に100インチの仮想スクリーンがドーンと現れる。電車の中で映画見たり、PCにつないで仮想のトリプルモニター環境を作ったり。
街歩きナビゲーション: Googleマップと連携して、行くべき角に矢印が「フワッ」と浮かび上がる。もうスマホの地図見てキョロキョロしなくていい。
通知の表示: LINEの通知とかが、視界の端にポコンと表示される。
こっちは、まだちょっと「メカメカしい」デザインのものが多いし、バッテリーの問題とか、ケーブルでスマホと繋がなきゃいけないモデルも多い。でも、「視界を拡張する」っていう方向性では、こっちが本命かもしれません。
今のところ、タイプ1は「日常使いの便利ツール」、タイプ2は「特定用途(主に映像体験)のガジェット」という色分けですが、この二つが融合していくのが、これからの流れかと思います。
※【未来】メガネが変える「日常の風景」
では、これらの技術がもっと進化して、もっと自然になって、みんなが当たり前にかけるようになったら? 僕らの「日常の風景」はどう変わるんでしょう。妄想を膨らませてみます
妄想1:『はじめまして』が怖くなくなる日
パーティーや異業種交流会。過去名刺交換したけど、顔と名前が一致しない…「あ、どうも…えーっと…」みたいな気まずい瞬間、ありますよね。
未来のAIグラスは、たぶん「顔認識」が当たり前になります。
(プライバシーの問題は一旦置いといて・・・)
相手の顔を見た瞬間、視界の端に「[ 鈴木 一郎 ] ABC商事・課長 / 前回会ったのは3ヶ月前 / 趣味:釣り」みたいな情報がスッと表示される。
「ご無沙汰してます、鈴木さん! 最近、釣り行ってますか?」
「おぉ、覚えててくれたんだね!」
完璧なコミュニケーション強者の誕生です。
さらに、商談相手が話している内容をリアルタイムでAIが分析。「(!注意:相手は今、コストの話を不満に思っています)」なんてサジェスチョンが耳元でささやかれたら…ちょっとズルいけど、仕事の風景は一変しますね。
妄想2:外国語の壁が「ほぼ」なくなる日
これはもう、鉄板の未来予想図。
海外旅行中、ローカルの食堂に入ってみる。メニューが全部、現地の言葉でチンプンカンプン。
AIグラスをかけていれば、メニューを見た瞬間に、視界の中で全部「翻訳」されたテキストに置き換わる。
店員さんに話しかけられても、相手の言葉がリアルタイムで「字幕」として表示され、自分が日本語で話したことが、グラスのスピーカーから相手の言語で再生される。
『翻訳こんにゃく』が、技術で実現するわけです。
こうなると、「言葉が通じないから」っていう理由で旅行をためらうことがなくなります。世界中の人と、もっと気軽にコミュニケーションが取れるようになる。これは、マジで革命的です。
妄想3:『あれ、なんだっけ?』がなくなる日
日常の「うっかり」も激減するでしょう。
AIグラスは、基本「常時オン」です。つまり、あなたが見たもの、聞いたものを(許可すれば)AIがずっと記憶・認識してる。
スーパーで牛乳を手に取ろうとしたら、「(♪)冷蔵庫にまだ2本残ってますよ」とAIが教えてくれる。
家の鍵をどこに置いたか忘れたら、「OK、グラス。鍵どこだっけ?」と聞けば、「30分前に、リビングのテーブルの上に置きました。現在の映像をスキャンします…あ、ソファのクッションの間に落ちてます」と教えてくれる。
自分の「外部記憶装置」を、もう一人連れて歩いてる感覚。
これは、特に物忘れが増えてくる世代(僕も含め)には、手放せない相棒になるかもしれません。
妄想4:現実世界が「ゲーム」になる日
これは、ちょっと遊びの側面。
街を歩けば、現実の風景に重なってモンスターが現れてバトルが始まる(『ポケモンGO』の究極版)。
ジョギングをすれば、自分の目標ペースを刻む「ゴーストランナー」が目の前を走ってくれる。
友達と会えば、お互いの「ステータス」や「今日の気分(自己申告)」が頭上に表示される。
現実(リアル)と仮想(バーチャル)の境界線が、いい意味でグチャグチャになっていく。日常がもっとエンターテイメントになる可能性を秘めてます。
※【課題】でも、ぶっちゃけ「壁」もあります・・・
と、まぁ、バラ色の未来ばっかり語りましたけど、もちろんそんな簡単な話じゃありません。あのGoogle Glassが一度コケた「壁」は、今もデカくそびえ立っています。
壁1:『ダサい』は、死活問題。
一番わかりやすい壁。
いくら便利でも、かけてて「うわ、あの人ガジェットオタクだ…」と思われるデザインじゃ、普及しません。メガネは顔の一部。ファッションなんです。
Ray-Banと組んだMetaの戦略は、まさにそこを突いてます。「テクノロジー」を感じさせない「普通のおしゃれなメガネ」に、いかにAIを溶け込ませるか。ここをクリアできないと、ギークなおもちゃで終わっちゃいます。
壁2:バッテリー
これも宿命。
リアルタイムでカメラが動き、AIが考え、ディスプレイが投影されたら…バッテリーが持つわけがない。
今のオーディオグラス系でも、普通に使って1日持つかどうか。ARグラス系なんてもっとシビアです。
「あ、すいません、電池切れました」じゃ話にならない。超小型で、超長持ちするバッテリー技術の革新が必須です。
壁3:そして最大の壁、『プライバシー』という名の巨人
これが一番やっかい。
<周りの人のプライバシー>
まず、「撮られる側」の恐怖。
AIグラスをかけた人が、自分を見てる。それだけで「今、録画されてる?」「顔認識されて、SNSと紐付けられてる?」と不安になります。
これをどう解決するか。「録画中は、絶対にレンズが赤く光る」みたいな、誰にでもわかる「サイン」を義務化するとか、社会的なルール作りが絶対に必要です。
<自分のプライバシー>
こっちもヤバい。
「自分が見たもの・聞いたもの」が全部AIに記憶されるって、裏を返せば「自分の全生活がデータとして企業に送られる」ってことです。
「昨日、Aさんが浮気相手と歩いてるのを見ましたね?」
「あなたは今週、競合他社のビルに3回入りましたね?」
そんな情報、誰に握られたいですか?
「データは全部グラスの中(ローカル)で処理します! サーバーには送りません!」っていう技術的な担保と、「でも、AIの学習のためにはデータ欲しいよね?」っていう企業の欲望とのせめぎ合い。ここの信頼関係をどう作るかが、普及の最大の鍵だと思います。
壁4:情報、うるさすぎ問題。
常に情報が視界に入ってくるって、便利そうですけど、絶対「うっとうしく」なります。
仕事中なのに「(ポコン)Amazonのセール、あと1時間!」とか表示されたら集中できない。
友達と真剣な話をしてるのに、「(ピコン)今日の天気:晴れ」とかどうでもいい。
「いつ」「どんな情報」を「どのくらいの強さで」出すか。
AIがここの「空気を読む」能力を持ってくれないと、僕らは情報ノイローゼになっちゃいます。
※『見下ろす』日常から、『顔を上げる』日常へ
Google Glassが登場した時、あれは「技術」が主役でした。「こんなスゴいものができたぞ!」っていう。でも、僕らの生活には「それ、必要?」が先行しちゃいました。
今のAIグラスの波は、「体験」が主役です。「スマホ、いちいち見るの面倒くさいよね」「言葉の壁、ダルいよね」っていう、日常の「ちょっとした不便」を、AIの力で「なめらか」にしよう、というアプローチです。
この10年、僕らはみんな「スマホ」という名の小さな画面に釘付けでした。
街を歩きながら、電車に乗りながら、時には人と話しながらも、僕らは常に「下」を向いていた。
AIグラスが本当に目指している未来は、たぶん、僕らに「顔を上げさせる」ことなんだと思います。
必要な情報は、視界や耳にそっと提供される。だから、スマホ画面に気を取られず、目の前の景色を、目の前の人の顔を、ちゃんと見ることができる。
テクノロジーが進化しすぎて、逆にテクノロジーの存在を意識しなくなる。それって、なんだかすごく人間的な未来だと思いませんか?
もちろん、課題は山積みです。プライバシー問題なんて、一歩間違えばヤバいです。
でも、そのハードルを乗り越えた時、私達の「日常の風景」は、文字通り「見る目」が変わるくらい、大きく変化しているはずです。
その未来がちょっと楽しみでもあり、ちょっと怖くもある今日このごろです。
- 2025.10.24
- by Hiro
