【Google I/O 2018】カメラ×AIで何ができる?Google Lensの使い道
IT・デジタル
スマートフォン
注目記事
-
【デスクツアー】真似したい自宅デスク環境一挙公開!
-
【Google I/O 2018】Google Mapの新機能に会場から歓声!
-
【Google I/O 2018】AIでユーザーの好みを学習する最新OS「Android P」!

Google Lensは、カメラに写ったものをAIが認識し、様々な情報を表示したり文字をテキスト情報として読み込んだりといったことができる機能。これまでは、一度撮影したものをGoogleフォトに取り込むことでその機能が使えていたが、いよいよリアルタイム認識に対応することが今回発表された。
別稿で触れたが、これを活用してGoogle MapがAR対応したほか、たとえば海外のレストランでメニューを見ても内容がわからない時、Google Lens対応のカメラをメニューにかざすと、リアルタイムに翻訳してくれたり、料理の写真を表示してくれたりする。読み込んだテキストはそのままコピー&ペーストすることも可能だ。
または、服やカバン、靴などにカメラを向けると、類似したアイテムをレコメンドしてくれる「Style Match」という機能も紹介された。照明などにカメラをかざすと、おすすめの照明カバーを検索してくれたりもする。そのほか、建物や動物にカメラを向けると、ビル名だったり、犬種だったりを知ることができる機能や、アーティストのポスターにかざすとそのアーティストの楽曲のYouTubeが再生されるといった使い方もできる。
実際にカメラに写るものは、たとえば同じ建物といってもそのアングルや光の当たり方によって無数の見え方をする。そうした膨大な数のシチュエーションに対してリアルタイムに適切な情報を表示する今回の試みに関しては、やはり機械学習の力がなければ不可能だったと、プレゼンテーションにのぞんだAparna Chennapragada氏は述べている。
なお、カメラのレンズとAIで言えば、マイクロソフトが昨年7月に発表した「Seeing AI」というものもある。こちらは、聴覚障害のある方達の利便性向上が念頭にあり、レンズに写ったものの状態を音声で読み上げるというもの。まだ日本では利用できないが、こうしたAIの活用事例が今後も増えていくだろう。
《白石 雄太》
特集
この記事の写真
/
関連ニュース
-
【Google I/O 2018】Google Mapの新機能に会場から歓声!
IT・デジタル -
【Google I/O 2018】AIでユーザーの好みを学習する最新OS「Android P」!
IT・デジタル -
【先週の注目ニュース】日本上陸したGoogle WiFiって?/ZOZO SUITは大幅に仕様変更
IT・デジタル -
Googleアシスタント内蔵ヘッドホンの活用術【最新iPhoneを使いこなす】
IT・デジタル -
今度はタッチ画面付き!「Google Smart Display」でできることとは?【CES 2018】
IT・デジタル -
【デジージョ 座談会】5G/AI/スマホは一体どうなる?……モバイル業界の今後を語る
IT・デジタル -
どこを“流せば”儲かるの?これからはAIが走行ルートを推薦し客をつかむ!!
IT・デジタル -
「トイレの空き状況」がスマホでわかる!百貨店のIoTトイレにかかる期待
IT・デジタル