Googleは10月15日、同社製のスマートフォン「Pixel 4」「Pixel 4 XL」を発表した。16日には日本でも発表会を開催。2モデルとも、10月24日に販売が開始されることが明らかになった。2018年はドコモとソフトバンクの2社が取り扱っていたが、Pixel 4、4 XLはソフトバンクがキャリアとして独占的に販売する。ドコモとKDDIは、導入を見送ったようだ。



Googleの発表した「Pixel 4」（左）と「Pixel 4 XL」（右）

「ハードウェア」「ソフトウェア」「AI」の3つを融合させるPixelシリーズ

検索を皮切りに、動画共有サービスのYouTubeや、スマートフォン向けOSのAndroidなど、各種ソフトウェアを提供してきたGoogle。そんなソフトウェアやクラウドサービスを主戦場にしてきた同社が送り出すフラグシップスマートフォンが、「Pixel」シリーズだ。Pixel 4、4 XLはその最新モデル。ハードウェアとしては、デュアルカメラ化したことや、電波を使ってジェスチャーを検知する「モーションセンス」に対応したことが、大きな特徴となる。

機械学習を処理するためのチップセットも刷新し、「Pixel 3」や「Pixel 3 XL」に搭載されていた「Pixel Visual Core」は、「Pixel Neural Core」へと名前を変えている。メインのチップセットはQualcomm製のSnapdragon 855だが、機械学習の処理に特化させたチップを別に搭載し、カメラ撮影時の処理や音声認識など、端末上で行う動作の高速化を図っている。

ソフトウェアやクラウドサービスを主力にしていたGoogleが、あえてスマートフォンを開発、販売する狙いはここにある。日本でのイベントに登壇したGoogleのハードウェア事業 パートナーシップビジネス統括の織井賢氏は、「ハードウェア、ソフトウェア、そしてそれをAIが包み込むことで、今までにない経験をしていただける」と語る。

Googleのサービスは、スマートフォンがあれば利用することはできる。Androidである必要すらなく、Googleは競合ともいえるiPhoneにもアプリは提供している。一方で、Googleが注力するAIの実力を最大限引き出そうと思うと、どうしてもハードウェアという“入れ物”が必要になってくる。Pixel 4、4 XLに搭載されたカメラは、その代表例だ。いくらAIが優れているとは言っても、当然ながら光を受け、データに変換するレンズやセンサーがなければ、それを形にできない。

他社のスマートフォンに提供するにしても、スペックは機種によってまちまちだ。例えば、Pixel 4、4 XLには、8倍まで被写体に寄れる「超解像ズーム」が搭載されているが、これを実現するには、新たに搭載された望遠カメラが不可欠だ。一方で、望遠カメラはスペック上、35mm判換算で44mmと、望遠と呼べるほどの画角ではなく、機械学習なしにはここまで鮮明な映像を作り出すことができない。ハードウェアとソフトウェア、さらにAIが協調することで、初めて実現できた機能というわけだ。

残念ながら日本語には対応しておらず、現在、「提供できるように取り組んでいる」（Google広報部）段階だが、ボイスレコーダーの自動文字起こし機能も、カメラと同様、ハードウェアとソフトウェア、AIの3つの連携で生み出された機能といえる。文字起こしが可能なボイスレコーダーアプリは他にも存在するが、Pixel 4、4 XLのそれは、端末上で処理が完結するのが大きく異なるポイント。容量の大きな音声データをクラウドにアップロードする必要がないため、データ通信の速度や容量を気にせず使えるのは、大きなメリットといえる。