どこでも、だれでも
どこでも、だれでも利用できるように。
そのための施策が公開されました。いずれも近い将来、Pixelフォンに実装される予定です。
グーグルサーチ
AR技術を検索結果に統合
Google検索の検索結果に3Dモデルへのリンクを表示。3Dモデルは拡大、縮小、回転が出来るため、あらゆるアングルからの確認ができ、靴底のデザインすらも確認できるでしょう。
また3Dモデルをディスプレイ表示するにとどまらず、カメラを通じユーザーのそばへ拡張現実を届けます。実際の大きさや、動きをより現実に近い姿で感じることが出来るでしょう。
GoogleLensの拡張
GoogleMAPでレストランを検索しその店の評判を確認する機能がLensと統合、レストランのメニューにGoogleLensにかざすだけでオススメメニューをハイライトしたり、またレシートにかざすだけでチップの計算や、割り勘計算をしたりできるようになります。
どこでもだれでも使えるよう、GoogleGOを開発。
Google翻訳とカメラを、ランチャー上のウィジェット「サーチバー」に統合配置。
理解できない言語の、看板、ATM表示などにかざせば、その場でリアルタイム翻訳を実現します。テキスト翻訳だけではなく、翻訳音声も聞くことができます。
これらは、35ドルという低価格のスマートフォンで実現されます。そのためにソースコードは100キロバイトに抑えられています。
GoogleDuplex on the web
Google自動応答機能はwebに実装されます。
検索結果に基づき、アシスタントが手配を手助けする機能で、on the webはGmailから旅行情報をスキャン、レンタカーの手配をしようと手続きに飛んだ際、日程などの入力補助を行います。
それは過去のデータも参考にし、車種、色などの指定も行います。
レンタカー、あるいは映画のチケット予約でローンチし順次拡大する見込み。
2019夏、英国、米国でローンチ予定。
アシスタントの高速化
従来、100GBの音声モデルデータを必要としたGoogleアシスタントは、0.5GB(500メガ)までダウンサイジングを実現。
そうした技術進歩により、音声アシスタントは、オンデバイス化を実現、サーバーアクセスを必要しなくなった結果、およそ10倍の高速化を果たします。
また、アシスタントアクセスのためのトリガー、ウェイクワード(オッケーグーグル)は必要なくなり、連続した音声コマンドに対応。
例えば、音声によるメッセージの返信、写真の検索、表示からのメッセージへの画像添付など、連続したアクションをタッチ操作なしに、しかも高速で行えるようになりました。
Picks for You
極めてプライベートなパーソナライズを実現します。
アシスタントは、学習の結果に基づく個人参照を行い、ユーザーひとりひとりにパーソナライズされます。
例えば、「わたしのおかあさん」という言葉を認識、理解し、アシスタント内容に反映します。
その結果、例えば、あなたの母親の家に行くナビゲーションや、母親宅の天気の参照など、あなたは、極めて個人的な要素を意識することなく、情報へのアクセスを補助します。
合わせて、アシスタントは、Googleドライブを統合。運転モードを獲得し、安全なドライブのためのフォーカスモードを実現、運転に特化した情報提供を行います。
プライバシーについて
GoogleのAI技術をより広く届けるため、機械学習について、学習モデルにTCAVモデルを導入。Googleによるバイアス(方向性の誘導)を取り除きます。
またプライバシーとセキュリティーのタイムライン機能を実装。よりシンプルにアクセスできるようになりました(本日より)Googleが保存する古いパーソナルデータを定期的に削除することができます。あわせてGoogleMapにまもなくシークレットモードが実装されますが、これはデータを保存せず検索することができます。
フェデレーションラーニング
各端末のAIは学習した内容をサーバーで統合、新たな学習結果をダウンロードします。
キーノートの最後の方では、BERT(Bidirectional Encorder Representational from Transformers)について触れ、言語理解の機能を紹介、流暢さに関係する訓練について話されました。また、Googleの医療チームが、機械学習によって初期の肺がんを検知する技術に触れ、この技術が、視力回復、糖尿病対策、腫瘍対策に応用されつつあることが発表されました。
またAIによる予測技術についても言及され、衛星写真、機械学習、ニューラルネットワークの融合例として、実際にインドで洪水予測を行っていることが発表されています。
機械学習技術
新たなアプリケーションに応用され、オフライン活動を可能にします。
- LiveTranscribe
- ネットワーク接続なし。音声入力をリアルタイムにテキスト化するアプリケーション。公開済み。
- LiveCaption
- ネットワーク接続なし。スマホ内のあらゆる音声データ(動画など)に、リアルタイムで字幕をつけるアプリケーション。スマホ内にしかないプライベートな動画に字幕がつけられる。
- LiveRelay
- ネットワーク接続なし。かかってきた電話にアプリケーションが応答。応答中の相手の音声をリアルタイムにテキスト化し、メッセージアプリのようにタイムラインで表示。
- そのテキストに返信することで、アプリケーションがテキストを音声合成、音声で返答。
プロジェクト ユーフォニア
LiveTranscribe、LiveCaption、LiveRelayに加え、Duplex、SmartReplay、SmartComposeを統合し、障害者を支援します。これがProjectユーフォニアの全貌です。
聴覚障害者だけでなく、脳卒中など会話が困難な人々のために、これらは研究開発が続けられます。
脳卒中により、わずかな表情変化しか表現できなくても、任意の音声データを選択できるようなデモが行われました。従来の誤差を曖昧判定するAI学習とは真逆のアプローチで非常に興味深いです。
Android 10 Q
25億台のアクティブデバイスが存在するAndroid。次世代に搭載される機能として、折りたたみデバイスのサポートが正式アナウンスされました。
折りたたみ時、処理中のディスプレイ表示処理を中断しないことが正式サポートされる事になり、アプリケーションの継続性が確保されます。
また5Gのネイティブサポートもアナウンスされています。
LiveCaptionがQの機能として紹介。デモは機内モードで実行されました。音声モデルのサイズは2GBから80MBまでダウンサイジング。オンデバイスで動作します。
SmartReplyがすべてのメッセージングアプリに拡大、そのデモも行われました。
そしてダークモードの正式対応がアナウンスされました。
AndroidQの主なテーマは、セキュリティーとプライバシーであると、改めて名言し、例えば位置情報についてシンプルなコントロールUIがデモされました。明確に利用中のみ位置情報を使うことが設定でき、かつ集中して管理できることがわかります。
アップデート機能については、GooglePlayから更新データをダウンロードし、再起動なしで更新できるようになることがアナウンスされました。これにより、セキュリティアップデートなど必須な事項は、ハードウェアメーカー側の対応を必要とせず、リアルタイムに適用できるようになります。
デジタルウェルビーイング関連では、気を散らすアプリの通知をコントロールするフォーカスモード機能が紹介、加えてファミリーリンクにデジタルウェルビーイング機能が拡大されることも発表され、毎日のスクリーン時間制限、アプリのインストール承認、就寝時間の設定にデジタルウェルビーイングの設定を反映させることが出来るようになります。
AndroidQベータ3は本日から配布、Pixelのみならず、OEM21社のデバイスで利用可能になりました。
ハードウェア
Nest Hub シリーズ
グーグルホームシリーズのハードウェアは「Nest」という呼称でまとめられることが発表。
Nest Hub、Nest Hub MAXが新たに発表され、いずれも入力装置としてカメラが搭載、カメラの入力を停止する物理スイッチを備えています。
照度センサーを内蔵、部屋の明るさに合わせ自動で色温度を調整します。リッチなスピーカー(Nest Hub MAX、38mmツイーター2基、78mmサブウーファー内蔵)と10インチディスプレイを備えますが、解像度は1280×800と抑えめ。
防犯カメラ、見守りカメラとして利用できることが紹介され、ビデオ通話も可能な他、ハンドゼスチャーによる停止がサポートされるとされました。
Nest Hubシリーズは2019夏に発売予定。日本を含む12カ国でローンチされます。
Pixel 3aシリーズ
販売はGoogleのオンラインショップで今日から予約することができ、5月17日までに予約した場合、5000円分のポイントが還元されます。
GoogleマップのARモードが公開
PixelデバイスはGoogleマップでARナビゲーション機能が使えるようになったと発表。