Google I/O 2019 まとめ

Android
この記事は約7分で読めます。
この記事を書いたひと
にゃぁ㌠

主にDQX(ドラゴンクエスト10)で活動していました(過去形)。
ゲーム記事多めです。
コロコロとかわる「好きなこと」だけを書いています。
なにかありましたらツイッターまでお気軽にご連絡ください(๑>ڡ<๑)

にゃぁ㌠をフォローする

どこでも、だれでも

どこでも、だれでも利用できるように。

そのための施策が公開されました。いずれも近い将来、Pixelフォンに実装される予定です。

グーグルサーチ

AR技術を検索結果に統合

Google検索の検索結果に3Dモデルへのリンクを表示。3Dモデルは拡大、縮小、回転が出来るため、あらゆるアングルからの確認ができ、靴底のデザインすらも確認できるでしょう。

また3Dモデルをディスプレイ表示するにとどまらず、カメラを通じユーザーのそばへ拡張現実を届けます。実際の大きさや、動きをより現実に近い姿で感じることが出来るでしょう。

GoogleLensの拡張

GoogleMAPでレストランを検索しその店の評判を確認する機能がLensと統合、レストランのメニューにGoogleLensにかざすだけでオススメメニューをハイライトしたり、またレシートにかざすだけでチップの計算や、割り勘計算をしたりできるようになります。

どこでもだれでも使えるよう、GoogleGOを開発。

Google翻訳とカメラを、ランチャー上のウィジェット「サーチバー」に統合配置。

理解できない言語の、看板、ATM表示などにかざせば、その場でリアルタイム翻訳を実現します。テキスト翻訳だけではなく、翻訳音声も聞くことができます。

これらは、35ドルという低価格のスマートフォンで実現されます。そのためにソースコードは100キロバイトに抑えられています。

GoogleDuplex on the web

Google自動応答機能はwebに実装されます。

検索結果に基づき、アシスタントが手配を手助けする機能で、on the webはGmailから旅行情報をスキャン、レンタカーの手配をしようと手続きに飛んだ際、日程などの入力補助を行います。

それは過去のデータも参考にし、車種、色などの指定も行います。

レンタカー、あるいは映画のチケット予約でローンチし順次拡大する見込み。

2019夏、英国、米国でローンチ予定。

アシスタントの高速化

従来、100GBの音声モデルデータを必要としたGoogleアシスタントは、0.5GB(500メガ)までダウンサイジングを実現。

そうした技術進歩により、音声アシスタントは、オンデバイス化を実現、サーバーアクセスを必要しなくなった結果、およそ10倍の高速化を果たします。

また、アシスタントアクセスのためのトリガー、ウェイクワード(オッケーグーグル)は必要なくなり、連続した音声コマンドに対応。

例えば、音声によるメッセージの返信、写真の検索、表示からのメッセージへの画像添付など、連続したアクションをタッチ操作なしに、しかも高速で行えるようになりました。

Picks for You

極めてプライベートなパーソナライズを実現します。

アシスタントは、学習の結果に基づく個人参照を行い、ユーザーひとりひとりにパーソナライズされます。

例えば、「わたしのおかあさん」という言葉を認識、理解し、アシスタント内容に反映します。

その結果、例えば、あなたの母親の家に行くナビゲーションや、母親宅の天気の参照など、あなたは、極めて個人的な要素を意識することなく、情報へのアクセスを補助します。

合わせて、アシスタントは、Googleドライブを統合。運転モードを獲得し、安全なドライブのためのフォーカスモードを実現、運転に特化した情報提供を行います。

プライバシーについて

GoogleのAI技術をより広く届けるため、機械学習について、学習モデルにTCAVモデルを導入。Googleによるバイアス(方向性の誘導)を取り除きます。

またプライバシーとセキュリティーのタイムライン機能を実装。よりシンプルにアクセスできるようになりました(本日より)Googleが保存する古いパーソナルデータを定期的に削除することができます。あわせてGoogleMapにまもなくシークレットモードが実装されますが、これはデータを保存せず検索することができます。

フェデレーションラーニング

各端末のAIは学習した内容をサーバーで統合、新たな学習結果をダウンロードします。

キーノートの最後の方では、BERT(Bidirectional Encorder Representational from Transformers)について触れ、言語理解の機能を紹介、流暢さに関係する訓練について話されました。また、Googleの医療チームが、機械学習によって初期の肺がんを検知する技術に触れ、この技術が、視力回復、糖尿病対策、腫瘍対策に応用されつつあることが発表されました。

またAIによる予測技術についても言及され、衛星写真、機械学習、ニューラルネットワークの融合例として、実際にインドで洪水予測を行っていることが発表されています。

機械学習技術

新たなアプリケーションに応用され、オフライン活動を可能にします。

  • LiveTranscribe
    • ネットワーク接続なし。音声入力をリアルタイムにテキスト化するアプリケーション。公開済み。
  • LiveCaption
    • ネットワーク接続なし。スマホ内のあらゆる音声データ(動画など)に、リアルタイムで字幕をつけるアプリケーション。スマホ内にしかないプライベートな動画に字幕がつけられる。
  • LiveRelay
    • ネットワーク接続なし。かかってきた電話にアプリケーションが応答。応答中の相手の音声をリアルタイムにテキスト化し、メッセージアプリのようにタイムラインで表示。
    • そのテキストに返信することで、アプリケーションがテキストを音声合成、音声で返答。

プロジェクト ユーフォニア

LiveTranscribe、LiveCaption、LiveRelayに加え、Duplex、SmartReplay、SmartComposeを統合し、障害者を支援します。これがProjectユーフォニアの全貌です。

聴覚障害者だけでなく、脳卒中など会話が困難な人々のために、これらは研究開発が続けられます。

How AI can improve products for people with impaired speech
Google is researching ways to improve speech recognition including for people with speech impairments, partnering with nonprofits and volunteers
Project Euphonia: Helping everyone be better understood
デモ

脳卒中により、わずかな表情変化しか表現できなくても、任意の音声データを選択できるようなデモが行われました。従来の誤差を曖昧判定するAI学習とは真逆のアプローチで非常に興味深いです。

Android 10 Q

25億台のアクティブデバイスが存在するAndroid。次世代に搭載される機能として、折りたたみデバイスのサポートが正式アナウンスされました。

折りたたみ時、処理中のディスプレイ表示処理を中断しないことが正式サポートされる事になり、アプリケーションの継続性が確保されます。

また5Gのネイティブサポートもアナウンスされています。

LiveCaptionがQの機能として紹介。デモは機内モードで実行されました。音声モデルのサイズは2GBから80MBまでダウンサイジング。オンデバイスで動作します。

SmartReplyがすべてのメッセージングアプリに拡大、そのデモも行われました。

そしてダークモードの正式対応がアナウンスされました。

AndroidQの主なテーマは、セキュリティーとプライバシーであると、改めて名言し、例えば位置情報についてシンプルなコントロールUIがデモされました。明確に利用中のみ位置情報を使うことが設定でき、かつ集中して管理できることがわかります。

アップデート機能については、GooglePlayから更新データをダウンロードし、再起動なしで更新できるようになることがアナウンスされました。これにより、セキュリティアップデートなど必須な事項は、ハードウェアメーカー側の対応を必要とせず、リアルタイムに適用できるようになります。

デジタルウェルビーイング関連では、気を散らすアプリの通知をコントロールするフォーカスモード機能が紹介、加えてファミリーリンクにデジタルウェルビーイング機能が拡大されることも発表され、毎日のスクリーン時間制限、アプリのインストール承認、就寝時間の設定にデジタルウェルビーイングの設定を反映させることが出来るようになります。

AndroidQベータ3は本日から配布、Pixelのみならず、OEM21社のデバイスで利用可能になりました。

ハードウェア

Nest Hub シリーズ

グーグルホームシリーズのハードウェアは「Nest」という呼称でまとめられることが発表。

Nest Hub、Nest Hub MAXが新たに発表され、いずれも入力装置としてカメラが搭載、カメラの入力を停止する物理スイッチを備えています。

照度センサーを内蔵、部屋の明るさに合わせ自動で色温度を調整します。リッチなスピーカー(Nest Hub MAX、38mmツイーター2基、78mmサブウーファー内蔵)と10インチディスプレイを備えますが、解像度は1280×800と抑えめ。

防犯カメラ、見守りカメラとして利用できることが紹介され、ビデオ通話も可能な他、ハンドゼスチャーによる停止がサポートされるとされました。

Nest Hubシリーズは2019夏に発売予定。日本を含む12カ国でローンチされます。

Pixel 3aシリーズ

販売はGoogleのオンラインショップで今日から予約することができ、5月17日までに予約した場合、5000円分のポイントが還元されます。

GoogleマップのARモードが公開

PixelデバイスはGoogleマップでARナビゲーション機能が使えるようになったと発表。

タイトルとURLをコピーしました