Google I / O 2019キーノート:知っておくべきことすべて!

著者: Laura McKinney
作成日: 10 Lang L: none (month-011) 2021
更新日: 1 J 2024
Anonim
Developer Keynote (Google I/O ’19)
ビデオ: Developer Keynote (Google I/O ’19)

コンテンツ



Google I / O 2019が登場し、最も重要なイベントの1つは最初のイベントです。今年の基調講演には、新しい携帯電話から次のAndroid Qベータ版やその他多くのものまで、予想されるトピックに関する多くの約束があります。上記のビデオでライブを視聴し、基調講演の進行に合わせてこの記事を更新します。

さらに、Google Home製品とともに、アプリやゲームに関する情報も表示される予定です。また、フロアにはEric Zemen、David Imel、Justin Duinoがいますので、今後数日間でGoogle I / O 2019のカバレッジをさらに高めることができます。

ライブストリーム

イベントが始まると、東部標準時午後1時に上記のビデオでライブストリームを見ることができます。イベントが終了した後もリンクが機能し続けることを期待しています。以下で、詳細情報が利用可能になり次第、記事を更新します。

Google I / O 2019オープン

ゲーム、バーチャルリアリティ、拡張現実、およびいくつかのスタートレックとナイトライダーをフィーチャーしたモンタージュでGoogle I / O 2019を開きます。 Sundar Pichaiは、Googleがここ数週間にわたって行ってきたことについて話すことでプレゼンテーションを開始するためにステージをヒットし、彼は今後のリバプールサッカーの試合についてのヒントを作ります。彼は、拡張現実を使用して訪問者が今年を乗り切るのに役立つ今年のI / Oアプリについて語っています。これもGoogleマップの新機能です。

ピチャイは、Googleフォト、Googleマップ、Googleアシスタントなど、Googleのすべての便利なサービスについて簡単に説明します。彼はさらに、Google検索とGoogleニュースに重点を置いて、世界中で何十億もの人々が使用している製品について語っています。 Googleニュースの完全な報道機能も、さまざまなソースからのイベントやニュースの完全なタイムラインを含むGoogle検索に向かっています。また、GoogleはGoogle Podcastのインデックス作成をGoogle検索に取り入れており、Google検索の結果から直接聞くことができます。


Aparna Chennapragada、Google検索、カメラ、拡張現実

Google検索の拡張現実モデルの記事をご覧ください!

Aparnaは、Google検索で拡張現実とカメラについて話をするステージに入ります。最初の新しい検索機能では、Google検索から直接3Dモデルを表示し、拡張現実を使用してこれらのオブジェクトをカメラアプリに配置できます。靴を探したり、自分の服にどのようにフィットするかを確認したりすることもできます。最後に、カメラアプリで3Dモデルを確認すると、カメラアプリにある他のものに合わせてサイズが拡大するようです。デモではステージ上で素晴らしいホオジロザメが見られ、とても印象的でした。

Googleは、来年にわたって拡張現実をカメラと検索の両方と結び付けています。

Aparnaは、最近のほとんどの新しいAndroidスマートフォンで利用可能なGoogle Lensに移行します。 Googleフォト、アシスタント、カメラに組み込まれています。 10億人以上がすでにレンズを使用しています。 Lensは、ユーザーがGoogleマップのデータを使用しなくても、カメラとネイティブに連携して、人気の料理などをメニューで強調表示できるようになりました。また、レンズは、ユーザーの入力をあまり必要とせずに、カメラアプリからリアルタイムでレストランの領収書のチップとスプリットの合計を計算できます。 Googleは、これらの視覚体験を改善するために多くの企業と提携しています。

最後に、GoogleはGoogle翻訳とカメラをGoogle検索バーに統合して、母国語で声を出して読み上げたり、既にGoogle翻訳アプリでできるようにリアルタイムで翻訳したりします。 Aparnaは、アプリを使用して通常の生活を送るために適切な教育を受けたことがないインドの女性のビデオクリップにそれをスローします。この新機能は、わずか35ドルの携帯電話で動作し、できるだけ多くの場所にアクセスできるように非常に少ないスペースを使用します。


ピチャイがステージを奪還

Google Duplexの詳細については、こちらをご覧ください!

Sundarは再び舞台に上がり、予約の観点からGoogle DuplexとGoogle検索について話し始めます。 Assistantに予約を依頼することもできますが、そうです。ステージ上のデモは非常に印象的でした。これは、カレンダー、Gmail、アシスタントなどで機能します。この新しい機能はWeb上のDuplexと呼ばれ、Googleは今年後半に詳細を公開する予定です。

Sundarはまた、Googleの音声モデルが100GBから0.5GBになり、電話に直接保存できるほど小さくなったことを発表しました。これにより、アシスタントが高速化されます。ピチャイはスコットハフマンにそれをさらに投げかけます。

スコットハフマン、Googleアシスタント、音声モデル

Google Assistantは間もなく10倍高速になります!

スコットが登場し、Googleアシスタントをこれまで以上に高速化することについて話します。次に、別のGoogle社員であるMaggieが数十個のコマンドを鳴らし、Assistantがそれらをすべてapllombで処理して、Assistantがどれだけ速くなるかを示します。次に、ホットワードを使用せずに動作するGoogleアシスタントのデモを行い、音声を使用してテキストに返信し、イエローストーンで動物の写真を見つけ、その写真をテキストに送信します。彼女はアシスタントを使用して飛行時間を見つけ、その情報もテキストで送信します。すべてはタッチ入力なしで音声で行われました。アシスタントがマギーの口述と、コマンドを完了するためにGoogleに電話をかけた時期を理解するのを見るのは非常に印象的です。

Google Assistantは、より高速で使いやすく、より強力になります。

Scottはまた、Picks for youを発表しました。これは、アシスタントがこれまでに支援してきたことに基づいて結果をパーソナライズしようとする新しいGoogle Home機能です。これには、方向、レシピ、および個人の好みのために結果が異なる可能性のある他の領域などが含まれます。 Googleはこの個人参照を呼び出します。お母さんの家の天気をGoogleに尋ねると、Googleはあなたの言うこと、あなたとその場所の間の交通状況、お母さんの家の天気がどのようなものかを知っています。 Google Assistantが取得します。

最後に、スコットは、音楽やマップなどの簡単なコマンドなど、車内のGoogle製品の改善点に触れます。ああ、Google Homesのアシスタントは、簡単な停止コマンドでアラームを停止できるようになりました。 Scottは、Google Assistantを使用している人々の楽しい小さなモンタージュビデオクリップで彼のセグメントを締めくくります。

スンダーが再び帰ってきた!

Sundarは、すべての人にとってより有用なGoogleを構築するというGoogleの目標に戻って繰り返します。彼はまた、機械学習とAIについて、人間のように偏らないようにしたいと考えています。 Googleは、TCAVと呼ばれる新しい機械学習モデルに取り組んでおり、AIがその決定に使用するものを示しています。 Googleは、これを使用してバイアスを取り除き、AIテクノロジーの使用中に人々を支援したいと考えています。

Pichaiは、シークレットモードやその他の多くの機能強化を含む、Googleのプライバシーおよびセキュリティ機能のタイムラインを使用して、ユーザーセキュリティに取り組んでいます。セキュリティ設定は、右上のプロフィール写真でGoogle Chromeからすぐにアクセスできるようになります。本日(2019年5月7日)にリリースされる新機能では、Googleがローリングベースで収集した古いデータを削除できます。また、シークレットモードはマップにすぐに存在するため、アカウントに保存せずにアイテムを検索できます。プライバシーキーは、Googleが本日リリースしたもう1つの機能です。

Googleは、より簡単にアクセスできるようにセキュリティとプライバシー機能を改善し続けています。

連合学習は、Googleが行っているもう1つの新しいことです。これにより、Googleはユーザーが行った作業を学習し、Googleサーバーにアップロードし、他のすべてのユーザーと組み合わせてから、よりスマートな製品の新しいモデルを再ダウンロードします。 PichaiはGboardを例として使用しました。 Googleはまた、障害者を支援するためのアクセシビリティにも注目しています。 Pichaiは、過去数か月にわたってLive Transcribeやその他のアクセシビリティアプリについて語っています。

ライブキャプションは、身障者用のキャプションを作成するもう1つの新しいアプリです。 Googleは、この技術をすべてデュプレックス、スマート返信、スマートコンポーズに組み合わせて、ライブリレーと呼ばれる新機能により、聴覚障害者やミュートが機能的な電話をさらに簡単に行えるようにしたいと考えています。これはすべて、Googleが取り組んでいるProject Euphoniaと呼ばれるものの一部です。 Sundarは、難聴、脳卒中、その他の問題のためにうまく話せない人のために、Googleがどのように音声モデルを作成するかを示すことで、プレゼンテーションのこの部分を終了します。

Stephanie Cuthbertson、Android、モバイルOSイノベーション

ステファニーは、現在25億台を超えるAndroidデバイスがアクティブになっているというプレゼンテーションを開始します。彼女はそれから折り畳み式の電話について話します。 Android Qはfoldablesをネイティブでサポートし、OEMがより良いものを作成できるようにします。これには、Samsung Galaxy Foldの機能であるアプリの継続性が含まれます。 Android Qは5Gもネイティブにサポートします。ステファニーはAndroid Qで動作するライブキャプションについて話すためにステージにトリスタンを連れて行きます。彼はライブキャプションをデモし、非常にうまく機能します。ライブスピーチモデル全体は、2GBから80MBでデバイス上で機能します。

ステファニーは、Android Qのいくつかの新しいトリックを備えた古い機能であるSmart Replyについて語っています。現在、Androidのすべてのメッセージングアプリで機能します。さらに時間を節約するアクションも得られます。 Android Qには、本格的な完全なダークモードもついに登場します!少なくともスクリーンショットによれば、それはあなたのOLEDの人々にとって真の黒のテーマです。ただし、Android Qの中心的な焦点はセキュリティとプライバシーです。ステファニーは、Androidがマルウェアの保護とセキュリティに関する30のテストのうち26でトップのスコアを獲得したことを謙虚に言っています。

Android Qには、プライバシーのための設定メニュー全体があります。スマートフォンでこれらのことを簡単に制御できます。 Android Qは、アプリが位置情報の許可を使用した場合や位置データを共有する方法も警告します。もう1つの新機能は、デバイスを再起動せずにセキュリティ更新プログラムを適用する機能です。アプリケーションの更新とまったく同じように機能するはずです。これは、セキュリティ更新プログラムを頻繁に送信しないOEMにとって非常に刺激的です。

ステファニーは気晴らしにピボットします。 Androidの新機能は、フォーカスモードです。気を散らすアプリを無効にすると、通知を送信するほどのものではなくなります。これは、この秋にAndroid Pieでも利用できるようになります。さらに、Android Qには、ファミリーリンクなどのネイティブファミリーコントロールがあります。ファミリーリンクを使用すると、毎日の画面制限時間の設定、アプリのインストールの承認、さらに就寝時間の設定ができます。ベータ版は、すべてのピクセルを含む21のデバイスで利用できます。

Rick Osterloh、AI、ソフトウェア、およびハードウェア

リックはステージに入り、さらに開発者に優しいトピックについて話をします。彼は、Google Homeに関するビデオクリップからプレゼンテーションを開始します。リックは、すべてのホーム製品をネスト名でまとめることについて話しています。 Nestの現在のすべての製品に加えて、多数のホーム製品が含まれています。リックは、Nest HubとNest Hub Maxを発表しました。これらのデバイスのカメラは、Nest Camのようなセキュリティカメラとして使用できます。また、Google Duoでも使用できます。

カメラには、デバイスの背面にある緑色のインジケータライトと、セキュリティとプライバシーのためにカメラの電源をオフにするスイッチもあります。これらのデバイスの詳細については、ハンズオンで説明します。これらのデバイスは、機械学習を使用して、LG G8などの追加の制御機能のハンドジェスチャーも識別します。これらのデバイスは夏に利用可能になります。 Nest Hubは12の新しい地域でも利用可能になります。 Nest Hub Maxのハンズオンについては、こちらをご覧ください!

サブリナエリス、ピクセル3Aおよび3A XL

RickはSabrina Ellisにそれを投げて、2つの新しいPixelデバイスについて話します。 Pixel 3Aと3A XLはわずか399ドルから。彼らは新しいものを含む3色、紫がかった色があります。これらのデバイスには、3.5mmヘッドフォンジャックも付いています。サブリナは、新しいPixel 3aが高価なハードウェアなしで高品質の写真を提供できることについて、ちょっとした話をしています。基本的には、より高価なPixelsに似ていますが、プロセッサの性能は劣ります。

本日より、PixelデバイスはGoogleマップで新しいARモードを使用できるようになります。 Sabrinaは、Pixel 3Aおよび3A XLにも搭載されているAndroid Pie、Android Q、Pixelのすべての機能を中心に説明します。また、さまざまな国で利用できるようになり、米国ではVerizon専用になりません。今日から利用可能になります。ただし、Googleフォトの無料の最高品質のストレージアップグレードはありません。ユーザーは、他のすべてのユーザーが入手できる高品質バージョンに制限されます。

ジェフディーン、AI(もう一度)

ジェフはAIについて話をするために舞台に立ちます。基調講演のこの部分はもう少し技術的で、コンピューターの言語の流fluさについて話します。これには、トランスフォーマー(BERT)からの双方向エンコーダー表現、またはコンピューターが単語のコンテキストを理解する機能が含まれます。彼らは、狂気のライブラリの楽しい、ハイテクバージョンを使用してモデルを訓練します。その後、ジェフはTensorFlowについて語り、昨年のプラットフォームの更新について話します。彼はそれをリリー・ペンに投げて詳細を求めます。

リリー・ペン、医療技術

リリーペンは、医療用のGoogleの機械学習モデルについて話をします。これには、視覚、糖尿病、腫瘍学などが含まれます。彼女は、機械学習を使用してCTスキャンを表示し、肺がんの悪性病変の検出を改善することについてさらに話しています。ただし、初期段階です。彼女はジェフにそれを投げ返します。

AIと機械学習の詳細についてジェフに戻る

ジェフは、生態系の研究、エンジニアリング、構築について話をするためにステージに戻ります。彼は、洪水検知モデルと、今年のインドの人々が洪水を避けるのにどのように役立つかについて語っています。数千枚の衛星写真、機械学習、ニューラルネットワーク、物理学が見事に融合しています。 Googleは、これらのモデルをさらに改良して、場所がいつ洪水になるかを誰もが確実に把握できるようにしたいと考えています。

Googleは20の組織と提携して、世界最大の問題のいくつかに取り組んでいます。これには、抗菌イメージング、緊急応答時間の高速化、大気質を改善するための高解像度監視ネットワークが含まれます。これらの企業も無料で資金を獲得します。その後、ジェフはGoogle I / O 2019の基調講演を締めくくり、次の10年についての感動的な言葉を述べました。

要約

今年のGoogle I / O 2019基調講演で好きだった点は何ですか?コメントで教えてください!また、トピックに関するポッドキャストもご覧ください。リンクは、上記のリンクか、お気に入りのポッドキャッチャーで入手できます。

Android Q(ベータ5に更新):開発者が知っておくべきことすべて–ベータ5によってもたらされたマイナーな変更を反映するために、開発者向けのAndroid Qのガイドを更新しました。Facebook for Android DKの使用開始– Jeica Thornbyが提供するこのDKでは、提供されているDKを使用してFacebookをアプリに統合する方法を説明しています。エンゲージメントを高...

Mobvoi TicWatch 2とTicWatch E2が発表されて間もなく、彼らは市場で最高のWear Oウォッチのリストを簡単に作成しました。両方のデバイスは、素晴らしいスマートウォッチ体験、終日のバッテリー寿命、および内蔵GPや防塵および耐水性のための5ATM評価などの多くの高度な機能を提供します。よりスポーティなTicWatch 2には、MIL-TD810G耐久性評価もあります。...

人気の出版物