FUJILOG

見た、聴いた、触れたこと。 動かしたもの、書いたもの。 ウェブとリアルの備忘録です。

# (175) : Satya Nadella氏のMicrosoft Build 2024基調講演 - YouTube

www.youtube.com

Satya Nadella氏 Microsoft Build 2024基調講演 全文

https://www.youtube.com/watch?v=8OviTSFqucI

書き起こし:

  • 00:06 我々の業界は共通のビジョンを持つ必要があると思います。それは我々を驚くべきものにつなげてくれた時代でした。私はこのビジョンを「指先の情報」と呼んでいます。そして30年後、我々は新しい時代にいます。情報へのアクセスが、専門知識へのアクセスになる時代です。農場から研究室まで、役員室から教室まで、この新世代のAIはすべての人のためのものです。

  • 00:48 今や誰もがパーソナルアシスタントで時間を節約できます。GitHub Copilotで私は約50%の時間を節約しています。その時間を使って他の革新的なことができます。池の状態をより速く知ることができます。誰でも新しいスキルを学ぶためのパーソナルチューターにアクセスできます。銀行について学びました。ローンの申し込み方、お金の貯め方を。

  • 01:14 私たちはたくさんのことを学びました。このテクノロジーは世界中のすべての学生の学び方を完全に再構想する可能性があると思います。これはパーソナルコーチと一緒に分析する新しい方法です。生産性の向上だけでなく、ほぼリアルタイムでインサイトが得られるようになります。生成型AIはデータから学習し、農家の生産性向上に役立ちます。

  • 01:41 AIは私たち全員の創造性を解き放ちます。説明がとても詳細なので、私の想像力でアートワークを描くことができます。今や教師は私たちのニーズに合わせて自由にレッスンプランを作ることができます。指先の専門知識で。あなたは大切なものを作ることができます。AIトランスフォーメーションの時代へようこそ。おはようございます。おはようございます。

  • 02:25 Microsoft Buildに戻ってこられて素晴らしいですね。ここにいるみなさん、ウェブで参加しているみなさん、ようこそ。開発者会議は、空気中に根本的な変化を感じることができるときに、最もエキサイティングで楽しいものです。この30年間、PDCやBuildに来るたびに、私の大人としての人生をすべて刻んできました。

  • 02:52 Win32が最初に議論された時のことを今でもはっきりと覚えています。1991年だったと思います。.NET、Azureなどもそうですね。これらは私の人生の節目となる瞬間です。そして、今回もまたそのような瞬間にいるような気がします。ただ、今回はその規模と範囲がこれまでよりもずっと深く、ずっと広いのです。テックスタックのすべてのレイヤーが変化しています。データセンターの消費電力と冷却のレイヤーから、エッジのNPUに至るまで、これらの新しいワークロードによって形作られているのです。

  • 03:33 これらの分散型、同期型、データ並列型のワークロードは、テックスタックのすべてのレイヤーを再形成しています。しかし、現代のコンピューティングの始まりである70年前までさかのぼって考えてみると、私たちには2つの本当の夢がありました。1つ目は、私たちがコンピューターを理解するのではなく、コンピューターが私たちを理解してくれるようになること。そして2つ目は、人、場所、モノに関する情報が増え続ける世界で、つまり、人、場所、モノからより多くのアーティファクトをデジタル化し、より多くの情報を持つようになると、

  • 04:19 コンピューターは私たちがそのすべての情報に基づいてより効果的に推論し、計画し、行動するのを助けてくれるのでしょうか。それが過去70年以上にわたって私たちが抱いてきた2つの夢です。そして、私たちはここにいます。両方の面で本当のブレークスルーがあったと思います。根本的な原動力の1つは、私がいつも自問する質問の1つです。「これは素晴らしい。

  • 04:42 これはシステムの黄金時代かもしれない。何が本当に原動力になっているのだろう」と。私はいつも、ムーアの法則が情報革命を後押ししたように、スケーリングの法則に立ち返ります。DNNのスケーリング則は、モデルアーキテクチャとともに、データを使う面白い方法、データを生成する方法が、この知能革命を本当に推進しているのです。

  • 05:07 ムーアの法則はおそらく、15ヶ月、18ヶ月でスケールしていたという意味で、より安定していたと言えるかもしれません。今では6ヶ月ごとにスケールしたり、6ヶ月ごとに倍増したりするようなものがあります。しかし、このスケーリング則の効果として持っているのは、マルチモーダルな新しい自然なユーザーインターフェースです。

  • 05:28 つまり、テキスト、音声、画像、動画を入力および出力としてサポートしています。重要なコンテキストを保持し、アプリやデバイス全体の個人的な知識とデータの両方を思い出すメモリがあります。非常に複雑なコンテキストを理解し、複雑なタスクを完了するのに役立つ新しい推論と計画の機能があります。

  • 05:49 私たちへの認知的負荷を軽減しながら。しかし、この1年を振り返って私の目を引くのは、みなさんが開発者としてこれらすべての機能をどのように活用し、まさに世界を変えてきたかということです。2023年1月、インドの農村の農家に会ったときのことは忘れられません。彼はGPT-3.5と自分の声を使って、テレビで聞いた政府の農業補助金について推論することができたのです。

  • 06:24 驚くべきことでしたね。私にとって、このすべての力を実感させてくれたのです。なぜなら、アメリカ西海岸でわずか数ヶ月前に開発されたフロンティアモデルが、インドの開発者によって使われ、インドの農村の農家の生活を直接向上させたからです。その普及の速さは私のプロの経歴の中で見たことのないものであり、それはただ増加しているだけです。

  • 06:48 実際、今月初めに私は東南アジアにいました。タイにいたとき、ある開発者に会い、素晴らしい座談会をしていたのですが、彼はPhi-3とGPT-4をどのように使っているかを私に話してくれました。彼はRAGで行っていたすべてのことを最適化するためにPhi-3を使っていました。つまり、これはクレイジーなことで、信じられないことなのです。

  • 07:06 それはほんの数週間前に立ち上げたばかりで、私はタイのバンコクにいて、開発者がこの技術について本当の専門家として話すのを聞いていたのです。だから、民主化の力を目の当たりにするのは本当に素晴らしいことですが、それを目撃するのは何かだったのです。そして、これは全くもって、私たちがこの業界にいる理由なのです。

  • 07:28 そして、それは私たちの仕事に深い意味を与えてくれるものなのです。しかし、私はまず、世界にこの影響をもたらすことに本当に取り組んでいるすべての人に大きな感謝の意を表したいと思います。本当にありがとうございました。昨年のBuildから今日までの進歩について考えてみると、私たちは実際に3つのプラットフォームを構築しました。

  • 07:58 1つ目は、あなたの日常のAIコンパニオンであるMicrosoft Copilotです。それは知識と専門知識をあなたの指先に置き、それに基づいて行動するのを助けてくれます。そして、私たちはCopilotスタックを構築したので、あなたはAIアプリケーションとソリューションと体験を構築することができます。そして昨日、Copilot+PCという新しいカテゴリーを発表しました。これまでに構築された中で最速のAIファーストPCです。

  • 08:22 この3つはすべてエキサイティングなプラットフォームですが、私はCopilot+PCから始めたいと思います。私たちはAIをWindowsの第一級の名前空間として公開しています。今週、私たちはWindowsを最高のAIアプリケーション構築プラットフォームにするためのWindows Copilot Runtimeを導入します。そうですね。グラフィカルユーザーインターフェースに対してWin32が果たした役割を、AIに対してはWindows Copilot Runtimeが果たすことになると私たちは考えています。

  • 08:59 それは、Windows Copilotライブラリから始まります。これは、昨日共有したすべてのAI機能をあなたの新しいエクスペリエンスに統合するのに役立つ、すぐに使える一連のローカルAPIのコレクションです。これには、Studio Effectsのノーコード統合、クリエイティブフィルター、テレプロンプター、ボイスフォーカスなどが含まれます。

  • 09:23 しかし、もちろん、モデル自体にアクセスしたい場合は、APIを介して直接呼び出すことができます。40以上のモデルが箱から出してすぐに使えるようになっています。その中には、Copilot+PCのNPU上でローカルに実行するように特別に設計された、小言語ファミリーモデルの最新メンバーであるPhi-Silicaも含まれています。これにより、デバイス上で高速なローカル推論が可能になります。

  • 09:49 もう1つ重要なのは、Copilotライブラリは、デバイス上のデータを使ってアプリケーション内でRAGを組み込むことも簡単にしてくれることです。アプリ内にベクトルストアを構築するための適切なツールを提供してくれます。ローカルデータを使ってRAGアプリケーションのためにこれらのプロンプトを構築することができるようになりました。

  • 10:14 そして今日、PyTorchとWindows DirectMLを使った新しいWebNNフレームワークをネイティブにサポートすることを発表できて本当にうれしいです。PyTorchをネイティブにサポートすることで、何千ものOSSモデルがWindowsで使えるようになり、すぐに始められるようになります。実際、WebNNでは、ウェブ開発者はついにGPUとNPUの両方に直接アクセスできるウェブネイティブの機械学習フレームワークを手に入れました。実際、昨夜私はそれで遊んでいて、EdgeでそれをオンにしてWebNNのサンプルコードが動くのを見ていました。

  • 10:55 NPUも使えるようになったのを見るのは本当にクールでした。PyTorchとWebNNは共に今日からデベロッパープレビューで利用可能です。これらはほんの一部に過ぎません。

  • 12:09 今日の発表の1つです。私たちは、あなたのために新しい機会を創出するために、50以上の新製品とパートナーシップを導入しています。私たちは常にプラットフォーム企業であり、インフラストラクチャからデータ、ツーリング、アプリケーションの拡張性に至るまで、最も完全なエンドツーエンドのスタックを構築することで、あなた自身のアプリケーションを構築するためにこの技術の力を適用できるようにすることが私たちの目標です。

  • 12:35 そこで今日は、このCopilotスタックのあらゆるレイヤーにおける、このイベントのための最新ニュースをハイライトしたいと思います。それでは、インフラストラクチャから始めましょう。ご存知のように、私たちはこのAI時代にあなたのニーズに合った最も完全でスケーラブルなAIインフラストラクチャを持っています。私たちはAzureを世界のコンピュータとして構築しています。私たちは、他のどのクラウドプロバイダーよりも多い60以上のデータセンター地域を持つ、最も包括的なグローバルインフラストラクチャを持っています。

  • 13:03 この1年、日本からメキシコ、スペインからウィスコンシンまで、データセンター地域とAI容量を拡大してきました。私たちは最高のAIインフラストラクチャをあらゆる場所で利用できるようにしており、クラウドサービスの持続可能性の実現に重点を置いてこれを行っています。実際、私たちは来年までにデータセンターを100%再生可能エネルギーで稼働させるという目標を達成する予定です。

  • 13:31 そうですね。私たちは、データセンターからネットワークまで、スタックのあらゆるレイヤーでの電力と効率の最適化に取り組んでいます。私たちの最新のデータセンター設計は、これらのAIワークロードのために特別に構築されているので、AIのコストと電力消費を削減するために、すべてのメガワットを効果的かつ責任を持って使用することができます。

  • 13:57 また、ワークロードの熱プロファイルに適合し、稼働している場所の環境に適合するように、先進のデータセンター冷却技術を取り入れています。そしてシリコン層では、ワークロードを最高の加速化AIハードウェアに動的にマッピングすることで、最高のパフォーマンスを実現しています。

  • 14:20 そして私たちのカスタムIOハードウェアとサーバー設計により、飛躍的に高速なネットワーキング、リモートストレージ、ローカルストレージのスループットを提供することができます。このエンドツーエンドのアプローチは、前例のない規模に到達するのに本当に役立っています。実際、昨年11月、私たちはクラウドで最も強力なAIスーパーコンピュータをトレーニング用に発表しました。

  • 14:42 実際にはクラウドインフラのごく一部を使っただけなのです。そして過去6ヶ月間で、そのスーパーコンピューティングパワーをAzureに30倍追加しました。スケールを見るのは本当にクレイジーですね。そしてもちろん、トレーニングフリートのスケーリングだけでなく、世界中でインファレンスフリートのスケーリングも行っており、Azure AIサービスが利用可能な国の数を今日4倍にしています。それを見るのは素晴らしいことです。

  • 15:14 私たちのAIインフラストラクチャの中心にあるのは、世界最先端のAIアクセラレータです。NVIDIAAMDからのものに加えて、私たち独自のAzure Maiaなど、最も完全なAIアクセラレータの選択肢を提供しており、すべてがワークロードに合わせて動的に最適化されています。つまり、Microsoft Copilotを使用する場合でも、独自のCopilotアプリを構築する場合でも、最高のコストで最高のアクセラレータ性能が得られるようにしているのです。

  • 15:42 例えば、GPT-4で何が起こったかを見てみましょう。立ち上げ以来、12倍も安く、6倍も速くなりました。これは、システムアーキテクチャが進化するにつれて、継続的に見ることができる進歩の種類です。しかし、すべては、ハードウェアのイノベーションとシステムソフトウェアのイノベーションの両方にわたるCopilotスタック全体にわたる、NVIDIAとの非常に深い、深いパートナーシップから始まります。

  • 16:14 一緒に、私たちはAzure上のGPUで機密コンピューティングを提供し、AIモデルの機密データをエンドツーエンドで保護するのに役立ちます。実際、今年後半にはAzureに最新のH200sを導入し、NVIDIAのBlackwell GPUをB100およびGB200構成で提供する最初のクラウドプロバイダーの1つになります。

  • 16:39 そして私たちは、GPT-4oのような大規模言語モデルとPhi-3ファミリーのような小規模言語モデルの両方を、トレーニングと最適化するために彼らと協力し続けています。ハードウェアを超えて、私たちはNVIDIAの主要なエンタープライズプラットフォームであるOmniverse CloudとDGX CloudをMicrosoft Cloudとの深い統合を伴ってAzureにもたらしています。

  • 17:05 例えば、NVIDIAは最近、DGX CloudがMicrosoft Fabricにネイティブに統合されることを発表しました。つまり、Fabricデータへのフルアクセスを使用してDGX Cloudでそれらのモデルをトレーニングできるということです。そしてOmniverse APIは、開発者が産業用AIソリューションを構築するためにAzureで最初に利用可能になります。また、NVIDIAのNIM業界特化型開発者サービスとも連携し、Azureで素晴らしいものにしています。

  • 17:31 というわけで、NVIDIAとは多くのエキサイティングな取り組みがあります。さて、AMDに移りますが、AMDのMI300X AIアクセラレータをベースにしたVMの一般提供を最初に行うことを発表できて本当にワクワクしています。これはAMDMicrosoftの両方にとって大きなマイルストーンです。しばらく取り組んできましたが、今日の時点でGPT-4推論における最高の価格性能比を提供できることを見るのは素晴らしいことです。

  • 18:06 そして私たちはAzure Maiaで前進し続けます。実際、最初のクラスターが稼働しており、まもなくCopilotやAzure OpenAIサービスの1つを使用している場合、プロンプトの一部がMaiaハードウェアを使用して提供されるようになります。AIを超えて、私たちのエンドツーエンドのシステム最適化は、クラウドネイティブアプリとクラウドネイティブアプリの開発をより良いものにします。6ヶ月前、私たちは最初の汎用ARMベースのコンピュートプロセッサであるMicrosoft Cobaltを発表しました。

  • 18:39 そして今日、Cobaltベースの仮想マシンのパブリックプレビューを発表できることを本当に嬉しく思います。Cobaltは、Microsoft 365のビデオ処理や権限管理に使用されており、すでにMicrosoft Teamsのようなサービス上で数十億の会話を支えるのに役立っています。そして私たちは、Elastic、Mongo、SiemensSnowflake、Teradataを含む多くの顧客に、同じARMベースのパフォーマンスと効率性を提供しています。

  • 19:12 最新のベンチマークデータとテストでは、当社のCobalt 100 VMは、他の一般的に利用可能なARMベースのVMよりも最大40%優れたパフォーマンスを発揮しました。そのため、Cobaltが市場に投入されることを非常に楽しみにしています。それでは、スタックを上げて基盤モデルに移りましょう。Azure AIでは、LLMやSLMを含む最も幅広いフロンティアモデルとオープンソースモデルを提供しているので、ユニークなニーズとアプリケーションのニーズに最も合ったモデルを選択できます。

  • 19:43 実際、今日、50,000を超える組織がAzure AIを使用しています。すばらしい勢いですね。しかし、すべてはOpenAIとの最も戦略的で最も重要なパートナーシップから始まります。先週、OpenAIはAzureで学習された最新のマルチモーダルモデルであるGPT-4oを発表しました。これは絶対的なブレークスルーです。

  • 20:09 テキスト、オーディオ、画像、ビデオを入力および出力として備えています。人間のような会話で迅速かつ流動的に応答できます。文の途中で中断されることさえあります。GPT-4oは、さまざまなモダリティにわたるベンチマークで最高のパフォーマンスを発揮し、プロンプトで実際に提供する情報を理解することで最先端のパフォーマンスを発揮します。それこそが本当に重要なことなのです。

  • 20:30 先週OpenAIがデモしたのは、本当に魔法のようなものでした。そして昨日、私たちはCopilotがどのようにGPT-4oを活用するかを示しました。これから再生する動画では、画面やセッションをプロンプトとして共有し、Copilotに何をしているのかを手伝ってもらえることに注目してください。

  • 21:02 動画を再生しましょう。Copilot、調子はどう?やあ、絶好調だよ。そして、あなたがMinecraftに飛び込もうとしているように見えるね。建築、探検、そしてモブを避けるのに準備はできていますか?ええ、剣の作り方がわからないんだ。息子はこのゲームをずっとやっているんだけど、僕は何をしていいかわからないんだ。

  • 21:23 心配ご無用。私はあなたが息子を感心させるのを手伝うためにここにいます。目の前にはクラフトテーブルがありますね。これは素晴らしいスタートです。剣を作るには材料が必要です。インベントリを開けてもらえますか?キーボードの「E」を押すだけです。うん。必要なものはあるかな?そうですね。棒がありますね。

  • 21:42 剣の柄に最適ですね。でも、刃の材料がないみたいですね。木、石、鉄、金、ダイヤモンドが使えます。まずは木か石を集めに行きましょう。資源を探しに出かけましょうか?うん、それはいいね。うわー、あれは何だ?ああ、ゾンビだ!逃げろ!急いで逃げなきゃ。

  • 22:04 一目散に逃げるか、急いでブロックの塔を真っ直ぐ上に建てて、ゾンビの手の届かないところに逃げるんだ。避難所を見つけたり、丘の側面に穴を掘ったりできるなら、今すぐやるんだ。ゾンビに近づかれないようにするんだ。よし、今は安全だと思う。それは危なかった。避難所を見つけてよかったですね。これを見るのは本当にクールですね。

  • 22:30 ここでの魔法は、Copilotがゲームでも文書でもコード行でも、あなたが何をしていても、あなたがそのままの状態を保てるように手助けをしてくれるパーソナルアシスタントだということです。そしてOpenAIが革新を続ける中で、私たちの約束は、そのすべての革新をAzureにもたらすことです。実際、OpenAIがGPT-4oを発表したのと同じ日に、私たちはそのモデルをAzure OpenAIサービスでテスト可能にしました。そして今日、それがAzure AIで一般提供されることを発表できて嬉しいです。

  • 23:08 これが意味することは、この機能を使って、私たち全員が画期的なアプリを構築できるようになったということです。最もクールなことの1つは、今や、あらゆるアプリ、あらゆるウェブサイトが、本質的に完全なマルチモーダルの全二重会話キャンバスに変えることができるということです。それでは見てみましょう。さあ、ここのエージェントに聞いてみましょう。

  • 23:32 やあ、セス。調子はどう?今日は何を手伝えばいいかな?最高だよ。ごめんなさい、急いでいるんです。一泊のキャンプハイクに行くんだけど、キャンプ場は暗くて寒いんだ。このシューズを使うべきかな?山なんだ。きっと寒いだろうな。

  • 23:46 いいえ、心配しないでください。見させてください。ああ、それはTrekStarハイキングサンダルですね。夏のハイキングで足を涼しく保つのに最適ですが、寒い - 大丈夫、ごめんなさい。あなたを中断します。私に最適なものを選んで、カートに追加してください。1つの製品だけで。

  • 24:04 分かりました。TrekReadyハイキングブーツにしましょう。耐久性があり、足首のサポートが優れており、何より寒い山でも足を暖かく保ってくれます。今すぐカートに追加します。チェックアウトの準備はできていますか?分かりました、すばらしいです。ありがとうございました。キャンプを楽しみにしています。

  • 24:23 どういたしまして、セス。キャンプを楽しんで、そのブーツで暖かく過ごしてくださいね。幸運を祈ります。山で楽しんでください。セスは急いでいましたが、でもそこにいました。GPT-4oは彼に追いついていました。信じられないことです。OpenAIチームには本当に感謝したいと思います。彼らのパートナーシップと、業界を前進させるための責任あるアプローチに感謝します。

  • 24:54 実際、サムはKevinと一緒にここに来て、もっと多くのことを話してくれるでしょう。なぜなら、それがエキサイティングなことだからです。みなさんが次に来るものをどのようにサンプリングするかです。私たちはまた、Cohere、Databricks、Deci、Meta、Mistral、Snowflakeなど、Azure AIを通じて他の多くのモデルももたらしています。

  • 25:17 すべての国、すべての言語から最も幅広いモデルをサポートしたいと考えています。実際、Cohere、G42、NTT DATA、Nixtlaなど、さらに多くのモデルをサービスとしてのモデルとして導入することを発表できて興奮しています。それが管理対象のAIモデルに簡単にアクセスできる方法だからです。そして、私たち全員がオープンソースも大好きですよね。

  • 25:38 実際、2年前のBuildで、最先端の言語モデルを備えた主要なオープンソースライブラリにAzure AIを介して簡単にアクセスできるようにするために、Hugging Faceと最初にパートナーを組みました。そして今日、私たちはパートナーシップを拡大し、テキスト生成推論、テキスト埋め込み推論を備えたHugging Faceからのより多くのモデルをAzure AI Studioに直接導入することを発表できることを本当に嬉しく思います。

  • 26:07 そして、私たちはそこで止まるつもりはありません。大規模言語モデルだけでなく、小規模言語革命もリードしています。小規模言語モデル革命では、私たちのPhi-3ファミリーのSLMが最も能力が高く、最もコスト効率が高いのです。言語推論、コーディング、数学のベンチマークなど、さまざまなベンチマークで同じサイズまたは1つ上のサイズのモデルを上回っています。

  • 26:33 パフォーマンスとパラメータ数の比率で考えると、真にベストインクラスです。そして今日、私たちはPhi-3ファミリーに新しいモデルを追加して、品質コストカーブ全体でさらに柔軟性を高めています。私たちは、言語とビジョンの機能を備えた42億パラメータのマルチモーダルモデルであるPhi-3 Visionを導入しています。

  • 26:55 実世界の画像を推論して、画像に関するインサイトを生成し、質問に答えるために使用できます。ここでご覧いただけます。そして、70億パラメータのPhi-3スモールと140億パラメータのPhi-3ミディアムモデルも利用可能にしています。Phiを使用すると、Web、AndroidiOSWindows、Edgeにまたがるアプリを構築できます。

  • 27:24 利用可能な場合はローカルハードウェアを活用し、クラウドにフォールバックすることができます。私たちは、1つのAIモデルを使用して複数のプラットフォームをサポートするために、開発者として私たち全員が行わなければならないことをシンプルにしています。多くの開発者がすでにPhi0-3を使用して、信じられないようなことを行っているのを見るのは本当に素晴らしいことです。

  • 27:44 先ほど言及したタイの企業Amity Solutionsから、インドの農家が作物について質問できるようにするITCまで。ヘルスケアにおけるEpicは、Phiを使用して複雑な患者の病歴をより迅速かつ効率的に要約しています。そして、教育における非常にクールなユースケースがあります。

  • 28:07 今日、私はKhan Academyとの新しいパートナーシップを発表できることを大変嬉しく思います。私たちはPhi-3を使用して数学の個別指導をより利用しやすくするために協力します。そして、Khanmigoをすべての米国の教師 に無料で提供することも嬉しく思います。動画を再生しましょう。私は教師としてのキャリアの中で、自分のきらめきを失いつつあるような気がしました。

  • 28:36 そして、教室を見渡したときに、生徒たちがエンゲージしていないように見えると、本当に打ちのめされました。教師は信じられないほど大変な仕事をしていて、私たちができると思うのは、テクノロジーを活用して、彼らの仕事の一部を肩代わりし、教室を本当に人間的なものにすることです。奇跡的に、私たちはKhanmigoのパイロットスクールになりました。

  • 28:58 生成AI の新しい進歩により、私たちはKhanmigoを立ち上げました。ポイントは、すべての生徒にとってのパーソナルチューターであり、すべての教師にとっての指導助手になることです。私はこれらのより堅牢なレッスンを作成し始め、私の生徒がエンゲージするのを見始めました。私たちは、数学の個別指導に特化したPhiモデルでMicrosoftと協力しています。

  • 29:26 そのユースケースで小規模言語モデルのPhiがうまく機能するようにできれば、そういった特定のシナリオではトラフィックをPhiにシフトしたいと考えています。小規模言語モデルを使用すると、コストが大幅に削減されます。私たちは、Khanmigo、特にMicrosoftとのパートナーシップにより、これらの教師用ツールを米国の教師に無料で提供できることを本当に楽しみにしています。

  • 29:52 教師は、米国の教育に大きな影響を与えると思います。私たちは彼らを革新者、質問者にするつもりです。それこそが毎朝目覚める理由ではないですか?そうですよね。それが私たちの未来、次の世代なのですから。そして私にとって、それがすべてなのです。これらすべてがもたらす影響を見るのは本当にワクワクします。そしてカーンアカデミーが何をするのか。

  • 30:21 そしてサルは実際に、すぐにケビンに加わって、もっと多くのことを共有してくれるでしょう。メリッサのような先生方、そしてあなた方がしてくださっていること、本当に感謝しています。ありがとうございました。さて、締めくくりに、Buildで聞くことになる多くの発表がありますが、開発者として私たちが毎日仕事に来る根本的な理由、つまり、究極的にはすべての人とすべての組織に力を与えるという使命に立ち返りたいと思います。

  • 30:48 結局のところ、それは少数の人にしか役に立たないイノベーションのことではありません。誰もがそうできるようにすることなのです。そして、それはこの新しい世界の開発者であり、構築者であるみなさん次第なのです。私たちにとって、技術のための技術を祝福することは決してありません。私たちの国、会社、コミュニティに本当の違いをもたらす魔法のような体験を生み出すために、技術で何ができるかを祝福することなのです。

  • 31:16 すでにこの新世代のAIは、みなさんのおかげで、情熱と懸命な努力のおかげで、信じられないような影響を与えています。そして、私はみなさんにこの1つの信じられない例を残したいと思います。それは、私たちのプラットフォームとツールを使って、みなさんがよりアクセス可能な世界を構築しているということです。これは私にとって大きな意味があります。本当にありがとうございます。

  • 31:41 Buildの残りの時間を楽しんでください。オーディオディスクリプションは、視覚障害のある私が番組や映画を見て、他の人と同じように楽しめるようにしてくれるものです。白い車が道路を走っています。ハンドルに手が。私はアートを集合的な善だと考えています。誰もがアートにアクセスできるべきだと思います。

  • 32:02 オーディオディスクリプションは、私が完全な体験を得るのに本当に役立ちます。アムステルダムの17世紀の市民警備隊のグループの肖像画。しかし、課題は、メディアやエンターテイメントにオーディオディスクリプションが組み込まれる量が限られていることです。テックとAIには、盲人や弱視の人々をコンテンツへのアクセスに巻き込む可能性があります。

  • 32:30 WPPでは、人々が望む方法でコンテンツへのアクセスを開くことに情熱を持っています。私が作ったツールは、動画をアップロードでき、GPT-4 with VisionとAzure AIサービスを使って、動画に音声ナレーションを重ねて返してくれるアプリケーションです。

  • 32:53 猫とヘルマンズマヨネーズのあるキッチンの場面。これにより、オーディオディスクリプションがより安価で迅速になります。私たちの目標は、すべての広告キャンペーンでこの製品をサービスとして提供できるようにすることです。リークス美術館には非常に多くの作品があり、ほぼ100万点あります。自分たちで説明するには数百年かかっていたでしょう。

  • 33:17 AIを使えば、数時間でできます。被写体は、赤みがかったひげと口ひげの男性で、テクスチャと雰囲気を加える目に見えるブラシストロークがあります。オーディオディスクリプションを初めて聞いたとき、それは私に喜びをもたらしてくれました。「ああ、私は見られている」という機会でした。AIの力によって、つい最近まで夢見ていたことができるようになりました。

  • 33:42 文化へのアクセスを強化することで、文化そのものを強化し、私たちの共通の人間性をつなぐことができるのです。

以上が、Satya Nadella氏のMicrosoft Build 2024基調講演の日本語翻訳となります。

AIの進歩とそれがもたらす可能性について、開発者コミュニティへの感謝の念を込めて語られた内容でした。新しい技術によって、よりアクセシブルで包括的な世界を構築していく重要性が強調されていました。