Microsoft は、ChatGPT のベースとなるスーパーコンピューターを構築するために数百万ドルを費やしました。

マイクロソフト

Microsoft は、最新の NVIDIA H100 Tensor コア GPU と NVIDIA Quantum-2 InfiniBand ネットワーキングを統合した、強力で拡張性の高い新しい仮想マシンを発表しました。

マイクロソフトはこれまでに数億ドルを費やしてきました の建設 OpenAI ChatGPT チャットボットを強化する大規模なスーパーコンピューター、 Microsoft はレポートで、OpenAI で使用される強力な Azure AI インフラストラクチャをどのように構築したか、およびそのシステムがどのようにさらに堅牢になったかを説明しています。

OpenAI プロジェクトを動かすスーパーコンピューターを構築するために、マイクロソフトは 何千もの接続したと主張している グラフィックス プロセッシング ユニット (GPU) NVIDIA から Azure クラウド コンピューティング プラットフォームへ。 これにより、OpenAI はますます強力なモデルをトレーニングし、ChatGPT や Bing などのツールの「AI 機能のロックを解除」できるようになりました。

スコット・ガスリー マイクロソフトの人工知能およびクラウド担当副社長、 同社はこのプロジェクトに数億ドルを費やしたと述べた、声明によると。 これは、OpenAI への数十億ドル規模の複数年にわたる投資を最近拡大した Microsoft にとっては、バケツの落ち込みのように思えるかもしれませんが、確かに これは、AI 分野にさらに多くの資金を投資する準備ができていることを示しています。

マイクロソフトが投資したとき $ 1億 2019 年の OpenAI で、大規模なスーパーコンピューターの構築に合意した 人工知能研究のスタートアップのための最先端。 唯一の問題は、Microsoft には OpenAI に必要なものが何もなく、Azure クラウド サービスを壊さずにこれほど大きなものを構築できるかどうか完全には確信が持てなかったということです。

OpenAI は、モデルと呼ばれる増え続ける一連の人工知能プログラムをトレーニングしようとしていました。モデルは、より多くのデータを取り込み、ますます多くのパラメーターを学習しました。AI システムがトレーニングと再トレーニングを通じて発見した変数です。 これは、OpenAI が強力なクラウド コンピューティング サービスに長期間アクセスする必要があったことを意味します。

この課題に対応するために、 Microsoft は何万ものグラフィックス チップをリンクする方法を見つけなければなりませんでした NVIDIA A100 を使用し、サーバーをラックに配置する方法を変更して、停電を回避します。

「私たちは、大規模に機能し、信頼できるシステム アーキテクチャを構築しました。 これが ChatGPT を可能にした理由です」と、マイクロソフトの Azure AI インフラストラクチャ担当ゼネラル マネージャーである Nidhi Chappell は述べています。 「そこから生まれたパターンです。 もっと、もっとたくさんあるでしょう。」

この技術により、OpenAI は ChatGPT を立ち上げることができました。ChatGPT は、XNUMX 月の IPO から数日で XNUMX 万人以上のユーザーを集めたバイラル チャットボットであり、現在では億万長者のヘッジファンドの創設者 Ken Griffin が運営する他の企業のビジネス モデルに吸収されています。配達の時間。

ChatGPT のようなジェネレーティブ AI ツールが企業や消費者の関心を集めるにつれて、Microsoft、Amazon、Google などのクラウド サービス プロバイダーに対して、データ センターが必要な膨大なコンピューティング パワーを確実に提供できるようにするというプレッシャーが高まるでしょう。

現在、Microsoft は OpenAI 用に構築したものと同じリソース セットを使用して、先月導入された新しい Bing 検索ボットを含む独自の優れた AI モデルをトレーニングおよび実行しています。 同社はまた、このシステムを他の顧客にも販売しています。 ソフトウェアの巨人は、Microsoft が投資に 10 億ドルを追加した OpenAI との拡大された取引の一環として、次世代の AI スーパーコンピューターに既に取り組んでいます。

「カスタムとして構築するのではありません。 それはカスタムなものとして始まりましたが、大規模な言語モデルをトレーニングしたい人が同じ改善を利用できるように、常に一般化された方法で構築しました。」 ガスリーはインタビューで語った。 「これは、私たちが AI 全体のより良いクラウドになるのに本当に役立ちました。」

大規模な AI モデルをトレーニングするには、Microsoft が組み立てた AI スーパーコンピューターのように、多数のグラフィックス プロセッシング ユニットを 60 か所に接続する必要があります。 モデルが使用されると、ユーザーが提起したすべての質問に答える (推論と呼ばれる) には、少し異なる設定が必要になります。 Microsoft は推論用のグラフィック チップも展開していますが、これらのプロセッサ (数十万) は、同社の 100 以上のデータ センター リージョンに地理的に分散しています。 同社は現在、AI ワークロード用の最新の NVIDIA グラフィックス チップ (HXNUMX) と、データ共有をさらに高速化するための NVIDIA の Infiniband ネットワーキング テクノロジの最新バージョンを追加しています。

Microsoft のパートナー決定 OpenAIで この前例のない規模のインフラストラクチャが結果を生み出すという信念に基づいて設立されました (新しい AI 機能、新しいタイプのプログラミング プラットフォーム) は、Microsoft が顧客に真の利益をもたらす製品やサービスに変えることができると、Waymouth 氏は述べています。 この信念は、それを構築するためのすべての技術的課題を克服し、AI スーパーコンピューティングの境界を押し広げ続けるという企業の野心を刺激してきました。

出典 https://news.microsoft.com/


コメントを残す

あなたのメールアドレスが公開されることはありません。 必須フィールドには付いています *

*

*

  1. データの責任者:AB Internet Networks 2008 SL
  2. データの目的:SPAMの制御、コメント管理。
  3. 正当化:あなたの同意
  4. データの伝達:法的義務がある場合を除き、データが第三者に伝達されることはありません。
  5. データストレージ:Occentus Networks(EU)がホストするデータベース
  6. 権利:いつでも情報を制限、回復、削除できます。

  1.   レオナルド

    これが現実になるのはいつになるのだろうか