OpenXLA、機械学習を高速化および簡素化するためのオープン ソース プロジェクト

OpenXLA

OpenXLA は、共同開発されたオープン ソース ML コンパイラ エコシステムです。

最近では、 発表された機械学習分野の開発に携わる最大の企業 プロジェクト OpenXLA、ツールの共同開発を目的としています 機械学習システムのモデルをコンパイルして最適化する。

このプロジェクトは、TensorFlow、PyTorch、および JAX フレームワークで準備されたモデルのコンパイルを統合して、さまざまな GPU および特殊なアクセラレータで効率的なトレーニングと実行を可能にするツールの開発を担当しています。 Google、NVIDIA、AMD、Intel、Meta、Apple、Arm、Alibaba、Amazon などの企業がプロジェクトの共同作業に参加しました。

OpenXLA プロジェクトは、複雑な ML インフラストラクチャの中で拡張できる最先端の ML コンパイラを提供します。 その基本的な柱は、ユーザーにとってのパフォーマンス、スケーラビリティ、移植性、柔軟性、および拡張性です。 OpenXLA を使用して、AI の開発と提供を加速することで、AI の真の可能性を解き放つことを目指しています。

OpenXLA を使用すると、開発者は主要なすべての ML フレームワークからモデルをコンパイルして最適化し、さまざまなハードウェアで効率的なトレーニングとサービスを提供できます。 OpenXLA を使用する開発者は、トレーニング時間、パフォーマンス、サービス レイテンシ、そして最終的には市場投入までの時間とコンピューティング コストが大幅に改善されます。

力を合わせることで期待される 主な研究チームとコミュニティの代表者、 機械学習システムの開発を刺激することが可能になります さまざまなフレームワークやチームのインフラストラクチャの断片化の問題を解決します。

OpenXLA を使用すると、さまざまなハードウェアの効果的なサポートを実装できます。 機械学習モデルが基づいているフレームワークに関係なく。 OpenXLA は、モデルのトレーニング時間の短縮、パフォーマンスの向上、待ち時間の短縮、計算オーバーヘッドの削減、市場投入までの時間の短縮を期待されています。

OpenXLA XNUMXつの主要コンポーネントで構成されています、そのコードは Apache 2.0 ライセンスの下で配布されています:

  1. XLA (加速線形代数) は、さまざまなメーカーの GPU、CPU、特殊なアクセラレータなど、さまざまなハードウェア プラットフォームで高性能に実行できるように機械学習モデルを最適化できるコンパイラです。
  2. StableHLO は、機械学習システム モデルで使用する一連の高レベル操作 (HLO) の基本仕様および実装です。 これは、モデルを特定のハードウェアで実行できるように変換する、機械学習フレームワークとコンパイラの間のレイヤーとして機能します。 PyTorch、TensorFlow、および JAX フレームワーク用の StableHLO 形式でモデルを生成するためのレイヤーが用意されています。 MHLO スイートは StableHLO の基盤として使用され、シリアライゼーションとバージョン管理のサポートによって拡張されています。
  3. IREE (Intermediate Representation Execution Environment) は、LLVM プロジェクトの MLIR (Intermediate Multi-Level Representation) 形式に基づいて、機械学習モデルを汎用中間表現に変換するコンパイラおよびランタイムです。 機能のうち、プリコンパイル (事前) の可能性、フロー制御のサポート、モデルで動的要素を使用する機能、さまざまな CPU と GPU の最適化、および低オーバーヘッドが強調されています。

OpenXLA の主な利点については、 コードを詳しく書く必要なく、最適なパフォーマンスが達成されました に加えて、デバイス固有 すぐに使える最適化を提供し、 最大メモリ消費量とオーバーヘッドの削減を考慮した、代数式の簡素化、効率的なメモリ割り当て、実行スケジューリングが含まれます。

もう一つの利点は、 スケーリングの簡素化と計算の並列化。 開発者は、重要なテンソルのサブセットに注釈を追加するだけで十分です。これに基づいて、コンパイラは並列計算用のコードを自動的に生成できます。

また、 複数のハードウェア プラットフォームのサポートにより、移植性が提供されます。 AMD および NVIDIA GPU、x86 および ARM CPU、Google TPU ML アクセラレータ、AWS Trainium Inferentia IPU、Graphcore、Wafer-Scale Engine Cerebras など。

拡張機能を追加機能の実装と接続するためのサポート、 CUDA、HIP、SYCL、Triton、および並列計算用のその他の言語を使用した深層機械学習プリミティブの記述のサポートとして、および ボトルネックの手動調整の可能性 モデルで。

最後に、それについてもっと知りたい場合は、 詳細は次のリンクをご覧ください。


コメントを残す

あなたのメールアドレスが公開されることはありません。 必須フィールドには付いています *

*

*

  1. データの責任者:AB Internet Networks 2008 SL
  2. データの目的:SPAMの制御、コメント管理。
  3. 正当化:あなたの同意
  4. データの伝達:法的義務がある場合を除き、データが第三者に伝達されることはありません。
  5. データストレージ:Occentus Networks(EU)がホストするデータベース
  6. 権利:いつでも情報を制限、回復、削除できます。