OpenXLA,一個加速和簡化機器學習的開源項目

開放XLA

OpenXLA 是一個共同開發的開源 ML 編譯器生態系統

近日, 介紹了從事機器學習領域開發的最大公司 該項目 開放XLA, 旨在共同開發工具 為機器學習系統編譯和優化模型。

該項目負責開發工具,允許統一編譯在 TensorFlow、PyTorch 和 JAX 框架中準備的模型,以便在不同的 GPU 和專用加速器上進行高效訓練和執行。 谷歌、英偉達、AMD、英特爾、Meta、蘋果、Arm、阿里巴巴和亞馬遜等公司加入了該項目的聯合工作。

OpenXLA 項目提供了最先進的 ML 編譯器,可以在 ML 基礎設施的複雜性中進行擴展。 它的基本支柱是性能、可擴展性、可移植性、靈活性和用戶的可擴展性。 借助 OpenXLA,我們渴望通過加速人工智能的開發和交付來釋放人工智能的真正潛力。

OpenXLA 使開發人員能夠編譯和優化來自所有領先 ML 框架的模型,以便在各種硬件上進行高效培訓和服務。 使用 OpenXLA 的開發人員將看到訓練時間、性能、服務延遲以及最終上市時間和計算成本方面的顯著改進。

希望通過共同努力 主要研究團隊和社區代表, 將有可能刺激機器學習系統的發展 並解決各種框架和團隊的基礎架構碎片化問題。

OpenXLA 允許實現對各種硬件的有效支持, 無論機器學習模型基於什麼框架。 OpenXLA 有望減少模型訓練時間、提高性能、減少延遲、減少計算開銷並縮短上市時間。

開放XLA 由三個主要部分組成,其代碼在 Apache 2.0 許可證下分發:

  1. XLA(加速線性代數)是一種編譯器,可讓您優化機器學習模型,以在不同硬件平台(包括 GPU、CPU 和來自不同製造商的專用加速器)上實現高性能執行。
  2. StableHLO 是一組高級操作 (HLO) 的基本規範和實現,用於機器學習系統模型。 它充當機器學習框架和編譯器之間的層,將模型轉換為在特定硬件上運行。 層準備為 PyTorch、TensorFlow 和 JAX 框架生成 StableHLO 格式的模型。 MHLO 套件用作 StableHLO 的基礎,後者擴展了對序列化和版本控制的支持。
  3. IREE(Intermediate Representation Execution Environment)是一個編譯器和運行時,可以將機器學習模型轉換為基於 LLVM 項目的 MLIR(Intermediate Multi-Level Representation)格式的通用中間表示。 在這些特性中,突出顯示了預編譯(提前)的可能性、對流控制的支持、在模型中使用動態元素的能力、針對不同 CPU 和 GPU 的優化以及低開銷。

關於OpenXLA的主要優點,提到了 無需鑽研編寫代碼即可實現最佳性能 設備特定的,除了 提供開箱即用的優化, 包括代數表達式的簡化,高效的內存分配,執行調度,同時考慮到最大內存消耗和開銷的減少。

另一個優點是 簡化計算的縮放和並行化。 開發人員為關鍵張量的子集添加註釋就足夠了,編譯器可以在此基礎上自動生成用於並行計算的代碼。

還強調了 可移植性是通過支持多種硬件平台提供的, 例如 AMD 和 NVIDIA GPU、x86 和 ARM CPU、Google TPU ML 加速器、AWS Trainium Inferentia IPU、Graphcore 和 Wafer-Scale Engine Cerebras。

支持連接擴展以實現附加功能, 作為支持使用CUDA、HIP、SYCL、Triton等語言編寫深度機器學習原語進行並行計算,以及 手動調整瓶頸的可能性 在模型中。

最後,如果您有興趣了解更多,可以諮詢 以下鏈接中提供了詳細信息。


發表您的評論

您的電子郵件地址將不會被發表。 必填字段標有 *

*

*

  1. 負責資料:AB Internet Networks 2008 SL
  2. 數據用途:控制垃圾郵件,註釋管理。
  3. 合法性:您的同意
  4. 數據通訊:除非有法律義務,否則不會將數據傳達給第三方。
  5. 數據存儲:Occentus Networks(EU)託管的數據庫
  6. 權利:您可以隨時限制,恢復和刪除您的信息。