OpenXLA, projek sumber terbuka untuk mempercepat dan memudahkan pembelajaran mesin

OpenXLA

OpenXLA ialah ekosistem penyusun ML sumber terbuka yang dibangunkan bersama

Baru-baru ini syarikat terbesar yang terlibat dalam pembangunan dalam bidang pembelajaran mesin yang dibentangkan projek itu OpenXLA, bertujuan untuk pembangunan bersama alat untuk menyusun dan mengoptimumkan model untuk sistem pembelajaran mesin.

Projek ini telah bertanggungjawab ke atas pembangunan alatan yang membolehkan penyatuan kompilasi model yang disediakan dalam rangka kerja TensorFlow, PyTorch dan JAX untuk latihan dan pelaksanaan yang cekap pada GPU yang berbeza dan pemecut khusus. Syarikat seperti Google, NVIDIA, AMD, Intel, Meta, Apple, Arm, Alibaba dan Amazon menyertai kerja bersama projek itu.

Projek OpenXLA menyediakan pengkompil ML tercanggih yang boleh berskala di tengah-tengah kerumitan infrastruktur ML. Tunjang asasnya ialah prestasi, skalabiliti, mudah alih, fleksibiliti dan kebolehlanjutan untuk pengguna. Dengan OpenXLA, kami bercita-cita untuk membuka kunci potensi sebenar AI dengan mempercepatkan pembangunan dan penghantarannya.

OpenXLA membolehkan pembangun menyusun dan mengoptimumkan model daripada semua rangka kerja ML terkemuka untuk latihan dan servis yang cekap pada pelbagai jenis perkakasan. Pembangun yang menggunakan OpenXLA akan melihat peningkatan ketara dalam masa latihan, prestasi, kependaman perkhidmatan, dan akhirnya masa untuk memasarkan dan mengira kos.

Diharapkan dengan menyertai usaha daripada pasukan penyelidik utama dan wakil masyarakat, ia akan menjadi mungkin untuk merangsang pembangunan sistem pembelajaran mesin dan menyelesaikan masalah pemecahan infrastruktur untuk pelbagai rangka kerja dan pasukan.

OpenXLA membolehkan untuk melaksanakan sokongan yang berkesan untuk pelbagai perkakasan, tanpa mengira rangka kerja yang berasaskan model pembelajaran mesin. OpenXLA dijangka mengurangkan masa latihan model, meningkatkan prestasi, mengurangkan kependaman, mengurangkan overhed pengkomputeran dan mengurangkan masa ke pasaran.

OpenXLA terdiri daripada tiga komponen utama, kod yang diedarkan di bawah lesen Apache 2.0:

  1. XLA (algebra linear dipercepat) ialah pengkompil yang membolehkan anda mengoptimumkan model pembelajaran mesin untuk pelaksanaan berprestasi tinggi pada platform perkakasan yang berbeza, termasuk GPU, CPU dan pemecut khusus daripada pelbagai pengeluar.
  2. StableHLO ialah spesifikasi asas dan pelaksanaan set Operasi Tahap Tinggi (HLO) untuk digunakan dalam model sistem pembelajaran mesin. Ia bertindak sebagai lapisan antara rangka kerja pembelajaran mesin dan penyusun yang mengubah model untuk dijalankan pada perkakasan tertentu. Lapisan disediakan untuk menjana model dalam format StableHLO untuk rangka kerja PyTorch, TensorFlow dan JAX. Suite MHLO digunakan sebagai asas untuk StableHLO, yang dilanjutkan dengan sokongan untuk penyiaran dan kawalan versi.
  3. IREE (Persekitaran Pelaksanaan Perwakilan Pertengahan) ialah pengkompil dan masa jalan yang menukar model pembelajaran mesin kepada perwakilan perantaraan universal berdasarkan format MLIR (Perwakilan Berbilang Tahap Pertengahan) projek LLVM. Daripada ciri tersebut, kemungkinan prapenyusun (lebih awal daripada masa), sokongan untuk kawalan aliran, keupayaan untuk menggunakan elemen dinamik dalam model, pengoptimuman untuk CPU dan GPU yang berbeza, dan overhed rendah diserlahkan.

Mengenai kelebihan utama OpenXLA, disebutkan bahawa prestasi optimum telah dicapai tanpa perlu mendalami kod penulisan khusus peranti, sebagai tambahan kepada menyediakan pengoptimuman luar biasa, termasuk penyederhanaan ungkapan algebra, peruntukan memori yang cekap, penjadualan pelaksanaan, dengan mengambil kira pengurangan penggunaan memori maksimum dan overhed.

Kelebihan lain ialah penyederhanaan skala dan penyejajaran pengiraan. Cukuplah untuk pembangun menambahkan anotasi untuk subset tensor kritikal, berdasarkan pengkompil secara automatik boleh menjana kod untuk pengkomputeran selari.

Ia juga diketengahkan bahawa mudah alih disediakan dengan sokongan untuk pelbagai platform perkakasan, seperti GPU AMD dan NVIDIA, CPU x86 dan ARM, Google TPU ML Accelerators, AWS Trainium Inferentia IPU, Graphcore dan Wafer-Scale Engine Cerebras.

Sokongan untuk menyambung sambungan dengan pelaksanaan fungsi tambahan, sebagai sokongan untuk menulis primitif pembelajaran mesin mendalam menggunakan CUDA, HIP, SYCL, Triton dan bahasa lain untuk pengkomputeran selari, serta kemungkinan pelarasan manual bagi kesesakan dalam model.

Akhirnya, jika anda berminat untuk mengetahui lebih lanjut mengenainya, anda boleh berjumpa dengan perincian dalam pautan berikut.


Tinggalkan komen anda

Alamat email anda tidak akan disiarkan. Ruangan yang diperlukan ditanda dengan *

*

*

  1. Bertanggungjawab untuk data: AB Internet Networks 2008 SL
  2. Tujuan data: Mengendalikan SPAM, pengurusan komen.
  3. Perundangan: Persetujuan anda
  4. Komunikasi data: Data tidak akan disampaikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Pangkalan data yang dihoskan oleh Occentus Networks (EU)
  6. Hak: Pada bila-bila masa anda boleh menghadkan, memulihkan dan menghapus maklumat anda.