Makine öğrenimini hızlandırmak ve basitleştirmek için açık kaynaklı bir proje olan OpenXLA

AçıkXLA

OpenXLA, ortak geliştirilmiş bir açık kaynaklı ML derleyici ekosistemidir

son zamanlarda, makine öğrenimi alanında geliştirme yapan en büyük şirketler sunuldu Proje AçıkXLA, araçların ortak geliştirilmesi için tasarlanmıştır makine öğrenimi sistemleri için modelleri derlemek ve optimize etmek.

Proje, farklı GPU'lar ve özel hızlandırıcılar üzerinde verimli eğitim ve yürütme için TensorFlow, PyTorch ve JAX çerçevelerinde hazırlanan modellerin derlemesini birleştirmeye olanak tanıyan araçların geliştirilmesini üstlendi. Projenin ortak çalışmasına Google, NVIDIA, AMD, Intel, Meta, Apple, Arm, Alibaba ve Amazon gibi şirketler katıldı.

OpenXLA Projesi, makine öğrenimi altyapısının karmaşıklığı içinde ölçeklenebilen son teknoloji bir makine öğrenimi derleyicisi sağlar. Temel direkleri, kullanıcılar için performans, ölçeklenebilirlik, taşınabilirlik, esneklik ve genişletilebilirliktir. OpenXLA ile, yapay zekanın gelişimini ve dağıtımını hızlandırarak gerçek potansiyelini açığa çıkarmayı hedefliyoruz.

OpenXLA, geliştiricilerin çok çeşitli donanımlarda verimli eğitim ve hizmet için tüm önde gelen makine öğrenimi çerçevelerinden modelleri derlemesine ve optimize etmesine olanak tanır. OpenXLA kullanan geliştiriciler, eğitim süresinde, performansta, hizmet gecikmesinde ve nihai olarak pazara sunma süresinde ve bilgi işlem maliyetlerinde önemli gelişmeler göreceklerdir.

Çabaları birleştirerek umarız ana araştırma ekiplerinin ve topluluk temsilcilerinin, makine öğrenimi sistemlerinin gelişimini teşvik etmek mümkün olacak ve çeşitli çerçeveler ve ekipler için altyapı parçalanması sorununu çözün.

OpenXLA, çeşitli donanımlar için etkili destek uygulamaya izin verir, makine öğrenimi modelinin dayandığı çerçeveden bağımsız olarak. OpenXLA'nın model eğitim süresini azaltması, performansı iyileştirmesi, gecikmeyi azaltması, bilgi işlem yükünü azaltması ve pazara sunma süresini kısaltması bekleniyor.

AçıkXLA üç ana bileşenden oluşurkodu Apache 2.0 lisansı altında dağıtılan:

  1. XLA (hızlandırılmış doğrusal cebir), GPU'lar, CPU'lar ve çeşitli üreticilerin özel hızlandırıcıları dahil olmak üzere farklı donanım platformlarında yüksek performanslı yürütme için makine öğrenimi modellerini optimize etmenize olanak tanıyan bir derleyicidir.
  2. StableHLO, makine öğrenimi sistemi modellerinde kullanım için bir dizi Üst Düzey İşlemin (HLO) temel özelliği ve uygulamasıdır. Modeli belirli bir donanım üzerinde çalışacak şekilde dönüştüren makine öğrenimi çerçeveleri ve derleyiciler arasında bir katman görevi görür. PyTorch, TensorFlow ve JAX çerçeveleri için StableHLO formatında modeller oluşturmak için katmanlar hazırlanır. MHLO paketi, serileştirme ve sürüm kontrolü desteğiyle genişletilen StableHLO için temel olarak kullanılır.
  3. IREE (Ara Temsil Yürütme Ortamı), makine öğrenme modellerini LLVM projesinin MLIR (Ara Çok Düzeyli Temsil) formatına dayalı evrensel bir ara temsile dönüştüren bir derleyici ve çalışma zamanıdır. Özelliklerden, ön derleme olasılığı (vaktinden önce), akış kontrolü desteği, modellerde dinamik öğeleri kullanma yeteneği, farklı CPU'lar ve GPU'lar için optimizasyon ve düşük ek yük vurgulanır.

OpenXLA'nın ana avantajları ile ilgili olarak, kod yazmaya gerek kalmadan optimum performans elde edildi ek olarak cihaza özgü kullanıma hazır optimizasyonlar sağlar, cebirsel ifadelerin basitleştirilmesi, verimli bellek tahsisi, maksimum bellek tüketiminin ve genel giderlerin azaltılması dikkate alınarak yürütme zamanlaması dahil.

Diğer bir avantaj ise, ölçeklendirmenin basitleştirilmesi ve hesaplamaların paralelleştirilmesi. Bir geliştiricinin, kritik tensörlerin bir alt kümesi için, derleyicinin paralel bilgi işlem için otomatik olarak kod oluşturabilmesi temelinde ek açıklamalar eklemesi yeterlidir.

Ayrıca vurgulanmıştır ki çoklu donanım platformları desteği ile taşınabilirlik sağlanır, AMD ve NVIDIA GPU'lar, x86 ve ARM CPU'lar, Google TPU ML Hızlandırıcılar, AWS Trainium Inferentia IPU'lar, Graphcore ve Wafer-Scale Engine Cerebras gibi.

Ek işlevlerin uygulanmasıyla uzantıları bağlama desteği, paralel bilgi işlem için CUDA, HIP, SYCL, Triton ve diğer dilleri kullanarak derin makine öğrenimi ilkellerini yazma desteği olarak darboğazların manuel olarak ayarlanması olasılığı modellerde.

Son olarak, bu konuda daha fazla bilgi edinmek istiyorsanız, şuraya danışabilirsiniz: ayrıntılar aşağıdaki bağlantıda.


Yorumunuzu bırakın

E-posta hesabınız yayınlanmayacak. Gerekli alanlar ile işaretlenmiştir *

*

*

  1. Verilerden sorumlu: AB Internet Networks 2008 SL
  2. Verilerin amacı: Kontrol SPAM, yorum yönetimi.
  3. Meşruiyet: Onayınız
  4. Verilerin iletilmesi: Veriler, yasal zorunluluk dışında üçüncü kişilere iletilmeyecektir.
  5. Veri depolama: Occentus Networks (AB) tarafından barındırılan veritabanı
  6. Haklar: Bilgilerinizi istediğiniz zaman sınırlayabilir, kurtarabilir ve silebilirsiniz.