OpenXLA, avoimen lähdekoodin projekti, joka nopeuttaa ja yksinkertaistaa koneoppimista

OpenXLA

OpenXLA on yhteiskehitetty avoimen lähdekoodin ML-kääntäjäekosysteemi

äskettäin suurimmat koneoppimisen alan kehitystä tekevät yritykset esittelivät projekti OpenXLA, tarkoitettu työkalujen yhteiseen kehittämiseen koota ja optimoida malleja koneoppimisjärjestelmiin.

Projekti on ottanut vastuulleen sellaisten työkalujen kehittämisen, jotka mahdollistavat TensorFlow-, PyTorch- ja JAX-kehyksissä valmistettujen mallien kokoamisen yhtenäistämisen tehokkaaseen koulutukseen ja suoritukseen eri GPU:illa ja erikoiskiihdyttimillä. Yritykset kuten Google, NVIDIA, AMD, Intel, Meta, Apple, Arm, Alibaba ja Amazon liittyivät projektiin yhteistyöhön.

OpenXLA-projekti tarjoaa huippuluokan ML-kääntäjän, joka voi skaalata ML-infrastruktuurin monimutkaisuuden keskellä. Sen peruspilareita ovat suorituskyky, skaalautuvuus, siirrettävyys, joustavuus ja laajennettavuus käyttäjien kannalta. OpenXLA:n avulla pyrimme vapauttamaan tekoälyn todelliset mahdollisuudet nopeuttamalla sen kehitystä ja toimitusta.

OpenXLA:n avulla kehittäjät voivat koota ja optimoida malleja kaikista johtavista ML-kehyksistä tehokkaaseen koulutukseen ja huoltoon monenlaisilla laitteistoilla. OpenXLA:ta käyttävät kehittäjät näkevät huomattavia parannuksia koulutusaikaan, suorituskykyyn, palveluviiveeseen ja lopulta markkinoille tuloon ja kustannusten laskemiseen.

Toivotaan, että yhdistämällä ponnistelut tärkeimmistä tutkimusryhmistä ja yhteisön edustajista, on mahdollista edistää koneoppimisjärjestelmien kehitystä ja ratkaista infrastruktuurin pirstoutumisen ongelma erilaisille kehyksille ja ryhmille.

OpenXLA mahdollistaa tehokkaan tuen toteuttamisen erilaisille laitteille, riippumatta puitteista, joihin koneoppimismalli perustuu. OpenXLA:n odotetaan lyhentävän mallin koulutusaikaa, parantavan suorituskykyä, vähentävän latenssia, vähentävän tietojenkäsittelyn kustannuksia ja lyhentävän markkinoilletuloaikaa.

OpenXLA koostuu kolmesta pääkomponentista, jonka koodia jaetaan Apache 2.0 -lisenssillä:

  1. XLA (kiihdytetty lineaarinen algebra) on kääntäjä, jonka avulla voit optimoida koneoppimismalleja korkean suorituskyvyn suorittamista varten eri laitteistoalustoilla, mukaan lukien GPU:t, CPU:t ja eri valmistajien erikoiskiihdytit.
  2. StableHLO on perusspesifikaatio ja toteutus High-Level Operations (HLO:t) -sarjasta käytettäväksi koneoppimisjärjestelmämalleissa. Se toimii kerroksena koneoppimiskehysten ja kääntäjien välillä, jotka muuttavat mallin toimimaan tietyllä laitteistolla. Tasot valmistetaan luomaan malleja StableHLO-muodossa PyTorch-, TensorFlow- ja JAX-kehyksille. MHLO-sviittiä käytetään StableHLO:n perustana, jota on laajennettu serialisoinnin ja versionhallinnan tuella.
  3. IREE (Intermediate Representation Execution Environment) on kääntäjä ja ajonaika, joka muuntaa koneoppimismallit yleismaailmalliseksi väliesityksen LLVM-projektin MLIR (Intermediate Multi-Level Representation) -muotoon perustuvaksi. Ominaisuuksista korostuvat esikäännösmahdollisuus (etuaikana), tuki virtauksen ohjaukselle, mahdollisuus käyttää dynaamisia elementtejä malleissa, optimointi eri prosessoreille ja GPU:ille sekä alhainen lisärasi.

Mitä tulee OpenXLA:n tärkeimpiin etuihin, se mainitaan optimaalinen suorituskyky on saavutettu ilman koodin kirjoittamista laitekohtainen lisäksi tarjota käyttövalmiita optimointeja, sisältäen algebrallisten lausekkeiden yksinkertaistamisen, tehokkaan muistin allokoinnin, suorituksen ajoituksen, ottaen huomioon maksimimuistin kulutuksen ja yleiskustannusten vähentämisen.

Toinen etu on skaalauksen yksinkertaistaminen ja laskelmien rinnastaminen. Riittää, että kehittäjä lisää annotaatioita kriittisten tensorien osajoukolle, jonka perusteella kääntäjä voi automaattisesti generoida koodia rinnakkaislaskentaa varten.

Se on myös korostettu siirrettävyys on tuettu useille laitteistoalustoille, kuten AMD- ja NVIDIA-grafiikkasuorittimet, x86- ja ARM-suorittimet, Googlen TPU ML -kiihdytit, AWS Trainium Inferentia -IPU:t, Graphcore ja Wafer-Scale Engine Cerebras.

Tuki laajennusten liittämiseen lisätoimintojen toteuttamiseen, tukena syvällisten koneoppimisprimitiivien kirjoittamiseen käyttämällä CUDA-, HIP-, SYCL-, Triton- ja muita rinnakkaislaskennan kieliä, sekä mahdollisuus säätää pullonkauloja manuaalisesti malleissa.

Lopuksi, jos haluat tietää enemmän siitä, voit tutustua yksityiskohdat seuraavassa linkissä.


Jätä kommentti

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *

*

*

  1. Vastaa tiedoista: AB Internet Networks 2008 SL
  2. Tietojen tarkoitus: Roskapostin hallinta, kommenttien hallinta.
  3. Laillistaminen: Suostumuksesi
  4. Tietojen välittäminen: Tietoja ei luovuteta kolmansille osapuolille muutoin kuin lain nojalla.
  5. Tietojen varastointi: Occentus Networks (EU) isännöi tietokantaa
  6. Oikeudet: Voit milloin tahansa rajoittaa, palauttaa ja poistaa tietojasi.