기계 학습을 가속화하고 단순화하는 오픈 소스 프로젝트인 OpenXLA

오픈XLA

OpenXLA는 공동 개발한 오픈 소스 ML 컴파일러 에코시스템입니다.

최근에 제시된 기계 학습 분야의 개발에 종사하는 가장 큰 회사 프로젝트 오픈XLA, 도구의 공동 개발을 위한 것 기계 학습 시스템용 모델을 컴파일하고 최적화합니다.

이 프로젝트는 다양한 GPU 및 특수 가속기에서 효율적인 교육 및 실행을 위해 TensorFlow, PyTorch 및 JAX 프레임워크에서 준비된 모델의 컴파일을 통합할 수 있는 도구 개발을 담당했습니다. Google, NVIDIA, AMD, Intel, Meta, Apple, Arm, Alibaba 및 Amazon과 같은 회사가 프로젝트의 공동 작업에 참여했습니다.

OpenXLA 프로젝트는 ML 인프라의 복잡성 속에서 확장할 수 있는 최첨단 ML 컴파일러를 제공합니다. 기본 요소는 사용자를 위한 성능, 확장성, 이식성, 유연성 및 확장성입니다. OpenXLA를 통해 우리는 개발 및 제공을 가속화하여 AI의 진정한 잠재력을 발휘하고자 합니다.

OpenXLA를 사용하면 개발자가 다양한 하드웨어에서 효율적인 교육 및 서비스를 위해 모든 주요 ML 프레임워크에서 모델을 컴파일하고 최적화할 수 있습니다. OpenXLA를 사용하는 개발자는 교육 시간, 성능, 서비스 대기 시간, 궁극적으로 출시 시간 및 컴퓨팅 비용이 크게 향상되는 것을 볼 수 있습니다.

힘을 합치면 좋겠다. 주요 연구 팀과 커뮤니티 대표, 기계 학습 시스템의 개발을 자극하는 것이 가능할 것입니다. 다양한 프레임워크와 팀의 인프라 단편화 문제를 해결합니다.

OpenXLA는 다양한 하드웨어에 대한 효과적인 지원을 구현할 수 있으며, 기계 학습 모델이 기반으로 하는 프레임워크와 관계없이. OpenXLA는 모델 교육 시간을 단축하고, 성능을 개선하고, 대기 시간을 줄이고, 컴퓨팅 오버헤드를 줄이고, 시장 출시 기간을 단축할 것으로 예상됩니다.

오픈XLA 세 가지 주요 구성 요소로 구성, 코드는 Apache 2.0 라이선스에 따라 배포됩니다.

  1. XLA(가속 선형 대수학)는 다양한 제조업체의 GPU, CPU 및 특수 가속기를 비롯한 다양한 하드웨어 플랫폼에서 고성능 실행을 위해 기계 학습 모델을 최적화할 수 있는 컴파일러입니다.
  2. StableHLO는 기계 학습 시스템 모델에 사용하기 위한 HLO(High-Level Operations) 세트의 기본 사양 및 구현입니다. 특정 하드웨어에서 실행되도록 모델을 변환하는 기계 학습 프레임워크와 컴파일러 사이의 계층 역할을 합니다. 계층은 PyTorch, TensorFlow 및 JAX 프레임워크용 StableHLO 형식으로 모델을 생성하도록 준비됩니다. MHLO 제품군은 직렬화 및 버전 제어 지원으로 확장된 StableHLO의 기반으로 사용됩니다.
  3. IREE(Intermediate Representation Execution Environment)는 LLVM 프로젝트의 MLIR(Intermediate Multi-Level Representation) 형식을 기반으로 기계 학습 모델을 범용 중간 표현으로 변환하는 컴파일러 및 런타임입니다. 기능 중 사전 컴파일 가능성(사전), 흐름 제어 지원, 모델에서 동적 요소를 사용하는 기능, 다양한 CPU 및 GPU에 대한 최적화, 낮은 오버헤드가 강조 표시됩니다.

OpenXLA의 주요 장점에 대해 다음과 같이 언급됩니다. 코드를 작성하지 않고도 최적의 성능을 달성했습니다. 뿐만 아니라 장치별 즉시 사용 가능한 최적화 제공, 대수식의 단순화, 효율적인 메모리 할당, 최대 메모리 소비 및 오버헤드 감소를 고려한 실행 스케줄링을 포함합니다.

또 다른 장점은 스케일링 단순화 및 계산 병렬화. 컴파일러가 병렬 컴퓨팅을 위한 코드를 자동으로 생성할 수 있는 기반이 되는 중요한 텐서의 하위 집합에 대한 주석을 개발자가 추가하는 것으로 충분합니다.

또한 여러 하드웨어 플랫폼에 대한 지원으로 이식성이 제공됩니다. AMD 및 NVIDIA GPU, x86 및 ARM CPU, Google TPU ML Accelerators, AWS Trainium Inferentia IPU, Graphcore 및 Wafer-Scale Engine Cerebras와 같은.

추가 기능 구현과 확장 연결 지원, 병렬 컴퓨팅을 위한 CUDA, HIP, SYCL, Triton 및 기타 언어를 사용하여 딥 머신 러닝 프리미티브 작성 지원 및 병목 현상의 수동 조정 가능성 모델에서.

마지막으로, 그것에 대해 더 알고 싶다면 다음을 참조하십시오. 다음 링크에서 세부 사항.


코멘트를 남겨주세요

귀하의 이메일 주소는 공개되지 않습니다. 필수 필드가 표시되어 있습니다 *

*

*

  1. 데이터 책임자: AB Internet Networks 2008 SL
  2. 데이터의 목적 : 스팸 제어, 댓글 관리.
  3. 합법성 : 귀하의 동의
  4. 데이터 전달 : 법적 의무에 의한 경우를 제외하고 데이터는 제 XNUMX 자에게 전달되지 않습니다.
  5. 데이터 저장소 : Occentus Networks (EU)에서 호스팅하는 데이터베이스
  6. 권리 : 귀하는 언제든지 귀하의 정보를 제한, 복구 및 삭제할 수 있습니다.