Microsoft는 ChatGPT의 기반이 되는 슈퍼컴퓨터를 구축하는 데 수백만 달러를 투자했습니다.

마이크로 소프트

Microsoft는 최신 NVIDIA H100 Tensor Core GPU와 NVIDIA Quantum-2 InfiniBand 네트워킹을 통합하는 강력하고 확장성이 뛰어난 새로운 가상 머신을 발표했습니다.

Microsoft는 수억 달러를 건설 OpenAI ChatGPT 챗봇을 구동하는 데 도움이 되는 거대한 슈퍼컴퓨터, 보고서에서 Microsoft는 OpenAI에서 사용하는 강력한 Azure AI 인프라를 구축한 방법과 시스템이 더욱 강력해지고 있는 방법을 설명합니다.

OpenAI 프로젝트를 지원하는 슈퍼컴퓨터를 구축하기 위해 Microsoft는 수천 명을 연결했다고 주장 그래픽 처리 장치 (GPU) NVIDIA를 Azure 클라우드 컴퓨팅 플랫폼으로. 이를 통해 OpenAI는 점점 더 강력해지는 모델을 훈련하고 ChatGPT 및 Bing과 같은 도구의 "AI 기능을 잠금 해제"할 수 있었습니다.

스콧 거스리, Microsoft의 인공 지능 및 클라우드 부사장, 회사는 프로젝트에 수억 달러를 썼다고 말했습니다., 성명에 따르면. 그리고 최근 OpenAI에 수십억 달러, 다년간의 투자를 확대한 Microsoft의 양동이에 떨어지는 것처럼 보일 수 있지만 확실히 AI 공간에 더 많은 돈을 투자할 준비가 되었음을 보여준다.

마이크로소프트가 투자했을 때 $ 1 억 2019년 OpenAI에서 대규모 슈퍼컴퓨터 구축에 합의 인공 지능 연구의 시작을 위한 최첨단 기술. 유일한 문제는 Microsoft가 OpenAI에 필요한 것이 없었고 Azure 클라우드 서비스를 손상시키지 않고 그렇게 큰 것을 구축할 수 있을지 전적으로 확신하지 못했다는 것입니다.

OpenAI는 더 많은 양의 데이터를 수집하고 AI 시스템이 훈련 및 재훈련을 통해 발견한 변수인 더 많은 매개변수를 학습하는 모델이라고 하는 계속 성장하는 인공 지능 프로그램 세트를 훈련시키려고 했습니다. 이것은 OpenAI가 오랜 기간 동안 강력한 클라우드 컴퓨팅 서비스에 액세스해야 한다는 것을 의미했습니다.

이 도전 과제를 해결하기 위해 Microsoft는 수만 개의 그래픽 칩을 연결하는 방법을 찾아야 했습니다. NVIDIA A100과 서버 랙 방식을 변경하여 정전을 방지하십시오.

“우리는 대규모로 작동하고 신뢰할 수 있는 시스템 아키텍처를 구축했습니다. 이것이 ChatGPT를 가능하게 한 것입니다.”라고 Azure AI 인프라의 Microsoft 총괄 관리자인 Nidhi Chappell은 말했습니다. “거기서 나온 패턴이에요. 많이, 더 많이 있을 겁니다."

이 기술을 통해 OpenAI는 ChatGPT를 출시할 수 있었습니다. ChatGPT는 XNUMX월 기업공개(IPO) 며칠 만에 백만 명 이상의 사용자를 끌어모았고 현재 억만장자 헤지펀드 설립자 Ken Griffin이 운영하는 다른 회사의 비즈니스 모델에 흡수되고 있습니다. 배달 시간.

ChatGPT와 같은 생성 AI 도구가 기업과 소비자의 관심을 끌면서 Microsoft, Amazon, Google과 같은 클라우드 서비스 제공업체는 데이터 센터가 필요한 엄청난 컴퓨팅 성능을 제공할 수 있도록 해야 한다는 압박이 커질 것입니다.

이제 Microsoft는 OpenAI용으로 구축한 것과 동일한 리소스 집합을 사용하여 지난 달에 도입된 새로운 Bing 검색 봇을 포함하여 자체적인 훌륭한 AI 모델을 교육하고 실행하고 있습니다. 회사는 또한 시스템을 다른 고객에게 판매합니다. 이 거대 소프트웨어는 마이크로소프트가 투자에 10억 달러를 추가한 OpenAI와의 확장된 계약의 일환으로 이미 차세대 AI 슈퍼컴퓨터를 개발하고 있습니다.

“우리는 그것들을 맞춤형으로 구축하지 않습니다. 맞춤형으로 시작했지만 대규모 언어 모델을 훈련하려는 사람이 동일한 개선 사항을 활용할 수 있도록 항상 일반화된 방식으로 구축했습니다.” Guthrie는 인터뷰에서 말했습니다. "전반적으로 AI를 위한 더 나은 클라우드가 되는 데 정말 도움이 되었습니다."

대규모 AI 모델을 훈련하려면 Microsoft에서 조립한 AI 슈퍼컴퓨터처럼 한 곳에 연결된 많은 수의 그래픽 처리 장치가 필요합니다. 모델이 사용되면 사용자가 제기하는 모든 질문(추론이라고 함)에 답하려면 약간 다른 설정이 필요합니다. Microsoft는 또한 추론을 위해 그래픽 칩을 배포하지만 이러한 프로세서(수십만 개)는 회사의 60개 이상의 데이터 센터 지역에 지리적으로 분산되어 있습니다. 이제 이 회사는 AI 워크로드(H100)를 위한 최신 NVIDIA 그래픽 칩과 더 빠른 데이터 공유를 위해 최신 버전의 NVIDIA Infiniband 네트워킹 기술을 추가하고 있습니다.

Microsoft의 파트너 결정 OpenAI로 전례 없는 규모의 인프라가 성과를 낼 것이라는 믿음을 바탕으로 설립되었습니다. (새로운 AI 기능, 새로운 유형의 프로그래밍 플랫폼) Microsoft가 고객에게 실질적인 혜택을 제공하는 제품 및 서비스로 전환할 수 있다고 Waymouth는 말했습니다. 이러한 믿음은 이를 구축하기 위한 모든 기술적 과제를 극복하고 AI 슈퍼컴퓨팅의 경계를 계속해서 넓히려는 기업의 야망을 불러일으켰습니다.

출처 : https://news.microsoft.com/


코멘트를 남겨주세요

귀하의 이메일 주소는 공개되지 않습니다. 필수 필드가 표시되어 있습니다 *

*

*

  1. 데이터 책임자: AB Internet Networks 2008 SL
  2. 데이터의 목적 : 스팸 제어, 댓글 관리.
  3. 합법성 : 귀하의 동의
  4. 데이터 전달 : 법적 의무에 의한 경우를 제외하고 데이터는 제 XNUMX 자에게 전달되지 않습니다.
  5. 데이터 저장소 : Occentus Networks (EU)에서 호스팅하는 데이터베이스
  6. 권리 : 귀하는 언제든지 귀하의 정보를 제한, 복구 및 삭제할 수 있습니다.

  1.   레오나르도

    이것이 현실이 된다면 전세계에 있을 실업의 양, 우리는 스스로를 죽이고 있습니다.