Microsoft har brugt millioner af dollars på at bygge den supercomputer, som ChatGPT er baseret på.

Microsofts

Microsoft annoncerede nye kraftfulde og meget skalerbare virtuelle maskiner, der integrerer de nyeste NVIDIA H100 Tensor Core GPU'er og NVIDIA Quantum-2 InfiniBand-netværk.

Microsoft har brugt hundredvis af millioner af dollars på opførelsen af en massiv supercomputer til at hjælpe med at drive OpenAI ChatGPT chatbot, I en rapport forklarer Microsoft, hvordan det byggede den kraftfulde Azure AI-infrastruktur, der bruges af OpenAI, og hvordan dets systemer bliver endnu mere robuste.

At bygge supercomputeren, der driver OpenAI-projekterne, Microsoft hævder at have forbundet tusindvis af grafiske behandlingsenheder (GPU) NVIDIA til sin Azure cloud computing-platform. Dette gav igen OpenAI mulighed for at træne mere og mere kraftfulde modeller og "låse op for AI-egenskaberne" af værktøjer som ChatGPT og Bing.

Scott Guthrie vicepræsident for kunstig intelligens og cloud hos Microsoft, sagde, at virksomheden brugte flere hundrede millioner dollars på projektet, ifølge en meddelelse. Og selvom det kan virke som en dråbe i spanden for Microsoft, som for nylig udvidede sin multi-milliard dollar, flerårige investering i OpenAI, så det viser, at det er klar til at investere endnu flere penge i AI-området.

Da Microsoft investerede $ 1 milliarder på OpenAI i 2019, indvilligede i at bygge en massiv supercomputer og state-of-the-art til opstart af kunstig intelligens-forskning. Det eneste problem: Microsoft havde ikke noget, OpenAI havde brug for, og var ikke helt sikker på, at det kunne bygge noget så stort på sin Azure-cloudtjeneste uden at bryde den.

OpenAI forsøgte at træne et stadigt voksende sæt af kunstig intelligens-programmer kaldet modeller, som indtog større mængder data og lærte flere og flere parametre, de variabler, som AI-systemet opdagede gennem træning og genoptræning. Dette betød, at OpenAI havde brug for adgang til kraftfulde cloud computing-tjenester i lange perioder.

For at imødekomme denne udfordring, Microsoft måtte finde måder at forbinde titusindvis af grafikchips på NVIDIA A100 og ændre den måde, du rack servere på for at undgå strømafbrydelser.

"Vi byggede en systemarkitektur, der kunne fungere og være pålidelig i stor skala. Det er det, der gjorde ChatGPT muligt,” sagde Nidhi Chappell, Microsofts general manager for Azure AI-infrastruktur. ”Det er et mønster, der kom derfra. Der kommer mange, mange flere«.

Teknologien gjorde det muligt for OpenAI at lancere ChatGPT, den virale chatbot, der tiltrak mere end en million brugere inden for få dage efter børsintroduktionen i november, og som nu er ved at blive absorberet i andre virksomheders forretningsmodeller, lige fra dem, der drives af milliardæren hedgefond-grundlæggeren Ken Griffin på leveringstidspunkt.

Efterhånden som generative AI-værktøjer som ChatGPT får interesse fra virksomheder og forbrugere, vil der være øget pres på cloud-tjenesteudbydere som Microsoft, Amazon og Google for at sikre, at deres datacentre kan levere den enorme computerkraft, der kræves.

Nu bruger Microsoft det samme sæt ressourcer, som det byggede for OpenAI til at træne og køre sine egne fantastiske AI-modeller, inklusive den nye Bing-søgebot, der blev introduceret i sidste måned. Virksomheden sælger også systemet til andre kunder. Softwaregiganten arbejder allerede på den næste generation af AI-supercomputeren, som en del af en udvidet aftale med OpenAI, hvor Microsoft har tilføjet 10 milliarder dollars til sin investering.

“Vi bygger dem ikke som noget brugerdefineret; det startede som noget brugerdefineret, men vi byggede det altid på en måde, så det blev generaliseret, så alle, der vil træne en stor sprogmodel, kan drage fordel af de samme forbedringer." sagde Guthrie i et interview. "Det hjalp os virkelig med at blive en bedre sky for kunstig intelligens generelt."

Træning af en massiv AI-model kræver et stort antal grafikbehandlingsenheder, der er forbundet på ét sted, som AI-supercomputeren samlet af Microsoft. Når først en model er i brug, kræver det en lidt anderledes opsætning at besvare alle spørgsmål stillet af brugere (kaldet inferens). Microsoft implementerer også grafikchips til slutninger, men disse processorer (hundredetusinder) er geografisk spredt ud over virksomhedens mere end 60 datacenterregioner. Nu tilføjer virksomheden den nyeste NVIDIA-grafikchip til AI-arbejdsbelastninger (H100) og den nyeste version af NVIDIAs Infiniband-netværksteknologi for endnu hurtigere datadeling.

Microsofts beslutning om at blive partner med OpenAI blev grundlagt på troen på, at denne hidtil usete omfang af infrastruktur ville give resultater (nye AI-kapaciteter, en ny type programmeringsplatform), som Microsoft kunne omdanne til produkter og tjenester, der ville levere reelle fordele for kunderne, sagde Waymouth. Denne tro har givet næring til virksomhedernes ambition om at overvinde alle tekniske udfordringer for at bygge det og fortsætte med at skubbe grænserne for AI-supercomputere.

kilde: https://news.microsoft.com/


Efterlad din kommentar

Din e-mailadresse vil ikke blive offentliggjort. Obligatoriske felter er markeret med *

*

*

  1. Ansvarlig for data: AB Internet Networks 2008 SL
  2. Formålet med dataene: Control SPAM, management af kommentarer.
  3. Legitimering: Dit samtykke
  4. Kommunikation af dataene: Dataene vil ikke blive kommunikeret til tredjemand, undtagen ved juridisk forpligtelse.
  5. Datalagring: Database hostet af Occentus Networks (EU)
  6. Rettigheder: Du kan til enhver tid begrænse, gendanne og slette dine oplysninger.

  1.   Leonardo sagde han

    Jeg spekulerer på, hvornår dette bliver en realitet, hvor mange arbejdsløsheder der vil være i verden, slår vi os selv ihjel