Microsoft ha speso milioni di dollari per costruire il supercomputer su cui si basa ChatGPT.

Microsofts

Microsoft ha annunciato nuove macchine virtuali potenti e altamente scalabili che integrano le più recenti GPU NVIDIA H100 Tensor Core e il networking NVIDIA Quantum-2 InfiniBand.

Microsoft ha speso centinaia di milioni di dollari la costruzione di un enorme supercomputer per aiutare ad alimentare il chatbot OpenAI ChatGPT, In un rapporto, Microsoft spiega come ha costruito la potente infrastruttura Azure AI utilizzata da OpenAI e come i suoi sistemi stanno diventando ancora più robusti.

Per costruire il supercomputer che alimenta i progetti OpenAI, Microsoft afferma di aver collegato migliaia di unità di elaborazione grafica (GPU) NVIDIA alla sua piattaforma di cloud computing Azure. Questo, a sua volta, ha permesso a OpenAI di addestrare modelli sempre più potenti e "sbloccare le capacità AI" di strumenti come ChatGPT e Bing.

Scott Guthrie vicepresidente dell'intelligenza artificiale e del cloud presso Microsoft, ha detto che la società ha speso diverse centinaia di milioni di dollari per il progetto, secondo una dichiarazione. E mentre questo può sembrare una goccia nel secchio per Microsoft, che ha recentemente ampliato il suo investimento multimiliardario e pluriennale in OpenAI, sicuramente dimostra che è pronto a investire ancora più denaro nello spazio AI.

Quando Microsoft ha investito $ 1 miliardi a OpenAI nel 2019, ha accettato di costruire un enorme supercomputer e lo stato dell'arte per l'avvio della ricerca sull'intelligenza artificiale. L'unico problema: Microsoft non aveva nulla di cui OpenAI avesse bisogno e non era del tutto sicura di poter costruire qualcosa di così grande sul suo servizio cloud Azure senza romperlo.

OpenAI stava cercando di addestrare un insieme sempre crescente di programmi di intelligenza artificiale chiamati modelli, che ingerivano volumi maggiori di dati e apprendevano sempre più parametri, le variabili che il sistema di intelligenza artificiale scopriva attraverso l'addestramento e il riaddestramento. Ciò significava che OpenAI aveva bisogno di accedere a potenti servizi di cloud computing per lunghi periodi di tempo.

Per affrontare questa sfida, Microsoft ha dovuto trovare il modo di collegare decine di migliaia di chip grafici NVIDIA A100 e cambia il modo in cui esegui il rack dei server per evitare interruzioni di corrente.

“Abbiamo costruito un'architettura di sistema che potesse funzionare ed essere affidabile su larga scala. Questo è ciò che ha reso possibile ChatGPT", ha affermato Nidhi Chappell, direttore generale di Microsoft per l'infrastruttura Azure AI. “È uno schema che viene da lì. Ce ne saranno molti, molti di più".

La tecnologia ha permesso a OpenAI di lanciare ChatGPT, il chatbot virale che ha attirato più di un milione di utenti a pochi giorni dalla sua IPO di novembre e che ora viene assorbito nei modelli di business di altre società, da quelle gestite dal miliardario fondatore di hedge fund Ken Griffin al tempo di consegna.

Poiché gli strumenti di intelligenza artificiale generativa come ChatGPT attirano l'interesse di aziende e consumatori, ci sarà una maggiore pressione sui fornitori di servizi cloud come Microsoft, Amazon e Google per garantire che i loro data center possano fornire l'enorme potenza di calcolo richiesta.

Ora Microsoft sta utilizzando lo stesso set di risorse che ha creato per OpenAI per addestrare ed eseguire i propri fantastici modelli di intelligenza artificiale, incluso il nuovo bot di ricerca Bing introdotto il mese scorso. L'azienda vende il sistema anche ad altri clienti. Il gigante del software sta già lavorando alla prossima generazione del supercomputer AI, come parte di un accordo ampliato con OpenAI in cui Microsoft ha aggiunto 10 miliardi di dollari al suo investimento.

“Non li costruiamo come qualcosa di personalizzato; è iniziato come qualcosa di personalizzato, ma l'abbiamo sempre costruito in modo che fosse generalizzato in modo che chiunque desideri addestrare un modello linguistico di grandi dimensioni possa trarre vantaggio dagli stessi miglioramenti. Guthrie ha detto in un'intervista. "Ci ha davvero aiutato a diventare un cloud migliore per l'AI in generale".

L'addestramento di un enorme modello di intelligenza artificiale richiede un gran numero di unità di elaborazione grafica collegate in un unico posto, come il supercomputer AI assemblato da Microsoft. Una volta che un modello è in uso, rispondere a tutte le domande poste dagli utenti (chiamato inferenza) richiede una configurazione leggermente diversa. Microsoft distribuisce anche chip grafici per l'inferenza, ma quei processori (centinaia di migliaia) sono geograficamente dispersi nelle oltre 60 regioni del data center dell'azienda. Ora l'azienda sta aggiungendo l'ultimo chip grafico NVIDIA per i carichi di lavoro AI (l'H100) e l'ultima versione della tecnologia di rete Infiniband di NVIDIA per una condivisione dei dati ancora più veloce.

La decisione di Microsoft di collaborare con OpenAI è stata fondata sulla convinzione che questa scala di infrastrutture senza precedenti avrebbe prodotto risultati (nuove capacità di intelligenza artificiale, un nuovo tipo di piattaforma di programmazione) che Microsoft potrebbe trasformare in prodotti e servizi che offrirebbero vantaggi reali ai clienti, ha affermato Waymouth. Questa convinzione ha alimentato l'ambizione delle aziende di superare tutte le sfide tecniche per costruirlo e continuare a spingere i confini del supercalcolo AI.

fonte: https://news.microsoft.com/


Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

*

*

  1. Responsabile del trattamento: AB Internet Networks 2008 SL
  2. Scopo dei dati: controllo SPAM, gestione commenti.
  3. Legittimazione: il tuo consenso
  4. Comunicazione dei dati: I dati non saranno oggetto di comunicazione a terzi se non per obbligo di legge.
  5. Archiviazione dati: database ospitato da Occentus Networks (UE)
  6. Diritti: in qualsiasi momento puoi limitare, recuperare ed eliminare le tue informazioni.

  1.   Leonardo suddetto

    Mi chiedo quando questo diventerà realtà la quantità di disoccupazione che ci sarà nel mondo, ci stiamo uccidendo