A Microsoft gastou milhões de dólares para construir o supercomputador no qual o ChatGPT é baseado.

Microsofts

A Microsoft anunciou novas máquinas virtuais poderosas e altamente escaláveis ​​que integram as mais recentes GPUs NVIDIA H100 Tensor Core e rede NVIDIA Quantum-2 InfiniBand.

A Microsoft gastou centenas de milhões de dólares em a construção de um enorme supercomputador para ajudar a alimentar o chatbot OpenAI ChatGPT, Em um relatório, a Microsoft explica como construiu a poderosa infraestrutura Azure AI usada pela OpenAI e como seus sistemas estão ficando ainda mais robustos.

Para construir o supercomputador que alimenta os projetos OpenAI, a Microsoft afirma ter conectado milhares de unidades de processamento gráfico (GPU) NVIDIA para sua plataforma de computação em nuvem Azure. Isso, por sua vez, permitiu à OpenAI treinar modelos cada vez mais poderosos e "desbloquear os recursos de IA" de ferramentas como ChatGPT e Bing.

Scott Guthrie vice-presidente de inteligência artificial e nuvem da Microsoft, disse que a empresa gastou várias centenas de milhões de dólares no projeto, de acordo com um comunicado. E embora isso possa parecer uma gota no balde para a Microsoft, que recentemente expandiu seu investimento multibilionário e plurianual na OpenAI, certamente isso mostra que está pronto para investir ainda mais dinheiro no espaço da IA.

Quando a Microsoft investiu US $ 1 bilhões na OpenAI em 2019, concordou em construir um enorme supercomputador e estado da arte para o start-up da pesquisa de inteligência artificial. O único problema: a Microsoft não tinha nada que o OpenAI precisasse e não tinha certeza se poderia construir algo tão grande em seu serviço de nuvem Azure sem quebrá-lo.

A OpenAI estava tentando treinar um conjunto cada vez maior de programas de inteligência artificial chamados modelos, que ingeriam maiores volumes de dados e aprendiam cada vez mais parâmetros, as variáveis ​​que o sistema de IA descobriu por meio de treinamento e retreinamento. Isso significava que a OpenAI precisava de acesso a poderosos serviços de computação em nuvem por longos períodos de tempo.

Para enfrentar esse desafio, A Microsoft teve que encontrar maneiras de conectar dezenas de milhares de chips gráficos NVIDIA A100 e mude a maneira como você monta servidores para evitar quedas de energia.

“Construímos uma arquitetura de sistema que poderia funcionar e ser confiável em grande escala. Foi isso que tornou o ChatGPT possível”, disse Nidhi Chappell, gerente geral da Microsoft para infraestrutura de IA do Azure. “É um padrão que veio daí. Haverá muitos, muitos mais."

A tecnologia permitiu que a OpenAI lançasse o ChatGPT, o chatbot viral que atraiu mais de um milhão de usuários poucos dias após seu IPO em novembro e agora está sendo absorvido pelos modelos de negócios de outras empresas, desde aquelas administradas pelo bilionário fundador do fundo de hedge Ken Griffin na tempo de entrega.

À medida que ferramentas de IA generativas, como o ChatGPT, ganham interesse de empresas e consumidores, haverá maior pressão sobre provedores de serviços em nuvem como Microsoft, Amazon e Google para garantir que seus data centers possam fornecer o enorme poder de computação necessário.

Agora, a Microsoft está usando o mesmo conjunto de recursos que criou para a OpenAI para treinar e executar seus próprios modelos de IA, incluindo o novo bot de pesquisa Bing lançado no mês passado. A empresa também vende o sistema para outros clientes. A gigante do software já está trabalhando na próxima geração do supercomputador AI, como parte de um acordo expandido com a OpenAI, no qual a Microsoft adicionou US$ 10 bilhões ao seu investimento.

“Não os construímos como algo personalizado; começou como algo customizado, mas sempre construímos de forma que fosse generalizado para que qualquer pessoa que queira treinar um grande modelo de linguagem possa aproveitar as mesmas melhorias.” Guthrie disse em uma entrevista. "Isso realmente nos ajudou a nos tornar uma nuvem melhor para IA em geral."

Treinar um modelo de IA massivo requer um grande número de unidades de processamento gráfico conectadas em um só lugar, como o supercomputador de IA montado pela Microsoft. Depois que um modelo está em uso, responder a todas as perguntas feitas pelos usuários (chamadas de inferência) requer uma configuração ligeiramente diferente. A Microsoft também implanta chips gráficos para inferência, mas esses processadores (centenas de milhares) estão geograficamente dispersos pelas mais de 60 regiões de data centers da empresa. Agora, a empresa está adicionando o mais recente chip gráfico NVIDIA para cargas de trabalho de IA (o H100) e a versão mais recente da tecnologia de rede Infiniband da NVIDIA para compartilhamento de dados ainda mais rápido.

A decisão da Microsoft de fazer parceria com OpenAI foi fundada na crença de que essa escala sem precedentes de infraestrutura produziria resultados (novos recursos de IA, um novo tipo de plataforma de programação) que a Microsoft poderia transformar em produtos e serviços que trariam benefícios reais aos clientes, disse Waymouth. Essa crença alimentou a ambição das empresas de superar todos os desafios técnicos para construí-lo e continuar a ultrapassar os limites da supercomputação de IA.

fonte: https://news.microsoft.com/


Um comentário deixe o seu

Deixe um comentário

Seu endereço de email não será publicado. Campos obrigatórios são marcados com *

*

*

  1. Responsável pelos dados: AB Internet Networks 2008 SL
  2. Finalidade dos dados: Controle de SPAM, gerenciamento de comentários.
  3. Legitimação: Seu consentimento
  4. Comunicação de dados: Os dados não serão comunicados a terceiros, exceto por obrigação legal.
  5. Armazenamento de dados: banco de dados hospedado pela Occentus Networks (UE)
  6. Direitos: A qualquer momento você pode limitar, recuperar e excluir suas informações.

  1.   Leonardo dito

    Fico imaginando quando isso virar realidade a quantidade de desemprego que vai ter no mundo, estamos nos matando