Microsoft hat Millionen von Dollar ausgegeben, um den Supercomputer zu bauen, auf dem ChatGPT basiert.

microsofts

Microsoft kündigte neue leistungsstarke und hochgradig skalierbare virtuelle Maschinen an, die die neuesten NVIDIA H100 Tensor Core-GPUs und NVIDIA Quantum-2 InfiniBand-Netzwerke integrieren.

Microsoft hat Hunderte Millionen Dollar dafür ausgegeben Die Konstruktion von ein riesiger Supercomputer zur Unterstützung des Chatbots OpenAI ChatGPT, In einem Bericht erklärt Microsoft, wie es die leistungsstarke Azure-KI-Infrastruktur aufgebaut hat, die von OpenAI verwendet wird, und wie seine Systeme noch robuster werden.

Um den Supercomputer zu bauen, der die OpenAI-Projekte antreibt, hat Microsoft behauptet, Tausende von angeschlossen zu haben Grafikprozessoren (GPU) NVIDIA zu seiner Cloud-Computing-Plattform Azure. Dies wiederum ermöglichte es OpenAI, immer leistungsfähigere Modelle zu trainieren und „die KI-Fähigkeiten“ von Tools wie ChatGPT und Bing freizuschalten.

Scott Guthrie Vizepräsident für künstliche Intelligenz und Cloud bei Microsoft, sagte, das Unternehmen habe mehrere hundert Millionen Dollar für das Projekt ausgegeben, heißt es in einer Mitteilung. Und während dies für Microsoft, das kürzlich seine mehrjährige Multi-Milliarden-Dollar-Investition in OpenAI erweitert hat, wie ein Tropfen auf den heißen Stein erscheinen mag, ist es das auf jeden Fall es zeigt, dass es bereit ist, noch mehr Geld in den KI-Bereich zu investieren.

Als Microsoft investierte 1 Milliarden bei OpenAI im Jahr 2019 vereinbart, einen riesigen Supercomputer zu bauen und State-of-the-Art für den Start der Künstliche-Intelligenz-Forschung. Das einzige Problem: Microsoft hatte nichts, was OpenAI brauchte, und war sich nicht ganz sicher, ob es etwas so Großes auf seinem Azure-Cloud-Dienst aufbauen konnte, ohne ihn zu beschädigen.

OpenAI versuchte, einen ständig wachsenden Satz von Programmen für künstliche Intelligenz namens Modelle zu trainieren, die größere Datenmengen aufnahmen und immer mehr Parameter erlernten, die Variablen, die das KI-System durch Training und Umschulung entdeckte. Dies bedeutete, dass OpenAI über lange Zeiträume Zugriff auf leistungsstarke Cloud-Computing-Dienste benötigte.

Um dieser Herausforderung zu begegnen, Microsoft musste Wege finden, Zehntausende von Grafikchips zu verbinden NVIDIA A100 und ändere die Art und Weise, wie du Server einstellst, um Stromausfälle zu vermeiden.

„Wir haben eine Systemarchitektur aufgebaut, die in großem Maßstab funktionieren und zuverlässig sein kann. Das hat ChatGPT möglich gemacht“, sagte Nidhi Chappell, Microsoft General Manager für die Azure-KI-Infrastruktur. „Es ist ein Muster, das von dort kam. Es werden noch viele, viele mehr sein."

Die Technologie ermöglichte es OpenAI, ChatGPT zu starten, den viralen Chatbot, der innerhalb weniger Tage nach seinem Börsengang im November mehr als eine Million Benutzer anzog und nun in die Geschäftsmodelle anderer Unternehmen aufgenommen wird, darunter die des milliardenschweren Hedgefonds-Gründers Ken Griffin Lieferzeit.

Da generative KI-Tools wie ChatGPT das Interesse von Unternehmen und Verbrauchern gewinnen, wird der Druck auf Cloud-Dienstanbieter wie Microsoft, Amazon und Google zunehmen, sicherzustellen, dass ihre Rechenzentren die erforderliche enorme Rechenleistung bereitstellen können.

Jetzt verwendet Microsoft dieselben Ressourcen, die es für OpenAI entwickelt hat, um seine eigenen großartigen KI-Modelle zu trainieren und auszuführen, einschließlich des neuen Bing-Suchbots, der letzten Monat eingeführt wurde. Das Unternehmen verkauft das System auch an andere Kunden. Der Softwareriese arbeitet bereits an der nächsten Generation des KI-Supercomputers im Rahmen eines erweiterten Vertrags mit OpenAI, bei dem Microsoft seine Investition um 10 Milliarden US-Dollar erhöht hat.

„Wir bauen sie nicht nach Maß; Es begann als etwas Benutzerdefiniertes, aber wir haben es immer so entwickelt, dass es verallgemeinert wurde, damit jeder, der ein großes Sprachmodell trainieren möchte, dieselben Verbesserungen nutzen kann.“ sagte Guthrie in einem Interview. „Es hat uns wirklich geholfen, insgesamt eine bessere Cloud für KI zu werden.“

Das Training eines massiven KI-Modells erfordert eine große Anzahl von Grafikverarbeitungseinheiten, die an einem Ort verbunden sind, wie der von Microsoft zusammengestellte KI-Supercomputer. Sobald ein Modell verwendet wird, erfordert die Beantwortung aller von Benutzern gestellten Fragen (sogenannte Inferenz) eine etwas andere Einrichtung. Microsoft setzt auch Grafikchips für Inferenz ein, aber diese Prozessoren (Hunderttausende) sind geografisch über die über 60 Rechenzentrumsregionen des Unternehmens verteilt. Jetzt fügt das Unternehmen den neuesten NVIDIA-Grafikchip für KI-Workloads (den H100) und die neueste Version von NVIDIAs Infiniband-Netzwerktechnologie für noch schnelleren Datenaustausch hinzu.

Microsofts Entscheidung für eine Partnerschaft mit OpenAI wurde in der Überzeugung gegründet, dass diese beispiellose Infrastruktur zu Ergebnissen führen würde (neue KI-Fähigkeiten, eine neue Art von Programmierplattform), die Microsoft in Produkte und Dienstleistungen umwandeln könnte, die den Kunden echte Vorteile bringen würden, sagte Waymouth. Dieser Glaube hat den Ehrgeiz der Unternehmen geweckt, alle technischen Herausforderungen zu meistern, um es zu bauen und die Grenzen des KI-Supercomputings weiter zu verschieben.

Quelle: https://news.microsoft.com/


Hinterlasse einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert mit *

*

*

  1. Verantwortlich für die Daten: AB Internet Networks 2008 SL
  2. Zweck der Daten: Kontrolle von SPAM, Kommentarverwaltung.
  3. Legitimation: Ihre Zustimmung
  4. Übermittlung der Daten: Die Daten werden nur durch gesetzliche Verpflichtung an Dritte weitergegeben.
  5. Datenspeicherung: Von Occentus Networks (EU) gehostete Datenbank
  6. Rechte: Sie können Ihre Informationen jederzeit einschränken, wiederherstellen und löschen.

  1.   Leonardo sagte

    Ich frage mich, wenn dies Realität wird, wie hoch die Arbeitslosigkeit in der Welt sein wird, wir bringen uns selbst um