Microsoft đã chi hàng triệu đô la để xây dựng siêu máy tính dựa trên ChatGPT.

Kính hiển vi

Microsoft đã công bố các máy ảo mạnh mẽ và có khả năng mở rộng cao mới tích hợp GPU NVIDIA H100 Tensor Core mới nhất và mạng NVIDIA Quantum-2 InfiniBand.

Microsoft đã chi hàng trăm triệu đô la cho việc xây dựng một siêu máy tính khổng lồ để hỗ trợ cung cấp năng lượng cho chatbot OpenAI ChatGPT, Trong một báo cáo, Microsoft giải thích cách họ xây dựng cơ sở hạ tầng Azure AI mạnh mẽ được sử dụng bởi OpenAI và cách các hệ thống của họ ngày càng trở nên mạnh mẽ hơn.

Để xây dựng siêu máy tính cung cấp năng lượng cho các dự án OpenAI, Microsoft tuyên bố đã kết nối hàng ngàn đơn vị xử lý đồ họa (GPU) NVIDIA lên nền tảng điện toán đám mây Azure của mình. Đổi lại, điều này cho phép OpenAI đào tạo các mô hình ngày càng mạnh mẽ và "mở khóa khả năng AI" của các công cụ như ChatGPT và Bing.

Scott Guthrie phó chủ tịch trí tuệ nhân tạo và đám mây tại Microsoft, cho biết công ty đã chi vài trăm triệu đô la cho dự án, theo một tuyên bố. Và mặc dù điều đó có vẻ giống như một giọt nước tràn ly đối với Microsoft, công ty gần đây đã mở rộng khoản đầu tư nhiều tỷ đô la trong nhiều năm vào OpenAI, nhưng nó chắc chắn nó cho thấy rằng họ đã sẵn sàng đầu tư nhiều tiền hơn nữa vào không gian AI.

Khi Microsoft đầu tư $ 1 tỷ tại OpenAI năm 2019, đã đồng ý xây dựng một siêu máy tính khổng lồ và tối tân cho khởi nghiệp nghiên cứu trí tuệ nhân tạo. Vấn đề duy nhất: Microsoft không có bất cứ thứ gì OpenAI cần và không hoàn toàn chắc chắn rằng họ có thể xây dựng thứ gì đó lớn như vậy trên dịch vụ đám mây Azure của mình mà không phá vỡ nó.

OpenAI đang cố gắng đào tạo một tập hợp các chương trình trí tuệ nhân tạo ngày càng phát triển được gọi là các mô hình, chương trình này sẽ thu nhận khối lượng dữ liệu lớn hơn và ngày càng học được nhiều tham số hơn, các biến số mà hệ thống AI phát hiện ra thông qua đào tạo và đào tạo lại. Điều này có nghĩa là OpenAI cần quyền truy cập vào các dịch vụ điện toán đám mây mạnh mẽ trong thời gian dài.

Để đáp ứng thách thức này, Microsoft đã phải tìm cách liên kết hàng vạn chip đồ họa NVIDIA A100 và thay đổi cách sắp xếp máy chủ để tránh mất điện.

“Chúng tôi đã xây dựng một kiến ​​trúc hệ thống có thể hoạt động và đáng tin cậy trên quy mô lớn. Nidhi Chappell, tổng giám đốc cơ sở hạ tầng Azure AI của Microsoft cho biết, đây là điều đã giúp ChatGPT trở nên khả thi. “Đó là một mô hình bắt nguồn từ đó. Sẽ còn nhiều, rất nhiều nữa."

Công nghệ này cho phép OpenAI khởi chạy ChatGPT, chatbot lan truyền đã thu hút hơn một triệu người dùng trong vòng vài ngày kể từ khi IPO vào tháng XNUMX và hiện đang được đưa vào mô hình kinh doanh của các công ty khác, từ những công ty được điều hành bởi nhà sáng lập quỹ phòng hộ tỷ phú Ken Griffin tại thời gian giao hàng.

Khi các công cụ AI tổng quát như ChatGPT thu hút được sự quan tâm từ các doanh nghiệp và người tiêu dùng, các nhà cung cấp dịch vụ đám mây như Microsoft, Amazon và Google sẽ phải chịu áp lực lớn hơn trong việc đảm bảo các trung tâm dữ liệu của họ có thể cung cấp sức mạnh tính toán khổng lồ cần thiết.

Giờ đây, Microsoft đang sử dụng cùng một bộ tài nguyên mà họ đã xây dựng cho OpenAI để đào tạo và chạy các mô hình AI tuyệt vời của riêng mình, bao gồm cả bot tìm kiếm Bing mới được giới thiệu vào tháng trước. Công ty cũng bán hệ thống cho các khách hàng khác. Gã khổng lồ phần mềm đã làm việc trên thế hệ tiếp theo của siêu máy tính AI, như một phần của thỏa thuận mở rộng với OpenAI, trong đó Microsoft đã bổ sung 10 tỷ đô la vào khoản đầu tư của mình.

“Chúng tôi không xây dựng chúng như một thứ gì đó tùy chỉnh; nó bắt đầu như một thứ gì đó tùy chỉnh, nhưng chúng tôi luôn xây dựng nó theo cách nó được khái quát hóa để bất kỳ ai muốn đào tạo một mô hình ngôn ngữ lớn đều có thể tận dụng những cải tiến tương tự.” Guthrie nói trong một cuộc phỏng vấn. "Nó thực sự đã giúp chúng tôi trở thành một đám mây tốt hơn cho AI nói chung."

Đào tạo một mô hình AI đồ sộ đòi hỏi một số lượng lớn các đơn vị xử lý đồ họa được kết nối tại một nơi, giống như siêu máy tính AI do Microsoft lắp ráp. Khi một mô hình được sử dụng, việc trả lời tất cả các câu hỏi do người dùng đặt ra (được gọi là suy luận) yêu cầu thiết lập hơi khác một chút. Microsoft cũng triển khai chip đồ họa để suy luận, nhưng những bộ xử lý đó (hàng trăm nghìn) được phân tán về mặt địa lý trên hơn 60 khu vực trung tâm dữ liệu của công ty. Giờ đây, công ty đang bổ sung chip đồ họa NVIDIA mới nhất cho khối lượng công việc AI (H100) và phiên bản mới nhất của công nghệ mạng Infiniband của NVIDIA để chia sẻ dữ liệu nhanh hơn nữa.

Quyết định hợp tác của Microsoft với OpenAI được thành lập dựa trên niềm tin rằng quy mô cơ sở hạ tầng chưa từng có này sẽ tạo ra kết quả Waymouth cho biết (các khả năng AI mới, một loại nền tảng lập trình mới) mà Microsoft có thể biến thành các sản phẩm và dịch vụ mang lại lợi ích thực sự cho khách hàng. Niềm tin này đã thúc đẩy tham vọng của các công ty vượt qua mọi thách thức kỹ thuật để xây dựng nó và tiếp tục vượt qua ranh giới của siêu máy tính AI.

Fuente: https://news.microsoft.com/


Để lại bình luận của bạn

địa chỉ email của bạn sẽ không được công bố. Các trường bắt buộc được đánh dấu bằng *

*

*

  1. Chịu trách nhiệm về dữ liệu: AB Internet Networks 2008 SL
  2. Mục đích của dữ liệu: Kiểm soát SPAM, quản lý bình luận.
  3. Hợp pháp: Sự đồng ý của bạn
  4. Truyền thông dữ liệu: Dữ liệu sẽ không được thông báo cho các bên thứ ba trừ khi có nghĩa vụ pháp lý.
  5. Lưu trữ dữ liệu: Cơ sở dữ liệu do Occentus Networks (EU) lưu trữ
  6. Quyền: Bất cứ lúc nào bạn có thể giới hạn, khôi phục và xóa thông tin của mình.

  1.   Leonardo dijo

    Tôi tự hỏi khi điều này trở thành hiện thực thì số lượng thất nghiệp trên thế giới sẽ như thế nào, chúng ta đang tự giết chính mình