AWS i OpenAI ogłaszają wieloletnią współpracę strategiczną

AWS i OpenAI ogłaszają wieloletnią współpracę strategiczną
Fot. stock.adobe.com / Koshiro K
Wieloletnie partnerstwo strategiczne zapewnia OpenAI natychmiastowy i rosnący dostęp do infrastruktury AWS dla zaawansowanych zadań AI. AWS udostępni OpenAI serwery Amazon EC2 Ultra z setkami tysięcy chipów oraz możliwość skalowania do dziesiątek milionów procesorów CPU. Umowa o wartości 38 miliardów dolarów pozwoli OpenAI na szybką rozbudowę mocy obliczeniowej przy zachowaniu korzystnych cen, wydajności i bezpieczeństwa AWS, czytamy w informacji firmy.

Amazon Web Services (AWS) i OpenAI ogłosiły dziś (4.11.2025) wieloletnią współpracę strategiczną, w ramach której OpenAI otrzyma dostęp do światowej klasy infrastruktury AWS do obsługi i skalowania podstawowych zadań sztucznej inteligencji (AI).

Na mocy tej nowej umowy o wartości 38 miliardów dolarów, która będzie systematycznie rozwijana przez najbliższe siedem lat, OpenAI uzyska dostęp do mocy obliczeniowej AWS obejmującej setki tysięcy najnowocześniejszych procesorów graficznych NVIDIA, z możliwością rozszerzenia do dziesiątek milionów procesorów CPU.

Pozycja AWS w infrastrukturze chmurowej + pionierskie osiągnięcia OpenAI w dziedzinie generatywnej AI

AWS posiada unikalne doświadczenie w bezpiecznym i niezawodnym zarządzaniu infrastrukturą AI na dużą skalę, z klastrami przekraczającymi 500 tysięcy chipów. Wiodąca pozycja AWS w infrastrukturze chmurowej w połączeniu z pionierskimi osiągnięciami OpenAI w dziedzinie generatywnej AI pomoże milionom użytkowników w dalszym korzystaniu z ChatGPT.

Infrastruktura, którą AWS buduje dla OpenAI, opiera się na zaawansowanej architekturze zoptymalizowanej pod kątem maksymalnej wydajności przetwarzania AI.

Dzięki połączeniu procesorów graficznych NVIDIA (zarówno GB200, jak i GB300) w klastry, za pomocą serwerów Amazon EC2 Ultra w ramach jednej sieci, udało się uzyskać minimalne opóźnienia w komunikacji między połączonymi systemami.

Pozwala to OpenAI na efektywne zarządzanie zadaniami obliczeniowymi przy zachowaniu optymalnej wydajności.

Stworzone klastry zostały zaprojektowane tak, by obsługiwać różnorodne zadania – od obsługi zapytań ChatGPT po trenowanie modeli następnej generacji – z możliwością elastycznego dostosowywania się do zmieniających się potrzeb OpenAI.

Czytaj także: Amazon Web Services ogłasza szczegóły dotyczące regionu europejskiej chmury suwerennej

„Skalowanie zaawansowanej AI wymaga ogromnej, niezawodnej mocy obliczeniowej” – powiedział Sam Altman, współzałożyciel i CEO OpenAI.

„Nasza współpraca z AWS wzmacnia szeroki ekosystem obliczeniowy, który napędzi tę nową erę i udostępni zaawansowaną AI wszystkim” – podkreślił.

Matt Garman, CEO AWS, dodaje: „Podczas gdy OpenAI nadal przesuwa granice możliwości, infrastruktura AWS najwyższej klasy będzie stanowić fundament dla ich ambicji w zakresie AI. Skala i natychmiastowa dostępność zoptymalizowanych zasobów obliczeniowych potwierdzają unikalną pozycję AWS w obsłudze zaawansowanych systemów AI OpenAI”.

Modele OpenAI w Amazon Bedrock

Wcześniej w tym roku modele OpenAI stały się dostępne w Amazon Bedrock, dając milionom klientów AWS dostęp do tych zaawansowanych rozwiązań.

OpenAI szybko stało się jednym z najpopularniejszych dostawców modeli w Amazon Bedrock, z tysiącami klientów – takich jak Bystreet, Comscore, Peloton, Thomson Reuters, Triomics oraz Verana Health – wykorzystujących ich modele do automatyzacji procesów, kodowania, analiz naukowych i rozwiązywania problemów matematycznych.

Źródło: Amazon Web Services / AWS