AWS i OpenAI ogłaszają wieloletnią współpracę strategiczną
Amazon Web Services (AWS) i OpenAI ogłosiły dziś (4.11.2025) wieloletnią współpracę strategiczną, w ramach której OpenAI otrzyma dostęp do światowej klasy infrastruktury AWS do obsługi i skalowania podstawowych zadań sztucznej inteligencji (AI).
Na mocy tej nowej umowy o wartości 38 miliardów dolarów, która będzie systematycznie rozwijana przez najbliższe siedem lat, OpenAI uzyska dostęp do mocy obliczeniowej AWS obejmującej setki tysięcy najnowocześniejszych procesorów graficznych NVIDIA, z możliwością rozszerzenia do dziesiątek milionów procesorów CPU.
Pozycja AWS w infrastrukturze chmurowej + pionierskie osiągnięcia OpenAI w dziedzinie generatywnej AI
AWS posiada unikalne doświadczenie w bezpiecznym i niezawodnym zarządzaniu infrastrukturą AI na dużą skalę, z klastrami przekraczającymi 500 tysięcy chipów. Wiodąca pozycja AWS w infrastrukturze chmurowej w połączeniu z pionierskimi osiągnięciami OpenAI w dziedzinie generatywnej AI pomoże milionom użytkowników w dalszym korzystaniu z ChatGPT.
Infrastruktura, którą AWS buduje dla OpenAI, opiera się na zaawansowanej architekturze zoptymalizowanej pod kątem maksymalnej wydajności przetwarzania AI.
Dzięki połączeniu procesorów graficznych NVIDIA (zarówno GB200, jak i GB300) w klastry, za pomocą serwerów Amazon EC2 Ultra w ramach jednej sieci, udało się uzyskać minimalne opóźnienia w komunikacji między połączonymi systemami.
Pozwala to OpenAI na efektywne zarządzanie zadaniami obliczeniowymi przy zachowaniu optymalnej wydajności.
Stworzone klastry zostały zaprojektowane tak, by obsługiwać różnorodne zadania – od obsługi zapytań ChatGPT po trenowanie modeli następnej generacji – z możliwością elastycznego dostosowywania się do zmieniających się potrzeb OpenAI.
Czytaj także: Amazon Web Services ogłasza szczegóły dotyczące regionu europejskiej chmury suwerennej
„Skalowanie zaawansowanej AI wymaga ogromnej, niezawodnej mocy obliczeniowej” – powiedział Sam Altman, współzałożyciel i CEO OpenAI.
„Nasza współpraca z AWS wzmacnia szeroki ekosystem obliczeniowy, który napędzi tę nową erę i udostępni zaawansowaną AI wszystkim” – podkreślił.
Matt Garman, CEO AWS, dodaje: „Podczas gdy OpenAI nadal przesuwa granice możliwości, infrastruktura AWS najwyższej klasy będzie stanowić fundament dla ich ambicji w zakresie AI. Skala i natychmiastowa dostępność zoptymalizowanych zasobów obliczeniowych potwierdzają unikalną pozycję AWS w obsłudze zaawansowanych systemów AI OpenAI”.
Modele OpenAI w Amazon Bedrock
Wcześniej w tym roku modele OpenAI stały się dostępne w Amazon Bedrock, dając milionom klientów AWS dostęp do tych zaawansowanych rozwiązań.
OpenAI szybko stało się jednym z najpopularniejszych dostawców modeli w Amazon Bedrock, z tysiącami klientów – takich jak Bystreet, Comscore, Peloton, Thomson Reuters, Triomics oraz Verana Health – wykorzystujących ich modele do automatyzacji procesów, kodowania, analiz naukowych i rozwiązywania problemów matematycznych.