SAN FRANCISCO, 13 czerwca (Reuters) – Amazon Web Services (AMZN.O), największy na świecie dostawca chmury obliczeniowej, rozważa wykorzystanie nowych chipów sztucznej inteligencji firmy Advanced Micro Devices Inc (AMD.O), choć nie było to jeszcze ostateczne. z decyzją, dyrektor AWS powiedział Reuterowi.
Komentarze pojawiły się podczas wydarzenia AMD, podczas którego firma chipowa przedstawiła swoją strategię dla rynku sztucznej inteligencji, który jest zdominowany przez rywala Nvidia Corp (NVDA.O).
Pomimo ujawnienia przez AMD pewnych specyfikacji technicznych chipa AI, który ma się ukazać jeszcze w tym roku, który może w jakiś sposób wyprzedzić obecną najlepszą ofertę Nvidii w niektórych wskaźnikach, wiadomości spowodowały spadek akcji po tym, jak AMD nie ujawniło głównego klienta dla chipa.
W wywiadach z Reuters, CEO AMD, Lisa Su, przedstawiła podejście do pozyskania głównych klientów przetwarzania w chmurze, dostarczając listę wszystkich elementów potrzebnych do zbudowania rodzajów systemów do obsługi usług podobnych do ChatGPT, jednocześnie pozwalając klientom wybierać dowolne z nich . chcesz, korzystając ze standardowych połączeń branżowych.
„Założymy się, że wiele osób chce mieć wybór, że chce mieć możliwość dostosowania tego, czego potrzebują w swoim centrum danych” — powiedział Su.
Chociaż AWS nie zobowiązał się publicznie do wykorzystania nowych układów AMD MI300 w swoich usługach w chmurze, Dave Brown, wiceprezes ds. elastycznego przetwarzania w chmurze w Amazon, powiedział, że AWS rozważa to.
„Nadal pracujemy razem nad tym, gdzie dokładnie będzie to przebiegać między AWS i AMD, ale jest to coś, nad czym nasze zespoły pracują razem” – powiedział Brown. „W tym miejscu skorzystaliśmy z niektórych prac, które wykonali w zakresie projektowania, które łączą się z istniejącymi systemami”.
Nvidia sprzedaje swoje chipy fragmentarycznie, ale pyta także dostawców chmury, czy są gotowi zaoferować kompletny system, który zaprojektowała Nvidia w produkcie o nazwie DGX Cloud. Oracle Corp. (ORCL.N) jest pierwszym partnerem Nvidii w zakresie tego systemu.
Brown powiedział, że AWS odmówił współpracy z Nvidią w sprawie oferty DGX Cloud.
„Skontaktowali się z nami, przyjrzeliśmy się modelowi biznesowemu i po prostu nie miało to sensu” dla AWS, biorąc pod uwagę wieloletnie doświadczenie firmy w budowaniu niezawodnych serwerów i istniejącą wiedzę na temat łańcucha dostaw, powiedział Brown.
Brown powiedział, że AWS woli projektować własne serwery od podstaw. AWS rozpoczął sprzedaż układu H100 Nvidii w marcu, ale jako część systemów własnego projektu.
Dodatkowe raporty Stephena Nelisa w San Francisco; Montaż przez Kim Coghill
Nasze standardy: Zasady zaufania Thomson Reuters.
More Stories
JPMorgan oczekuje, że Fed obniży w tym roku referencyjną stopę procentową o 100 punktów bazowych
Akcje giganta chipów sztucznej inteligencji Nvidia spadły pomimo rekordowej sprzedaży wynoszącej 30 miliardów dolarów
Stowarzyszenie Graczy NFL pozywa DraftKings na kwotę około 65 milionów dolarów