Rywal Baidu ChatGPT, Ernie Bot, pojawi się w marcu, mówi CEO

Rywal Baidu ChatGPT, Ernie Bot, pojawi się w marcu, mówi CEO

Węzeł źródłowy: 1981257

Nvidia zarabia na szaleństwie na sztuczną inteligencję, a jej układ A100 napędza większość aplikacji branżowych w ich wyścigu o dominację nad sztuczną inteligencją. Giganci technologiczni, tacy jak Microsoft i Google, ścigają się o włączenie technologii sztucznej inteligencji do swoich wyszukiwarek, podczas gdy firmy takie jak Stable Diffusion i OpenAI są już przed nami.

OpenAI wydało swoje ChatGPT w listopadzie do natychmiastowych fanfar, zmuszając inne firmy technologiczne do naśladowania go lub wymyślania konkurencyjnych produktów. Takie wysiłki wymagają dużej mocy obliczeniowej, a jako jedno z najbardziej krytycznych narzędzi dla branży sztucznej inteligencji, A100 firmy Nvidia odegrało kluczową rolę.

Przeczytaj także: Amerykańskie Biuro ds. Praw Autorskich mówi, że nie można mieć praw autorskich do obrazów generowanych przez sztuczną inteligencję

System operacyjny dzisiejszej sztucznej inteligencji

Natan Benaich, inwestor, który publikuje biuletyn poświęcony sztucznej inteligencji, mówi, że A100 stał się w tej chwili „kołem roboczym” dla profesjonalistów AI.

Według New Street Research Nvidia dominuje w 95% całego rynku procesorów graficznych, które można wykorzystać do uczenia maszynowego.

„Nvidia AI to zasadniczo system operacyjny dzisiejszych systemów AI” — powiedział Nvidia Dyrektor generalny Jensen Huang rozmawiał w środę z analitykami o zarobkach firmy.

A100 jest przystosowany do modeli uczenia maszynowego, które zasilają narzędzia takie jak ChatGPT, Bing AI lub Stable Diffusion. Może wykonywać jednocześnie wiele prostych obliczeń, co jest ważne przy trenowaniu i korzystaniu z modeli sieci neuronowych.

Podczas gdy firmy lubią Google i Amazon opracowują własne chipy specjalnie zaprojektowane do obciążeń AI, a Indeks obliczeniowy raportu o stanie AI wskazuje, że sprzęt AI pozostaje silnie skonsolidowany z Nvidią.

W grudniu ponad 21 000 artykułów o sztucznej inteligencji o otwartym kodzie źródłowym twierdziło, że używają chipów Nvidia. Co więcej, większość badaczy uwzględnionych w raporcie korzystała z V100, po raz pierwszy wprowadzonego na rynek w 2017 roku.

Przyszłość to zdecydowanie AI dla Nvidii

Nvidia spopularyzowany procesor graficzny (GPU) i uzyskuje zdecydowaną większość swoich przychodów z tych wyspecjalizowanych chipów. Firma projektuje i sprzedaje procesory graficzne do gier, wydobywania kryptowalut i zastosowań profesjonalnych, a także układy chipowe do użytku w pojazdach, robotyce i innych narzędziach.

Raport o zarobkach za czwarty kwartał, opublikowany w minioną środę, pokazuje ogólny spadek sprzedaży o 21%. Ale następnego dnia inwestorzy popchnęli cenę akcji o około 14%, głównie z powodu biznesu związanego ze sztuczną inteligencją.

Według zarobki zgłosić, dział chipów AI – Data Center – wzrósł o 11% do 3.62 miliarda dolarów w czwartym kwartale. Firma twierdzi, że wzrost był napędzany przez amerykańskich dostawców usług w chmurze, którzy kupowali więcej produktów.

Patrząc na rok do 23 lutego, akcje wzrosły o 65%. Huang powiedział, że sztuczna inteligencja znajduje się w „punkcie przegięcia”, zmuszając firmy każdej wielkości do kupowania chipów w celu opracowania oprogramowania do nauki.

"generatywna sztuczna inteligencjaWszechstronność i możliwości tego rozwiązania wywołały w przedsiębiorstwach na całym świecie poczucie pilnej potrzeby opracowania i wdrożenia strategii sztucznej inteligencji” — powiedział Huang.

„Działalność związana z infrastrukturą sztucznej inteligencji, którą zbudowaliśmy, oraz działalność związana z wnioskowaniem za pomocą Hoppera i Ampere w celu wpływania na duże modele językowe, właśnie przeszła przez dach w ciągu ostatnich 60 dni” – dodał.

AI-as-a-service jest już w drodze

Firma ogłosiła również, że zacznie oferować opartą na chmurze opcję sztucznej inteligencji jako usługi, która pozwoli mniejszym firmom wykorzystać jej moc obliczeniową do szkolenia modeli sztucznej inteligencji, w tym takich, które leżą u podstaw ChatGPT.

Współzałożyciel Arete Research Center, Brett Simpson powiedział Yahoo Finance Live, że to coś więcej niż tylko ChatGPT.

„Ostatecznie intensywność sztucznej inteligencji jest znacznie większa niż konwencjonalne przetwarzanie. Myślę więc, że przychody związane ze sztuczną inteligencją będą wprost proporcjonalne do możliwości obliczeniowych, które tutaj widzimy. Obietnica technologii wykracza daleko poza chatbota, że ​​tak powiem” – powiedział Simpson.

Redaktor ds. technologii Yahoo Finance Live, Daniel Howley, powiedział tymczasem: „Na razie przyszłość Nvidii jest bezpośrednio związana ze sztuczną inteligencją”.

Byczy sentyment do akcji

Szum wokół AI, ChatGPT i zdolności Nvidii do zarabiania na tym zaowocował pozytywnymi uwagami gigantów z Wall Street, takich jak Goldman Sachs.

Goldman Sachs powiedział, że „niewłaściwe” było siedzenie z boku w oczekiwaniu na pogorszenie się fundamentów firmy i podwyższył akcje z „neutralnego” do „kupuj” w czwartkowym komunikacie.

„Wierzymy, że przyspieszenie rozwoju/wdrażania sztucznej inteligencji w hiper-skalach, a także w przedsiębiorstwach, jeśli w ogóle, posłuży pozycji lidera firmy, ponieważ klienci z poczuciem pilności będą polegać na rozwiązaniach, które są skalowalne i dostępne” — powiedział Goldman .

Nvidia A100 została po raz pierwszy zaprezentowana w 2020 r., zanim droższy H100 pojawił się w 2022 r. Firma twierdzi jednak, że odnotowała większe przychody z H100 w chipach za kwartał kończący się w styczniu niż z A100.

Według Nvidii, H100 jest pierwszym z jej procesorów graficznych do centrów danych, który został zoptymalizowany pod kątem transformatorów, co jest coraz ważniejszą techniką, z której korzysta wiele najnowszych aplikacji AI.

Nvidia twierdzi, że chce przyspieszyć szkolenie AI o ponad milion procent. Porozmawiaj o prędkości warp.

Znak czasu:

Więcej z MetaWiadomości