HPE spune că impactul AI asupra întreprinderii nu este „exagerat”

HPE spune că impactul AI asupra întreprinderii nu este „exagerat”

Nodul sursă: 2989174

HPE Discover EMEA Acum, că fiecare mare producător de tehnologie se joacă pentru o bucată din plăcinta cu veniturile AI, HPE propune să rămână relevantă adoptând ceea ce CEO-ul suprem Antonio Neri numește o strategie „nativă AI”.

Pretenția este că HPE poate sprijini clienții în fiecare parte a ciclului de viață al modelului de inteligență artificială, de la instruire la reglare și inferență. O parte din asta depinde de HPE deține Cray, și a fi capabil să furnizeze tehnologia de supercomputing necesară pentru antrenarea modelelor mari de IA, despre care Neri susține că este un factor de diferențiere pe care unii rivali ai HPE nu îl au.

HPE, la fel ca mulți alții din industrie, vede viitorul ca AI și mai mult AI – deși în cazul său este livrat prin platforma Greenlake. Compania va trebui să convingă piața că are piesele cheie ale puzzle-ului AI.

În timpul discursului său principal la evenimentul HPE Discover din Barcelona, ​​Neri a evidențiat oportunitățile de utilizare a inteligenței artificiale în întreprinderi, împrumutând expresia idioată că AI va fi „cea mai disruptivă tehnologie a vieții noastre”.

Astfel de afirmații sunt obișnuite în acest moment, în urma exploziei de interes pentru modelele AI generative cauzată de OpenAI și chatbot-ul său ChatGPT bazat pe un model de limbă mare.

„AI a fost văzută ca o promisiune undeva la orizont înainte de 2022, iar ChatGPT a venit și a zdruncinat bazele”, a spus Neri.

„Acum imaginați-vă un viitor în care fiecare decizie de afaceri este activată de AI. Un viitor în care analiza predictivă conduce la noi niveluri de activități pentru a vă ajuta să luați decizii mai bune și mai rapide și să preziceți tendințele despre noile oportunități de afaceri”, a spus Neri.

Pentru a susține acest lucru, lui Neri i s-a alăturat pe scenă Karl Havard, directorul general al Taiga Cloud, o companie europeană care construiește un cloud specializat pentru procesarea AI.

Taiga folosește nodurile Cray XD de la HPE, echipate cu GPU-uri Nvidia H100 pentru platforma sa, același hardware ca și serviciul de supercomputing GreenLake for Large Language Models de la HPE, anunțat în iunie.

Havard a spus că compania sa își propune vinde democratizați accesul la IA generativă, astfel încât startup-urile și întreprinderile mai mici să poată obține resursele de care au nevoie pentru a antrena modele, în loc să fie nevoite să-și construiască propria infrastructură sau să meargă la marile cloud-uri publice.

Acordurile cu alte companii sunt, de asemenea, critice pentru HPE, a recunoscut Neri, în special Nvidia, având în vedere că GPU-urile sale joacă un rol esențial atât în ​​sistemele de supercalculare HPE pentru AI, cât și în soluția de întreprindere pentru AI generativă, cea din urmă. A anunțat săptămâna aceasta la Discover.

Vicepreședintele Nvidia pentru Enterprise Computing, Manuvir Das, și-a făcut apariția în timpul keynotei pentru a explica că mulți utilizatori de întreprinderi nu trebuie să-și petreacă tot timpul și efortul pentru a-și construi și a-și antrena propria IA, dar în multe cazuri pot alege un program pre-instruit. modelul de fundație și doar folosiți-l sau reglați-l pentru a se potrivi mai bine cu cerințele lor.

„Cu modelele de fundație, cineva a făcut toată munca pentru tine. Au făcut 99 la sută din muncă și dacă pot face restul de 1 la sută, acum modelul este al meu”, a explicat el.

Nvidia, totuși, este, de asemenea, un furnizor cheie pentru rivalii HPE, în special pentru Dell, care la începutul acestui an și-a lansat propriile platforme pentru inferențele și personalizarea AI plus reglarea modelelor. Acestea folosesc, de asemenea, GPU-uri Nvidia și software-ul său AI Enterprise.

În ciuda toată atenția și investițiile acordate în acest moment instruirii modelelor AI, HPE consideră că inferența este cel mai important lucru, deoarece aceasta reprezintă în cele din urmă cea mai mare parte a ciclului de viață al unui model AI.

„Utilizarea inteligenței artificiale are loc atunci când sunteți gata să implementați aceste modele, iar asta se întâmplă pe partea de inferență”, a spus Neri ca răspuns la o întrebare. „Acesta poate fi în centrul de date, dar cred că o mare parte din inferențele vor fi pentru a ajuta la procesarea în timp real acolo unde se află datele, unde deciziile trebuie luate mai rapid.”

Această cerere potențială de infrastructură nouă pentru a sprijini inferența AI ar putea fi exact ceea ce are nevoie HPE, ca urmare a recentei Scădere cu 31% a veniturilor afacerii sale de calcul. Aceasta a urmat scăderilor veniturilor raportate pentru ultimele două trimestre.

„Afacerea de calcul nu va dispărea și probabil că va primi o nouă lovitură în braț din cauza inferențelor AI”, a spus Neri ca răspuns la o altă întrebare.

Ce se întâmplă dacă industria nu cumpără promisiunea AI?

Dar cu HPE care pariază mult pe AI, ce se întâmplă dacă nu se dovedește a fi punctul de inflexiune uriaș pe care mulți comentatori îl susțin?

Matt Harris, directorul general al HPE pentru Marea Britanie, Irlanda, Orientul Mijlociu și Africa, este ferm că va schimba fundamental modul în care operează afacerile.

„Cred că IA generativă în ChatGPT a adus AI în prim-planul conștiinței și al procesului de gândire al tuturor, dar nu cred că este exagerat. Cred că inteligența artificială se va infiltra în viețile noastre și a făcut-o deja, dacă te gândești la modul în care căutarea pe internet s-a îmbunătățit de-a lungul anilor sau la utilizarea chatbot-urilor care vorbesc cu tine pentru a rezolva întrebările sau problemele clienților, este deja destul de omniprezentă”, a spus Harris. ®

Timestamp-ul:

Mai mult de la Registrul