Hvem co-piloter co-piloterne? Hvorfor AI har brug for cloud-understøttelse

Hvem co-piloter co-piloterne? Hvorfor AI har brug for cloud-understøttelse

Kildeknude: 2675068

Hvem co-piloter co-piloterne? Hvorfor AI har brug for cloud-understøttelse
I løbet af de sidste tolv måneder har vi set et stort antal nye AI-organisationer udvikle sig, der drager fordel af de seneste fremskridt inden for grundlæggende modeller, teknologi og efterspørgsel. Selvom kunstig intelligens ofte opfattes som en 'co-pilot' i stedet for en 'autopilot', er der stadig mange bemærkelsesværdige bedrifter, som den kan udrette sammenlignet med klassisk databehandling. Vi har for nylig set startups, der kan tilbyde præcist tekst-til-tegnsprog, flersproget transskription og automatisk talevideogenerering med realistiske avatarer, for blot at nævne nogle få.

Men ligesom alle nystartede virksomheder og scale-ups står disse nye organisationer over for mange udfordringer; nogle er specifikke for kunstig intelligens-industrien, og andre er fælles for alle vækstmærker. Men med det rette niveau af støtte kan stiftere blomstre og være med til at drive industrien – og menneskeheden – fremad.

Hvem co-piloter co-piloterne? Hvorfor AI har brug for cloud-understøttelse

Høj beregningskraft til træning af AI-modeller

En af de største udfordringer, som AI-organisationer står over for, er træningen. Træning af AI-modeller kræver en betydelig mængde regnekraft, hvilket kan være udfordrende for deep tech-virksomheder, der har tendens til at operere på en opex- i stedet for capex-basis. Deep learning algoritmer, såsom neurale netværk, kræver et stort antal iterationer og justeringer for at opnå optimale resultater. Dette kan være tidskrævende og dyrt uden adgang til højtydende computerressourcer. Desuden skal disse data opbevares et sted, og det kan være uoverkommeligt at købe direkte og dyrt at vedligeholde.

Fleksibilitet i ressourceallokering og omkostningsstyring

Ressourcekravene til træning og implementering af AI-modeller kan variere meget afhængigt af modellens kompleksitet og størrelsen af ​​datasættet. Som de fleste startups kan virksomhedens retning næsten ændre sig fra den ene dag til den anden, og det kan være udfordrende for både mennesker og teknologisk infrastruktur. Derfor er de fleste AI-startups som standard cloud-native for at hjælpe med at pivotere til ny hardware, når tingene begynder at bevæge sig i en anden retning.

Problemer med bagudkompatibilitet

AI-frameworks såsom TensorFlow og PyTorch bliver løbende opdateret og forbedret, men en række af disse framework-iterationer har ikke været bagudkompatible med tidligere versioner. Dette lægger et betydeligt pres på organisationer for at holde sig ajour med de nyeste rammer, eller de risikerer funktionalitetsproblemer eller endda nedetid. Selvom brugere ofte forventer, at startups har børnesygdomme, kan store mængder nedetid dramatisk udhule tilliden.

Med disse problemer i tankerne, hvordan har eksisterende, succesrige AI-startups overvundet deres udfordringer?

Hvem co-piloter co-piloterne? Hvorfor AI har brug for cloud-understøttelse

AI i praksis: OVHcloud styrker Customs Bridges væsentlige ting

Customs Bridge er en "deep tech"-startup, der bruger kunstig intelligens-algoritmer til at skabe en automatisk produktklassificeringsmotor, rettet mod europæiske importører. Virksomhedens mission er at skabe den mest pålidelige produktklassificeringsmotor til at tildele den korrekte toldkode til et produkt, hvis beskrivelse ikke er fuldt formaliseret.

Dog stod Customs Bridge over for betydelige udfordringer med at træne deres AI-modeller. De havde begrænset lokal infrastruktur, store databehandlingskrav og behovet for state-of-the-art AI-rammer. Deres eksisterende infrastruktur var ikke tilstrækkelig til at træne og implementere deres AI-modeller effektivt, og de stod over for vanskeligheder med at få adgang til og behandle store mængder data, der var nødvendige for at træne deres modeller.

For at overvinde disse udfordringer henvendte Customs Bridge sig til OVHclouds AI & Machine Learning-løsninger. Holdet implementerede OVHclouds modeltræningsløsning, AI Training, og brugte OVHcloud-instanser til at implementere modeller i produktionen og understøtte datastrømpipeline. Dette gjorde det muligt for Customs Bridge at behandle store mængder data, forbedre sine AI-modeller og forbedre dens overordnede produktivitet og effektivitet.

Customs Bridge var i stand til at udnytte OVHclouds ressourcer til dataforbedring og avanceret AI-modeltræning. De stolede på omkring 2.5 TB data til at træne deres første Transformers-modeller, og træning af Transformers på 250,000 linjer tog kun omkring 30 minutters regnetid takket være NVIDIA V100 GPU'erne leveret af OVHcloud. Dette var både hurtigt og billigt, og det gjorde det muligt for Customs Bridge at skalere sine datamængder uden at begrænse dens infrastruktur. Den cloud-baserede tilgang gav virksomheden en masse frihed til at eksperimentere, indtil de fandt den nødvendige volumen for at opnå den præcision, de ønskede.

Ud over forbedret fleksibilitet og skalerbarhed til AI-modeltræning, nød Customs Bridge også fordel af omkostningseffektiv og effektiv ressourceallokering, forenklet implementering og udrulning af AI-rammer og muligheden for at muliggøre innovation og eksperimenter for at opnå optimale resultater. Ved at udnytte OVHclouds AI & Machine Learning-løsninger var Customs Bridge i stand til at overvinde sine udfordringer og bygge en innovativ og effektiv produktklassificeringsmotor.

Løftende deep tech med specialiserede cloud-tjenester

Et af de første skridt for en voksende AI-startup er at forstå sit økosystem – og ikke kun i forhold til at forstå konkurrenterne. Der er mange organisationer, der tilbyder inkubatorer, acceleratorer og støtteordninger, der enten kan hjælpe direkte med mentor- og ledelsesassistance, eller i tilfældet med ovenstående eksempel, teknologisk infrastrukturstøtte.

Cloud-tjenester tilbyder fleksibel ressourceallokering og omkostningsstyring, så deep tech-virksomheder kan ændre deres ressourcer, når behovene ændrer sig. Denne tilpasningsevne garanterer, at virksomheder kun betaler for de ressourcer, de har brug for, hvilket gør det muligt for dem at allokere deres ressourcer mere effektivt og operere på et opex- i stedet for capex-basis.

Udvidelige lagringsløsninger er også en vigtig del af cloudservicemodellen. Med disse løsninger kan deep tech-virksomheder behandle og lagre store mængder data, så de kan træne deres AI-modeller. Disse løsninger er skabt til let at skalere, hvilket sikrer, at AI-virksomheder kan øge deres datamængder uden afbrydelse af servicen – i modsætning til fysisk lagring, hvor installation og administration af nye drev kan forårsage en række hovedpine.

At drive industrien fremad

Deep tech AI-virksomheder oplever mange af de samme problemer som startups på tværs af andre industrier, men også nogle unikke udfordringer. De enorme datasæt, der kræves for at træne AI-modeller, kommer for eksempel med et tilsvarende behov for høj-effekt computer- og lagringskapaciteter, som ofte er uden for rækkevidde for unge organisationer, der kører på startfinansiering.

Dette er grunden til, at mange AI-virksomheder som standard er cloud-native. Cloud tillader organisationer som disse at skalere lettere uden at betale på forhånd for infrastruktur, for ikke at nævne at drage fordel af administrerede løsninger, der fjerner behovet for daglig ledelse fra grundlæggere og deres teams. Startups skal dog være opmærksomme, når de opretter deres cloudservice-aftale og passe på at undgå både spiraldannelse og skjulte omkostninger; den forkerte opsætning eller den forkerte udbyder – f.eks. overpris for ind-/udgangsomkostninger – kan resultere i en teknologibyrde. Men med den rigtige partner, den rigtige løsning og en virkelig samarbejdstilgang, kan startups glemme de administrative detaljer og i stedet fokusere på deres hovedmission: at skabe en ny verden af ​​AI.



Tidsstempel:

Mere fra Datakonomi