Sistemele de recomandare sunt una dintre cele mai adoptate tehnologii de învățare automată (ML) în aplicațiile din lumea reală, de la rețelele sociale la platformele de comerț electronic. Utilizatorii multor sisteme online se bazează pe sisteme de recomandare pentru a face noi prietenii, pentru a descoperi muzică nouă conform listelor de muzică sugerate sau chiar pentru a lua decizii de cumpărare în comerțul electronic pe baza produselor recomandate. În rețelele sociale, un caz comun de utilizare este acela de a recomanda noi prieteni unui utilizator pe baza celorlalte conexiuni ale utilizatorilor. Utilizatorii cu prieteni comuni probabil se cunosc. Prin urmare, ar trebui să aibă un scor mai mare pentru un sistem de recomandare de propus dacă nu au fost încă conectați.
Rețelele sociale pot fi exprimate în mod natural într-un grafic, unde nodurile reprezintă oameni, iar conexiunile dintre oameni, cum ar fi prietenia sau colegii de muncă, sunt reprezentate prin margini. Următoarele ilustrează o astfel de rețea socială. Să ne imaginăm că avem o rețea socială cu membrii (noduri) Bill, Terry, Henry, Gary și Alistair. Relațiile lor sunt reprezentate de o legătură (margine), iar interesele fiecărei persoane, cum ar fi sportul, artele, jocurile și benzile desenate, sunt reprezentate de proprietățile nodului.
Obiectivul aici este de a prezice dacă există o potențială legătură lipsă între membri. De exemplu, ar trebui să recomandăm o legătură între Henry și Terry? Privind graficul, putem vedea că au doi prieteni comuni, Gary și Alistair. Prin urmare, există șanse mari ca Henry și Terry fie să se cunoască deja, fie să se cunoască în curând. Ce zici de Henry și Bill? Nu au prieteni comuni, dar au o conexiune slabă prin conexiunile prietenilor lor. În plus, ambii au interese similare în artă, benzi desenate și jocuri. Ar trebui să promovăm această legătură? Toate aceste întrebări și intuiții sunt logica de bază a sistemelor de recomandare a rețelelor sociale.
O modalitate posibilă de a face acest lucru este recomandarea de relații bazate pe explorarea graficului. În limbaje de interogare grafice, cum ar fi Apache TinkerPop Gremlin, implementarea unor seturi de reguli, cum ar fi numărarea prietenilor comuni, este relativ ușoară și poate fi folosită pentru a determina legătura dintre Henry și Terry. Cu toate acestea, aceste seturi de reguli vor fi foarte complicate atunci când dorim să luăm în considerare alte atribute, cum ar fi proprietățile nodului, puterea conexiunii, etc. Să ne imaginăm un set de reguli pentru a determina legătura dintre Henry și Bill. Acest set de reguli trebuie să țină seama de interesele lor comune și de conexiunile lor slabe prin anumite căi din grafic. Pentru a crește robustețea, ar putea fi necesar să adăugăm și un factor de distanță pentru a favoriza conexiunile puternice și a le penaliza pe cele slabe. În mod similar, am dori un factor care să favorizeze interesele comune. În curând, seturile de reguli care pot dezvălui tipare complexe ascunse vor deveni imposibil de enumerat.
Tehnologia ML ne permite să descoperim tipare ascunse prin învățarea algoritmilor. Un exemplu este XGBoost, care este utilizat pe scară largă pentru sarcini de clasificare sau regresie. Cu toate acestea, algoritmi precum XGBoost folosesc o abordare ML convențională bazată pe un format de date tabelar. Aceste abordări nu sunt optimizate pentru structurile de date grafice și necesită o inginerie complexă a caracteristicilor pentru a face față acestor modele de date.
În exemplul precedent al rețelei sociale, informațiile despre interacțiunea graficului sunt esențiale pentru îmbunătățirea acurateței recomandărilor. Graph Neural Network (GNN) este un cadru de învățare profundă (DL) care poate fi aplicat datelor din grafic pentru a efectua sarcini de predicție la nivel de margine, la nivel de nod sau la nivel de grafic. GNN-urile pot folosi caracteristicile individuale ale nodurilor, precum și informațiile despre structura graficului atunci când învață reprezentarea graficului și modelele subiacente. Prin urmare, în ultimii ani, metodele bazate pe GNN au stabilit noi standarde pentru multe benchmark-uri ale sistemului de recomandare. Vedeți informații mai detaliate în lucrările de cercetare recente: Un studiu cuprinzător asupra rețelelor neuronale grafice și Sisteme de recomandare bazate pe învățarea grafică: o revizuire.
Următorul este un exemplu faimos al unui astfel de caz de utilizare. Cercetătorii și inginerii de la Pinterest s-au pregătit Rețele neuronale convoluționale grafice pentru sistemele de recomandare la scară web, numit PinSage, cu trei miliarde de noduri reprezentând pini și plăci și 18 miliarde de margini. PinSage generează încorporare de înaltă calitate care reprezintă pini (marcaje vizuale pentru conținutul online). Acestea pot fi utilizate pentru o gamă largă de sarcini de recomandare în aval, cum ar fi căutări ale celui mai apropiat vecin în spațiul de încorporare învățat pentru descoperirea de conținut și recomandări.
În această postare, vă vom prezenta cum să utilizați GNN-urile pentru cazuri de utilizare de recomandare, prezentând aceasta ca o problemă de predicție a link-urilor. Vom ilustra, de asemenea, modul în care Neptune ML poate facilita implementarea. De asemenea, vom oferi exemplu de cod pe GitHub pentru a vă instrui primul GNN cu Neptune ML și pentru a face inferențe de recomandare pe graficul demonstrativ prin sarcini de predicție a linkurilor.
Link predicție cu Graph Neural Networks
Luând în considerare exemplul anterior al rețelei sociale, am dori să-i recomandăm noi prieteni lui Henry. Atât Terry, cât și Bill ar fi candidați buni. Terry are mai mulți prieteni comuni (Gary, Alistair) cu Henry, dar nu are interese comune. În timp ce Bill împărtășește interese comune (arte, benzi desenate, jocuri) cu Henry, dar nu are prieteni comuni. Care ar fi o recomandare mai bună? Când este încadrată ca o problemă de predicție a legăturii, sarcina este de a atribui un scor oricărei posibile legături între cele două noduri. Cu cât scorul link-ului este mai mare, cu atât este mai probabil ca această recomandare să converge. Învățând structurile de legături deja prezente în grafic, un model de predicție de legături poate generaliza noi predicții de legături care „completează” graficul.
Parametrii funcției f
care prezice scorul de legătură este învățat în timpul fazei de antrenament. Din moment ce funcţia f
face o predicție pentru oricare două noduri din grafic, vectorii caracteristici asociați cu nodurile sunt esențiali pentru procesul de învățare. Pentru a prezice scorul de legătură dintre Henry și Bill, avem un set de caracteristici de date brute (arte, benzi desenate, jocuri) care îi pot reprezenta pe Henry și Bill. Transformăm acest lucru, împreună cu conexiunile din grafic, folosind o rețea GNN pentru a forma noi reprezentări cunoscute sub numele de înglobare de noduri. De asemenea, putem completa sau înlocui caracteristicile brute inițiale cu vectori dintr-un tabel de căutare încorporat care pot fi învățați în timpul procesului de antrenament. În mod ideal, caracteristicile încorporate pentru Henry și Bill ar trebui să reprezinte interesele lor, precum și informațiile lor topologice din grafic.
Cum funcționează GNN-urile
Un GNN transformă caracteristicile inițiale ale nodului în înglobări de noduri folosind o tehnică numită trecerea mesajului. Procesul de transmitere a mesajului este ilustrat în figura următoare. La început, atributele sau caracteristicile nodului sunt convertite în atribute numerice. În cazul nostru, facem codificare one-hot a caracteristicilor categoriale (interesele lui Henry: arte, benzi desenate, jocuri). Apoi, primul strat de GNN agregează toate caracteristicile brute ale vecinilor (Gary și Alistair) (în negru) pentru a forma un nou set de caracteristici (în galben). O abordare comună este transformarea liniară a tuturor caracteristicilor învecinate, apoi agregarea lor printr-o sumă normalizată și trecerea rezultatelor într-o funcție de activare neliniară, cum ar fi ReLU, pentru a genera un nou set de vectori. Figura următoare ilustrează cum funcționează transmiterea mesajelor pentru nod Henry. H, algoritmul de transmitere a mesajelor GNN, va calcula reprezentări pentru toate nodurile graficului. Acestea sunt utilizate ulterior ca caracteristici de intrare pentru al doilea strat.
Al doilea strat al unui GNN repetă același proces. Preia caracteristica calculată anterior (în galben) din primul strat ca intrare, agregează toate noile caracteristici încorporate ale vecinilor lui Gary și Alistair și generează vectori de caracteristici din al doilea strat pentru Henry (în portocaliu). După cum puteți vedea, prin repetarea mecanismului de transmitere a mesajelor, am extins agregarea caracteristicilor la vecinii cu 2 hop. În ilustrația noastră, ne limităm la vecini cu 2 hop, dar extinderea în vecini cu 3 hop se poate face în același mod prin adăugarea unui alt strat GNN.
Înglobările finale de la Henry și Bill (în portocaliu) sunt folosite pentru calcularea scorului. În timpul procesului de antrenament, scorul de legătură este definit ca 1 când marginea există între cele două noduri (eșantion pozitiv) și ca 0 când marginile dintre cele două noduri nu există (eșantion negativ). Apoi, eroarea sau pierderea dintre scorul real și predicție f(e1,e2)
este răspândit în straturi anterioare pentru a ajusta greutățile. Odată ce antrenamentul este terminat, ne putem baza pe vectorii caracteristici încorporați pentru fiecare nod pentru a calcula scorurile legăturilor cu funcția noastră. f
.
În acest exemplu, am simplificat sarcina de învățare pe a grafic omogen, unde toate nodurile și marginile sunt de același tip. De exemplu, toate nodurile din grafic sunt de tipul „Oameni”, iar toate marginile sunt de tipul „prieteni cu”. Cu toate acestea, algoritmul de învățare acceptă și grafice eterogene cu diferite tipuri de noduri și muchii. Putem extinde cazul de utilizare anterior pentru a recomanda produse diferiților utilizatori care împărtășesc interacțiuni și interese similare. Vedeți mai multe detalii în această lucrare de cercetare: Modelarea datelor relaționale cu rețele grafice convoluționale.
La AWS re:Invent 2020, am prezentat Amazon Neptune ML, care le permite clienților noștri să antreneze modele ML pe date grafice, fără a avea neapărat o experiență profundă în ML. În acest exemplu, cu ajutorul Neptune ML, vă vom arăta cum să vă construiți propriul sistem de recomandare pe date grafice.
Antrenați-vă rețeaua de convoluție grafică cu Amazon Neptune ML
Neptune ML folosește tehnologia rețelei neuronale grafice pentru a crea, antrena și implementa automat modele ML pe datele grafice. Neptune ML acceptă sarcini obișnuite de predicție grafică, cum ar fi clasificarea și regresia nodurilor, clasificarea și regresia marginilor și predicția legăturilor.
Este alimentat de:
- Amazon Neptun: o bază de date de grafice rapidă, fiabilă și gestionată complet, care este optimizată pentru stocarea de miliarde de relații și interogarea graficului cu o latență de milisecunde. Amazon Neptune acceptă trei standarde deschise pentru construirea de aplicații grafice: Apache TinkerPop Gremlin, RDF SPARQL și openCypher. Aflați mai multe la Prezentare generală a caracteristicilor Amazon Neptune.
- Amazon SageMaker: un serviciu complet gestionat care oferă fiecărui dezvoltator și cercetător de date abilitatea de a pregăti rapid construirea, antrenamentul și implementarea modelelor ML.
- Biblioteca Deep Graph (DGL): an open-source, pachet Python de înaltă performanță și scalabil pentru DL pe grafice. Oferă primitive de transmitere a mesajelor rapide și eficiente din punct de vedere al memoriei pentru antrenarea rețelelor neuronale grafice. Neptune ML folosește DGL pentru a alege și a antrena automat cel mai bun model ML pentru volumul dvs. de lucru. Acest lucru vă permite să faceți predicții bazate pe ML asupra datelor din grafic în ore în loc de săptămâni.
Cel mai simplu mod de a începe să utilizați Neptune ML este să utilizați Șablon de pornire rapidă AWS CloudFormation. Șablonul instalează toate componentele necesare, inclusiv un cluster Neptune DB și setează configurațiile de rețea, rolurile IAM și instanța de notebook SageMaker asociată cu mostre de notebook pre-populate pentru Neptune ML.
Următoarea figură ilustrează diferiți pași pentru Neptune ML pentru a antrena un sistem de recomandare bazat pe GNN. Să mărim fiecare pas și să explorăm ce implică acesta:
-
Configurarea exportului de date
Primul pas în procesul nostru Neptune ML este să exportăm datele graficului din clusterul Neptune. Trebuie să specificăm parametrii și configurația modelului pentru sarcina de export de date. Folosim bancul de lucru Neptune pentru toate configurațiile și felicitări. Bancul de lucru ne permite să lucrăm cu clusterul Neptune DB utilizând notebook-uri Jupyter găzduite de Amazon SageMaker. În plus, oferă o serie de comenzi magice în notebook-uri care economisesc mult timp și efort. Iată exemplul nostru de parametri de export:
In export_params
, trebuie să configuram configurația de bază, cum ar fi cluster-ul Neptune și ieșirea Serviciul de stocare simplu Amazon (S3) calea pentru stocarea datelor exportate. Configurația specificată în additionalParams
este tipul de sarcină ML de efectuat. În acest exemplu, predicția legăturii este utilizată opțional pentru a prezice un anumit tip de margine (Utilizator—PRIETEN—Utilizator). Dacă nu este specificat niciun tip de țintă, atunci Neptune ML va presupune că sarcina este Link Prediction. Parametrii specifică, de asemenea, detalii despre datele stocate în graficul nostru și modul în care modelul ML va interpreta acele date (avem „Utilizator” ca nod și „interese” ca proprietate a nodului).
Pentru a rula fiecare pas din procesul de construire ML, pur și simplu utilizați comenzile Neptune workbench. The Bancul de lucru Neptune conține o magie de linie și o magie de celule care vă pot economisi mult timp gestionând acești pași. Pentru a rula exportul de date, utilizați comanda Neptune workbench: %neptune_ml export start
Odată ce sarcina de export este finalizată, graficul Neptune va fi exportat în format CSV și stocat într-o găleată S3. Vor exista două tipuri de fișiere: nodes.csv
și edges.csv
. Un fișier numit training-data-configuration.json
va fi generat și care are configurația necesară pentru ca Neptune ML să efectueze antrenamentul modelului.
Vedea Exportați date din Neptune pentru Neptune ML pentru mai multe informatii.
-
Preprocesare de date
Neptune ML efectuează extragerea și codificarea caracteristicilor ca parte a pașilor de prelucrare a datelor. Tipurile obișnuite de preprocesare a proprietăților includ: codificarea caracteristicilor categorice prin codificare one-hot, găzduirea caracteristicilor numerice sau utilizarea word2vec pentru a codifica o proprietate șir sau alte valori de proprietate de text în formă liberă.
În exemplul nostru, vom folosi pur și simplu proprietatea „interese”. Neptune ML codifică valorile ca fiind multicategorice. Cu toate acestea, dacă o valoare categorică este complexă (mai mult de trei cuvinte pe nod), atunci Neptune ML deduce că tipul de proprietate este text și utilizează codificarea text_word2vec.
Pentru a rula preprocesarea datelor, utilizați următoarea comandă magică pentru notebook Neptune: %neptune_ml dataprocessing start
La sfârșitul acestui pas, un grafic DGL este generat din setul de date exportat pentru a fi utilizat de pasul de antrenament al modelului. Neptune ML reglează automat modelul cu sarcinile de optimizare a hiperparametrilor definite în training-data-configuration.json
. Putem descărca și modifica acest fișier pentru a regla hiperparametrii modelului, cum ar fi dimensiunea lotului, num-hidden, num-epochs, dropout, etc. Iată un exemplu de fișier configuration.json.
Vedea Procesarea datelor grafice exportate din Neptune pentru antrenament pentru mai multe informatii.
-
Antrenamentul modelului
Următorul pas este antrenamentul automatizat al modelului GNN. Antrenamentul modelului se face în două etape. Prima etapă utilizează un job de procesare SageMaker pentru a genera o strategie de formare model. Acesta este un set de configurații care specifică ce tip de model și intervale de hiperparametri model vor fi utilizate pentru antrenamentul modelului.
Apoi, va fi lansată o lucrare de reglare a hiperparametrului SageMaker. The SageMaker Hyperparameter Tuning Optimization job rulează un număr prestabilit de încercări de pregătire a modelului pe datele procesate, încearcă diferite combinații de hiperparametri în funcție de model-hpo-configuration.json
fișier și stochează artefactele modelului generate de antrenament în locația Amazon S3 de ieșire.
Pentru a începe pasul de antrenament, puteți utiliza %neptune_ml training start
comanda.
Odată ce toate lucrările de antrenament sunt finalizate, sarcina de ajustare a hiperparametrului va salva artefactele de la modelul cu cele mai bune performanțe, care va fi folosit pentru inferență.
La sfârșitul instruirii, Neptune ML va instrui SageMaker să salveze modelul antrenat, înglobările brute calculate pentru noduri și margini și informațiile de mapare dintre înglobări și indici de noduri.
Vedea Antrenarea unui model folosind Neptune ML pentru mai multe informatii.
-
Creați un punct final de inferență în Amazon SageMaker
Acum că reprezentarea grafică este învățată, putem implementa modelul învățat în spatele unui punct final pentru a efectua cereri de inferență. Intrarea modelului va fi Utilizatorul pentru care trebuie să generăm recomandările prietenilor, împreună cu tipul de margine, iar rezultatul va fi lista cu prietenii probabili recomandați pentru acel utilizator.
Pentru a implementa modelul în instanța punctului final SageMaker, utilizați %neptune_ml endpoint create
comanda.
-
Interogați modelul ML folosind Gremlin
Odată ce punctul final este gata, îl putem folosi pentru interogări de inferență grafică. Neptune ML acceptă interogări de inferență grafică în Gremlin sau SPARQL. În exemplul nostru, acum putem verifica recomandarea prietenilor cu Neptune ML pe utilizatorul „Henry”. Este nevoie de aproape aceeași sintaxă pentru a traversa marginea și listează ceilalți utilizatori care sunt conectați la Henry prin conexiunea FRIEND.
Neptune#ml.prediction
returnează conexiunea determinată de predicțiile Neptune ML folosind modelul pe care tocmai l-am antrenat pe graficul social. Bill este returnat exact așa cum ne așteptam.
Iată un alt exemplu de interogare de predicție care este utilizat pentru a prezice primii opt utilizatori care au cel mai mare șans să se conecteze cu Henry:
Rezultatele sunt clasificate de la o conexiune mai puternică la o conexiune mai slabă Henry — FRIEND — Colin and Henry — FRIEND — Terry
este de asemenea propus. Această propunere este prin ML bazată pe grafice, unde pot fi explorate modele complexe de interacțiune pe grafic.
Vedea Interogări de inferență Gremlin în Neptune ML pentru mai multe informatii.
Transformarea modelului sau reantrenarea atunci când datele din grafic se modifică
O altă întrebare pe care ați putea să o puneți este: ce se întâmplă dacă rețeaua mea de socializare se schimbă sau dacă vreau să fac recomandări pentru utilizatorii nou adăugați? În aceste scenarii, în care aveți grafice în continuă schimbare, poate fi necesar să actualizați predicțiile ML cu cele mai noi date din grafic. Artefactele modelului generate după antrenament sunt direct legate de graficul de antrenament. Aceasta înseamnă că punctul final de inferență trebuie actualizat odată ce entitățile din graficul de antrenament original se modifică.
Cu toate acestea, nu trebuie să reantrenați întregul model pentru a face predicții pe graficul actualizat. Cu un flux de lucru de inferență de model incremental, trebuie doar să exportați datele Neptune DB, să efectuați o preprocesare incrementală a datelor, să rulați o sarcină de transformare în lot a modelului și apoi să actualizați punctul final de inferență. Etapa de transformare a modelului preia modelul antrenat din fluxul de lucru principal și rezultatele pasului de preprocesare incrementală a datelor ca intrări. Apoi emite un nou artefact model de utilizat pentru inferență. Acest nou artefact model este creat din datele grafice actualizate.
Un accent special aici este pentru comanda model-transform step. Poate calcula artefacte de model pe date grafice care nu au fost utilizate pentru antrenamentul modelului. Înglobările de noduri sunt recalculate și orice înglobare de noduri existente sunt suprascrise. Neptune ML aplică codificatorul GNN învățat din modelul antrenat anterior noilor noduri de date grafice cu noile lor caracteristici. Prin urmare, noile date grafice trebuie procesate folosind aceleași codificări de caracteristici și trebuie să adere la aceeași schemă grafică ca și datele grafice originale. Vedeți mai multe detalii despre implementarea Neptune ML la Generarea de noi artefacte model.
Mai mult, puteți reantrenați întregul model dacă graficul se schimbă dramatic sau dacă modelul antrenat anterior nu mai poate reprezenta cu exactitate interacțiunile de bază. În acest caz, reutilizarea parametrilor modelului învățați pe un nou grafic nu poate garanta o performanță similară a modelului. Trebuie să vă reanalizați modelul pe noul grafic. Pentru a accelera căutarea hiperparametrilor, Neptune ML poate valorifica informațiile din sarcina anterioară de antrenament a modelului cu start cald: rezultatele joburilor anterioare de antrenament sunt folosite pentru a selecta combinații bune de hiperparametri pentru a căuta în noul job de reglare.
Vedea fluxuri de lucru pentru manipularea datelor grafice în evoluție pentru mai multe detalii.
Concluzie
În această postare, ați văzut cum Neptune ML și GNN-urile vă pot ajuta să faceți recomandări cu privire la datele graficului folosind o sarcină de predicție a legăturii, combinând informații din modelele complexe de interacțiune din grafic.
Predicția legăturilor este o modalitate de implementare a unui sistem de recomandare pe grafic. Vă puteți construi recomandatorul în multe alte moduri. Puteți utiliza înglobările învățate în timpul antrenamentului de predicție a legăturilor pentru a grupa nodurile în diferite segmente într-o manieră nesupravegheată și pentru a recomanda articole celui care aparține aceluiași segment. În plus, puteți obține înglobările și le puteți introduce într-un sistem de recomandare bazat pe similitudine din aval ca caracteristică de intrare. Acum această caracteristică suplimentară de intrare codifică și informațiile semantice derivate din grafic și poate oferi îmbunătățiri semnificative preciziei generale a sistemului. Aflați mai multe despre Amazon Neptune ML vizitând sau nu ezitați să puneți întrebări în comentarii!
Despre Autori
Yanwei Cui, PhD, este arhitect de soluții specializat în învățare automată la AWS. A început cercetarea învățării automate la IRISA (Institutul de Cercetare în Știința Calculatoarelor și Sisteme Aleatoare) și are câțiva ani de experiență în construirea de aplicații industriale bazate pe inteligență artificială în viziunea computerizată, procesarea limbajului natural și predicția comportamentului utilizatorilor online. La AWS, el împărtășește expertiza domeniului și ajută clienții să deblocheze potențialul de afaceri și să genereze rezultate acționabile cu învățarea automată la scară. În afara serviciului, îi place să citească și să călătorească.
Will Badr este un specialist principal AI/ML SA care lucrează ca parte a echipei globale Amazon Machine Learning. Will este pasionat de utilizarea tehnologiei în moduri inovatoare pentru a avea un impact pozitiv asupra comunității. În timpul liber, îi place să facă scufundări, să joace fotbal și să exploreze Insulele Pacificului.
- '
- "
- 100
- 2020
- 7
- Despre Noi
- Conform
- Cont
- plus
- Suplimentar
- Algoritmul
- algoritmi
- TOATE
- deja
- Amazon
- Învățare automată Amazon
- Amazon SageMaker
- Apache
- aplicatii
- artificial
- inteligență artificială
- Arte
- Automata
- AWS
- AWS re: Inventează
- Început
- CEL MAI BUN
- Proiect de lege
- Miliard
- Negru
- construi
- Clădire
- afaceri
- cazuri
- provocări
- clasificare
- cod
- Comun
- comunitate
- complex
- Calcula
- Informatică
- Computer Vision
- tehnica de calcul
- Configuraţie
- conexiune
- Conexiuni
- Consoleze
- conţinut
- converg
- ar putea
- clienţii care
- de date
- om de știință de date
- stocare a datelor
- Baza de date
- afacere
- învățare profundă
- Dezvoltator
- diferit
- descoperire
- distanţă
- E-commerce
- Margine
- Punct final
- Inginerie
- inginerii
- etc
- exemplu
- experienţă
- explorare
- exporturile
- extracţie
- FAST
- Caracteristică
- DESCRIERE
- Figura
- First
- Concentra
- formă
- format
- Cadru
- Gratuit
- Prietenie
- funcţie
- Jocuri
- genera
- Caritate
- bine
- grafic rețele neuronale
- mare
- Manipularea
- ajutor
- ajută
- aici
- Cum
- Cum Pentru a
- HTTPS
- IAM
- Impactul
- Punere în aplicare a
- îmbunătățirea
- Inclusiv
- Crește
- individ
- industrial
- informații
- inovatoare
- Inteligență
- interacţiune
- interese
- IT
- Loc de munca
- Locuri de munca
- limbă
- Limbă
- AFLAȚI
- învățat
- învăţare
- Pârghie
- Bibliotecă
- Linie
- LINK
- Listă
- liste
- locaţie
- cautati
- căutare
- masina de învățare
- Membri actuali
- milisecundă
- ML
- model
- Muzică
- Limbajul natural
- Procesarea limbajului natural
- necesar
- vecini
- reţea
- rețele
- neural
- rețele neuronale
- rețele neuronale
- Funcții noi
- noduri
- notebook-uri
- on-line
- deschide
- Altele
- Pacific
- Hârtie
- oameni
- performanță
- fază
- Platforme
- Joaca
- Precizie
- prezicere
- Predictii
- prezenta
- Principal
- Problemă
- proces
- Produse
- Profil
- promova
- proprietate
- propune
- furniza
- furnizează
- cumpărare
- Piton
- întrebare
- gamă
- Crud
- date neprelucrate
- RE
- Citind
- regres
- Relaţii
- înlocui
- cercetare
- REZULTATE
- reconversie profesională
- Returnează
- Alerga
- sagemaker
- Scară
- Ştiinţă
- Caută
- set
- Distribuie
- Acțiuni
- asemănător
- simplu
- mic
- Fotbal
- Social
- grafic social
- reţea socială
- reţele sociale
- soluţii
- Spaţiu
- Sportul
- Etapă
- standarde
- Începe
- început
- depozitare
- magazine
- Strategie
- completa
- Sprijină
- Sondaj de opinie
- sistem
- sisteme
- Ţintă
- Tehnologii
- Tehnologia
- Graficul
- Prin
- timp
- top
- Pregătire
- Transforma
- Transformare
- Actualizează
- us
- utilizatorii
- valoare
- viziune
- Ce
- OMS
- pe larg
- Wikipedia
- fără
- cuvinte
- Apartamente
- flux de lucru
- fabrică
- ar
- ani
- zoom