Dacă nu știai deja

Dacă nu știai deja

Nodul sursă: 2969387

Recomandare bazată pe învățare prin consolidare profundă (DRR) google
Recomandarea este crucială atât în ​​mediul academic, cât și în industrie, și sunt propuse diverse tehnici, cum ar fi filtrarea colaborativă bazată pe conținut, factorizarea matricei, regresia logistică, mașinile de factorizare, rețelele neuronale și bandiții multi-armate. Cu toate acestea, majoritatea studiilor anterioare suferă de două limitări: (1) luarea în considerare a recomandării ca pe o procedură statică și ignorarea naturii interactive dinamice dintre utilizatori și sistemele de recomandare, (2) concentrarea pe feedback-ul imediat al articolelor recomandate și neglijarea duratei îndelungate. -recompense pe termen. Pentru a aborda cele două limitări, în această lucrare propunem un nou cadru de recomandare bazat pe învățare prin consolidare profundă, numit DRR. Cadrul DRR tratează recomandarea ca pe o procedură de luare a deciziilor secvențială și adoptă o schemă de învățare de întărire „Actor-Critic” pentru a modela interacțiunile dintre utilizatori și sistemele de recomandare, care poate lua în considerare atât adaptarea dinamică, cât și recompensele pe termen lung. În plus, un modul de reprezentare a stării este încorporat în DRR, care poate surprinde în mod explicit interacțiunile dintre articole și utilizatori. Sunt dezvoltate trei structuri de instanțiere. Experimente ample pe patru seturi de date din lumea reală sunt efectuate atât în ​​setările de evaluare offline, cât și online. Rezultatele experimentale demonstrează că metoda DRR propusă depășește într-adevăr concurenții de ultimă generație. …

Invatare profunda google
Învățarea profundă este un set de algoritmi în învățarea automată care încearcă să modeleze abstracții la nivel înalt în date utilizând arhitecturi compuse din multiple transformări neliniare. Învățarea profundă face parte dintr-o familie mai largă de metode de învățare automată bazate pe reprezentări ale învățării. O observație (de exemplu, o imagine) poate fi reprezentată în mai multe moduri (de exemplu, un vector de pixeli), dar unele reprezentări fac mai ușor de învățat sarcini de interes (de exemplu, aceasta este imaginea unei fețe umane?) din exemple, iar cercetarea în acest domeniu încearcă să definească ceea ce face reprezentări mai bune și cum să creeze modele pentru a învăța aceste reprezentări. Diverse arhitecturi de învățare profundă, cum ar fi rețelele neuronale profunde, rețelele neuronale profunde convoluționale și rețelele de credință profundă au fost aplicate în domenii precum viziunea computerizată, recunoașterea automată a vorbirii, procesarea limbajului natural și recunoașterea semnalului muzical/audio unde s-a demonstrat că produc stare. -rezultate de ultimă generație la diverse sarcini. …

Învățare centralizată a coordonatelor (CCL) google
Datorită dezvoltării rapide a tehnicilor rețelei neuronale profunde (DNN) și apariției bazelor de date pe fețe la scară largă, recunoașterea feței a obținut un mare succes în ultimii ani. În timpul procesului de instruire a DNN, trăsăturile feței și vectorii de clasificare care urmează să fie învățați vor interacționa între ele, în timp ce distribuția trăsăturilor feței va afecta în mare măsură starea de convergență a rețelei și calculul similarității feței în etapa de testare. În această lucrare, formulăm împreună învățarea trăsăturilor feței și a vectorilor de clasificare și propunem o metodă simplă, dar eficientă de învățare centralizată a coordonatelor (CCL), care impune ca caracteristicile să fie extinse dispersat în spațiul de coordonate, asigurând în același timp ca vectorii de clasificare să se afle pe o hipersferă. În plus, este propusă o marjă unghiulară adaptivă pentru a spori capacitatea de discriminare a trăsăturilor feței. Experimente ample sunt efectuate pe șase repere de față, inclusiv cele care au o diferență mare de vârstă și eșantioane negative dure. Antrenat doar pe setul de date CASIA Webface la scară mică, cu imagini ale feței de 460 de la aproximativ 10 subiecți, modelul nostru CCL demonstrează o eficiență ridicată și generalitate, arătând performanță competitivă constantă în toate cele șase baze de date de referință. …

Fast-Node2Vec google
Node2Vec este o metodă de învățare a caracteristicilor de uz general de ultimă generație pentru analiza rețelei. Cu toate acestea, soluțiile actuale nu pot rula Node2Vec pe grafice la scară mare cu miliarde de vârfuri și muchii, care sunt comune în aplicațiile din lumea reală. Node2Vec distribuit existent pe Spark implică o suprafață semnificativă de spațiu și timp. Epuizează memoria chiar și pentru graficele de dimensiuni medii cu milioane de vârfuri. Mai mult, ia în considerare cel mult 30 de muchii pentru fiecare vârf în generarea de mers aleatoriu, cauzând o calitate slabă a rezultatului. În această lucrare, propunem Fast-Node2Vec, o familie de algoritmi eficienți de mers aleatoriu Node2Vec pe un cadru de calcul grafic asemănător Pregel. Fast-Node2Vec calculează probabilitățile de tranziție în timpul plimbărilor aleatorii pentru a reduce consumul de spațiu de memorie și supraîncărcarea de calcul pentru graficele la scară mare. Schema asemănătoare Pregel evită suprasolicitarea de spațiu și timp a structurilor RDD doar în citire și a operațiunilor de amestecare ale Spark. În plus, propunem o serie de tehnici de optimizare pentru a reduce în continuare supraîncărcarea de calcul pentru vârfurile populare cu grade mari. Evaluarea empirică arată că Fast-Node2Vec este capabil să calculeze Node2Vec pe grafice cu miliarde de vârfuri și muchii pe un cluster de mașini de dimensiuni medii. În comparație cu Spark-Node2Vec, Fast-Node2Vec atinge viteze de 7.7–122x. …

Timestamp-ul:

Mai mult de la AnalytiXon