Če še niste vedeli

Če še niste vedeli

Izvorno vozlišče: 2969387

Priporočilo na podlagi globokega krepitvenega učenja (DRR) google
Priporočila so ključnega pomena tako v akademskih krogih kot v industriji, zato so predlagane različne tehnike, kot so sodelovalno filtriranje na podlagi vsebine, faktorizacija matrike, logistična regresija, stroji za faktorizacijo, nevronske mreže in večroki razbojniki. Vendar ima večina prejšnjih študij dve omejitvi: (1) upoštevanje priporočila kot statičnega postopka in ignoriranje dinamične interaktivne narave med uporabniki in sistemi priporočil, (2) osredotočanje na takojšnje povratne informacije o priporočenih elementih in zanemarjanje dolgega - terminske nagrade. Za obravnavo teh dveh omejitev v tem dokumentu predlagamo nov okvir priporočil, ki temelji na učenju z globoko okrepitvijo, imenovan DRR. Ogrodje DRR obravnava priporočilo kot postopek zaporednega odločanja in sprejme shemo za krepitev učenja 'Actor-Critic' za modeliranje interakcij med uporabniki in sistemi priporočil, ki lahko upoštevajo dinamično prilagajanje in dolgoročne nagrade. Poleg tega je v DRR vključen modul za predstavitev stanja, ki lahko eksplicitno zajame interakcije med predmeti in uporabniki. Razvite so tri instanciacijske strukture. Obsežni poskusi na štirih naborih podatkov iz resničnega sveta se izvajajo tako v nastavitvah ocenjevanja brez povezave kot v spletu. Eksperimentalni rezultati kažejo, da predlagana metoda DRR dejansko prekaša najsodobnejše konkurente. …

Globoko učenje google
Globoko učenje je niz algoritmov v strojnem učenju, ki poskuša modelirati visokonivojske abstrakcije v podatkih z uporabo arhitektur, sestavljenih iz več nelinearnih transformacij. Globoko učenje je del širše družine metod strojnega učenja, ki temeljijo na učnih predstavitvah. Opazovanje (npr. sliko) lahko predstavimo na več načinov (npr. vektor slikovnih pik), vendar nekatere predstavitve olajšajo učenje zanimivih nalog (npr. ali je to slika človeškega obraza?) iz primerov, in raziskave na tem področju poskušajo opredeliti, kaj naredi boljše predstavitve in kako ustvariti modele za učenje teh predstavitev. Različne arhitekture globokega učenja, kot so globoke nevronske mreže, konvolucijske globoke nevronske mreže in mreže globokih prepričanj, so bile uporabljene na področjih, kot so računalniški vid, samodejno prepoznavanje govora, obdelava naravnega jezika in prepoznavanje glasbenih/zvočnih signalov, kjer se je pokazalo, da ustvarjajo stanje -sodobne rezultate pri različnih nalogah. …

Centralizirano koordinatno učenje (CCL) google
Zaradi hitrega razvoja tehnik globokih nevronskih mrež (DNN) in pojava obsežnih baz podatkov o obrazih je prepoznavanje obrazov v zadnjih letih doseglo velik uspeh. Med postopkom usposabljanja DNN bodo značilnosti obraza in klasifikacijski vektorji, ki se jih je treba naučiti, medsebojno vplivali, medtem ko bo porazdelitev značilnosti obraza v veliki meri vplivala na stanje konvergence omrežja in računalništvo podobnosti obraza v testni fazi. V tem delu skupaj oblikujemo učenje značilnosti obraza in klasifikacijskih vektorjev ter predlagamo preprosto, a učinkovito metodo centraliziranega koordinatnega učenja (CCL), ki uveljavlja značilnosti, ki se razpršijo v koordinatnem prostoru, hkrati pa zagotavlja, da klasifikacijski vektorji ležijo na hipersfera. Nadalje je predlagan prilagodljivi kotni rob za izboljšanje zmožnosti razlikovanja obraznih potez. Izvajajo se obsežni poskusi na šestih merilih obrazov, vključno s tistimi, ki imajo veliko starostno razliko in trdno negativne vzorce. Naš model CCL, ki je bil usposobljen le na majhnem naboru podatkov CASIA Webface s 460K slikami obrazov približno 10K subjektov, izkazuje visoko učinkovitost in splošnost ter kaže dosledno konkurenčno zmogljivost v vseh šestih primerjalnih bazah podatkov. …

Fast-Node2Vec google
Node2Vec je najsodobnejša metoda učenja funkcij za splošno uporabo za analizo omrežja. Vendar trenutne rešitve ne morejo zagnati Node2Vec na obsežnih grafih z milijardami vozlišč in robov, ki so pogosti v aplikacijah v realnem svetu. Obstoječi porazdeljeni Node2Vec na Spark povzroča precejšnje prostorske in časovne stroške. Zmanjka pomnilnika celo za srednje velike grafe z milijoni vozlišč. Poleg tega pri ustvarjanju naključnih sprehodov upošteva največ 30 robov za vsako vozlišče, kar povzroča slabo kakovost rezultata. V tem prispevku predlagamo Fast-Node2Vec, družino učinkovitih algoritmov naključnega sprehajanja Node2Vec na Pregelovem grafičnem ogrodju za izračun. Fast-Node2Vec izračuna prehodne verjetnosti med naključnimi sprehodi, da zmanjša porabo pomnilniškega prostora in stroške računanja za velike grafe. Pregelu podobna shema se izogne ​​prostorskim in časovnim obremenitvam Sparkovih struktur RDD, ki so samo za branje, in operacij mešanja. Poleg tega predlagamo številne optimizacijske tehnike za nadaljnje zmanjšanje stroškov računanja za priljubljena vozlišča z velikimi stopnjami. Empirična ocena kaže, da je Fast-Node2Vec sposoben izračunati Node2Vec na grafih z milijardami vozlišč in robov v srednje veliki strojni gruči. V primerjavi s Spark-Node2Vec Fast-Node2Vec dosega 7.7–122x pospešitve. …

Časovni žig:

Več od AnalytiXon