Hvis du ikke allerede vidste det

Hvis du ikke allerede vidste det

Kildeknude: 2969387

Deep Reinforcement Learning-baseret anbefaling (DRR) Google
Anbefaling er afgørende i både den akademiske verden og industrien, og forskellige teknikker foreslås såsom indholdsbaseret kollaborativ filtrering, matrixfaktorisering, logistisk regression, faktoriseringsmaskiner, neurale netværk og flerarmede banditter. De fleste af de tidligere undersøgelser lider dog af to begrænsninger: (1) at betragte anbefalingen som en statisk procedure og ignorere den dynamiske interaktive karakter mellem brugere og anbefalingssystemer, (2) at fokusere på den umiddelbare feedback af anbefalede varer og negligere den lange - sigt belønninger. For at løse de to begrænsninger foreslår vi i dette papir en ny anbefalingsramme baseret på dyb forstærkningslæring, kaldet DRR. DRR-rammen behandler anbefaling som en sekventiel beslutningstagningsprocedure og vedtager et "Actor-Critic"-forstærkende læringsskema til at modellere interaktionerne mellem brugere og anbefalingssystemer, som kan tage hensyn til både den dynamiske tilpasning og langsigtede belønninger. Endvidere er et tilstandsrepræsentationsmodul indbygget i DRR, som eksplicit kan fange interaktionerne mellem elementer og brugere. Tre instansieringsstrukturer er udviklet. Omfattende eksperimenter på fire datasæt fra den virkelige verden udføres under både offline og online evalueringsindstillinger. De eksperimentelle resultater viser, at den foreslåede DRR-metode faktisk overgår de avancerede konkurrenter. …

Deep Learning Google
Deep learning er et sæt algoritmer inden for maskinlæring, der forsøger at modellere abstraktioner på højt niveau i data ved at bruge arkitekturer sammensat af flere ikke-lineære transformationer. Deep learning er en del af en bredere familie af maskinlæringsmetoder baseret på læringsrepræsentationer. En observation (f.eks. et billede) kan repræsenteres på mange måder (f.eks. en vektor af pixels), men nogle repræsentationer gør det lettere at lære opgaver af interesse (f.eks. er dette billedet af et menneskeligt ansigt?) fra eksempler, og forskning på dette område forsøger at definere, hvad der giver bedre repræsentationer, og hvordan man kan skabe modeller for at lære disse repræsentationer. Forskellige dybe læringsarkitekturer såsom dybe neurale netværk, konvolutionelle dybe neurale netværk og dybe trosnetværk er blevet anvendt på områder som computersyn, automatisk talegenkendelse, naturlig sprogbehandling og musik/lydsignalgenkendelse, hvor de har vist sig at producere tilstand. -of-the-art resultater på forskellige opgaver. …

Centraliseret koordineret læring (CCL) Google
På grund af den hurtige udvikling af deep neural network (DNN) teknikker og fremkomsten af ​​store ansigtsdatabaser har ansigtsgenkendelse opnået en stor succes i de seneste år. Under træningsprocessen for DNN vil ansigtstræk og klassifikationsvektorer, der skal læres, interagere med hinanden, mens fordelingen af ​​ansigtstræk i høj grad vil påvirke netværkets konvergensstatus og ansigtslighedsberegning i teststadiet. I dette arbejde formulerer vi i fællesskab indlæringen af ​​ansigtstræk og klassifikationsvektorer og foreslår en enkel, men effektiv centraliseret koordinatindlæring (CCL) metode, som tvinger funktionerne til at blive spredt spredt i koordinatrummet og samtidig sikre, at klassifikationsvektorerne ligger på en hypersfære. En adaptiv vinkelmargin er yderligere foreslået for at forbedre diskriminationsevnen for ansigtstræk. Omfattende eksperimenter udføres på seks ansigtsbenchmarks, inklusive dem, der har stor aldersforskel og hårde negative prøver. Vores CCL-model, der kun er trænet på det lille CASIA Webface-datasæt med 460 ansigtsbilleder fra omkring 10 forsøgspersoner, demonstrerer høj effektivitet og generalitet og viser konsekvent konkurrencedygtig ydeevne på tværs af alle seks benchmark-databaser. …

Fast-Node2Vec Google
Node2Vec er en state-of-the-art generel funktionsindlæringsmetode til netværksanalyse. Nuværende løsninger kan dog ikke køre Node2Vec på grafer i stor skala med milliarder af hjørner og kanter, som er almindelige i applikationer i den virkelige verden. Den eksisterende distribuerede Node2Vec på Spark pådrager sig betydelig plads og tid. Den løber tør for hukommelse, selv for mellemstore grafer med millioner af hjørner. Desuden tager den højst 30 kanter for hvert toppunkt i betragtning ved at generere tilfældige ture, hvilket forårsager dårlig resultatkvalitet. I dette papir foreslår vi Fast-Node2Vec, en familie af effektive Node2Vec random walk-algoritmer på en Pregel-lignende grafberegningsramme. Fast-Node2Vec beregner overgangssandsynligheder under tilfældige ture for at reducere forbrug af hukommelsesplads og beregningsoverhead for grafer i stor skala. Den Pregel-lignende ordning undgår plads og tid overhead af Sparks skrivebeskyttede RDD-strukturer og shuffle-operationer. Desuden foreslår vi en række optimeringsteknikker for yderligere at reducere beregningsoverhead for populære hjørner med store grader. Empirisk evaluering viser, at Fast-Node2Vec er i stand til at beregne Node2Vec på grafer med milliarder af hjørner og kanter på en mellemstor maskinklynge. Sammenlignet med Spark-Node2Vec opnår Fast-Node2Vec 7.7-122x speedups. …

Tidsstempel:

Mere fra AnalytiXon