Om du inte redan visste det

Om du inte redan visste det

Källnod: 2969387

Deep Reinforcement Learning based Recommendation (DRR) google
Rekommendation är avgörande i både akademi och industri, och olika tekniker föreslås såsom innehållsbaserad kollaborativ filtrering, matrisfaktorisering, logistisk regression, faktoriseringsmaskiner, neurala nätverk och flerarmade banditer. De flesta av de tidigare studierna lider dock av två begränsningar: (1) betrakta rekommendationen som en statisk procedur och ignorera den dynamiska interaktiva karaktären mellan användare och rekommendatorsystemen, (2) fokusera på omedelbar återkoppling av rekommenderade artiklar och försumma den långa -terminsbelöningar. För att ta itu med de två begränsningarna föreslår vi i detta dokument ett nytt rekommendationsramverk baserat på djup förstärkningsinlärning, kallad DRR. DRR-ramverket behandlar rekommendationer som en sekventiell beslutsprocess och antar ett "Actor-Critic"-förstärkningsinlärningsschema för att modellera interaktionerna mellan användarna och rekommendatorsystemen, som kan ta hänsyn till både dynamisk anpassning och långsiktiga belöningar. Dessutom är en tillståndsrepresentationsmodul inbyggd i DRR, som explicit kan fånga interaktionerna mellan objekt och användare. Tre instansieringsstrukturer utvecklas. Omfattande experiment på fyra datauppsättningar från verkliga världen utförs under både offline- och onlineutvärderingsinställningarna. De experimentella resultaten visar att den föreslagna DRR-metoden verkligen överträffar de senaste konkurrenterna. …

Deep Learning google
Deep learning är en uppsättning algoritmer inom maskininlärning som försöker modellera abstraktioner på hög nivå i data genom att använda arkitekturer som består av flera icke-linjära transformationer. Deep learning är en del av en bredare familj av maskininlärningsmetoder baserade på inlärningsrepresentationer. En observation (t.ex. en bild) kan representeras på många sätt (t.ex. en vektor av pixlar), men vissa representationer gör det lättare att lära sig uppgifter av intresse (t.ex. är detta bilden av ett mänskligt ansikte?) från exempel, och forskning inom detta område försöker definiera vad som gör bättre representationer och hur man skapar modeller för att lära sig dessa representationer. Olika arkitekturer för djupinlärning som djupa neurala nätverk, konvolutionella djupa neurala nätverk och djupa trosnätverk har tillämpats på områden som datorseende, automatisk taligenkänning, naturligt språkbehandling och musik/ljudsignaligenkänning där de har visat sig producera tillstånd toppmoderna resultat på olika uppgifter. …

Centralized Coordinate Learning (CCL) google
Tack vare den snabba utvecklingen av tekniker för djupa neurala nätverk (DNN) och framväxten av storskaliga ansiktsdatabaser har ansiktsigenkänning nått en stor framgång de senaste åren. Under utbildningsprocessen för DNN kommer ansiktsegenskaperna och klassificeringsvektorerna som ska läras att interagera med varandra, medan fördelningen av ansiktsegenskaper till stor del kommer att påverka nätverkets konvergensstatus och ansiktslikhetsberäkningen i testskedet. I detta arbete formulerar vi gemensamt inlärningen av ansiktsdrag och klassificeringsvektorer, och föreslår en enkel men effektiv centraliserad koordinatinlärningsmetod (CCL), som tvingar fram funktionerna att spridas spridda i koordinatutrymmet samtidigt som vi säkerställer att klassificeringsvektorerna ligger på en hypersfär. En adaptiv vinkelmarginal föreslås vidare för att förbättra särskiljningsförmågan hos ansiktsdetaljer. Omfattande experiment utförs på sex benchmarks, inklusive de som har stora åldersskillnader och svåra negativa prover. Utbildad endast på den småskaliga CASIA Webface-datauppsättningen med 460 10 ansiktsbilder från cirka XNUMX XNUMX försökspersoner, visar vår CCL-modell hög effektivitet och allmänhet, och visar konsekvent konkurrenskraftig prestanda i alla sex benchmarkdatabaser. …

Fast-Node2Vec google
Node2Vec är en toppmodern funktionsinlärningsmetod för allmänna ändamål för nätverksanalys. Men nuvarande lösningar kan inte köra Node2Vec på storskaliga grafer med miljarder hörn och kanter, vilket är vanligt i verkliga applikationer. Den befintliga distribuerade Node2Vec på Spark ådrar sig betydande utrymme och tid. Det tar slut på minne även för medelstora grafer med miljontals hörn. Dessutom tar den hänsyn till högst 30 kanter för varje vertex för att generera slumpmässiga promenader, vilket orsakar dålig resultatkvalitet. I den här artikeln föreslår vi Fast-Node2Vec, en familj av effektiva Node2Vec-algoritmer för slumpmässig gång på ett Pregel-liknande grafberäkningsramverk. Fast-Node2Vec beräknar övergångssannolikheter under slumpmässiga vandringar för att minska minnesutrymmesförbrukningen och beräkningsoverhead för storskaliga grafer. Det Pregel-liknande schemat undviker utrymme och tid för Sparks skrivskyddade RDD-strukturer och shuffle-operationer. Dessutom föreslår vi ett antal optimeringstekniker för att ytterligare minska beräkningsoverheaden för populära hörn med stora grader. Empirisk utvärdering visar att Fast-Node2Vec kan beräkna Node2Vec på grafer med miljarder hörn och kanter på ett medelstort maskinkluster. Jämfört med Spark-Node2Vec uppnår Fast-Node2Vec 7.7–122x hastigheter. …

Tidsstämpel:

Mer från AnalytiXon