Hvis du ikke allerede visste det

Hvis du ikke allerede visste det

Kilde node: 2969387

Deep Reinforcement Learning-basert anbefaling (DRR) google
Anbefaling er avgjørende i både akademia og industri, og ulike teknikker er foreslått som innholdsbasert samarbeidsfiltrering, matrisefaktorisering, logistisk regresjon, faktoriseringsmaskiner, nevrale nettverk og flerarmede banditter. Imidlertid lider de fleste av de tidligere studiene av to begrensninger: (1) vurderer anbefalingen som en statisk prosedyre og ignorerer den dynamiske interaktive naturen mellom brukere og anbefalingssystemene, (2) fokuserer på umiddelbar tilbakemelding av anbefalte varer og neglisjerer den lange -tidsbelønninger. For å adressere de to begrensningene, foreslår vi i denne artikkelen et nytt anbefalingsrammeverk basert på dyp forsterkende læring, kalt DRR. DRR-rammeverket behandler anbefaling som en sekvensiell beslutningsprosess og vedtar en "Actor-Critic" forsterkende læringsplan for å modellere interaksjonene mellom brukerne og anbefalingssystemene, som kan vurdere både dynamisk tilpasning og langsiktige belønninger. Videre er en tilstandsrepresentasjonsmodul integrert i DRR, som eksplisitt kan fange opp interaksjonene mellom elementer og brukere. Tre instansieringsstrukturer er utviklet. Omfattende eksperimenter på fire datasett fra den virkelige verden utføres under både offline og online evalueringsinnstillinger. De eksperimentelle resultatene viser at den foreslåtte DRR-metoden faktisk overgår de toppmoderne konkurrentene. …

Dyp læring google
Deep learning er et sett med algoritmer innen maskinlæring som prøver å modellere høynivåabstraksjoner i data ved å bruke arkitekturer som består av flere ikke-lineære transformasjoner. Deep learning er en del av en bredere familie av maskinlæringsmetoder basert på læringsrepresentasjoner. En observasjon (f.eks. et bilde) kan representeres på mange måter (f.eks. en vektor av piksler), men noen representasjoner gjør det lettere å lære oppgaver av interesse (f.eks. er dette bildet av et menneskelig ansikt?) fra eksempler, og forskning på dette området prøver å definere hva som gir bedre representasjoner og hvordan man kan lage modeller for å lære disse representasjonene. Ulike dyplæringsarkitekturer som dype nevrale nettverk, konvolusjonelle dype nevrale nettverk og dype trosnettverk har blitt brukt på felt som datasyn, automatisk talegjenkjenning, naturlig språkbehandling og musikk/lydsignalgjenkjenning der de har vist seg å produsere tilstand. -of-the-art resultater på ulike oppgaver. …

Sentralisert koordinert læring (CCL) google
På grunn av den raske utviklingen av dype nevrale nettverk (DNN) teknikker og fremveksten av store ansiktsdatabaser, har ansiktsgjenkjenning oppnådd en stor suksess de siste årene. Under opplæringsprosessen til DNN vil ansiktsfunksjonene og klassifiseringsvektorene som skal læres samhandle med hverandre, mens fordelingen av ansiktsfunksjoner i stor grad vil påvirke konvergensstatusen til nettverket og ansiktslikhetsberegningen i teststadiet. I dette arbeidet formulerer vi i fellesskap læring av ansiktstrekk og klassifikasjonsvektorer, og foreslår en enkel, men effektiv sentralisert koordinatlæring (CCL) metode, som tvinger funksjonene til å bli spredt spredt i koordinatrommet samtidig som vi sikrer at klassifikasjonsvektorene ligger på en hypersfære. En adaptiv vinkelmargin er videre foreslått for å forbedre diskrimineringsevnen til ansiktstrekk. Omfattende eksperimenter er utført på seks ansiktsbenchmarks, inkludert de som har store aldersgap og harde negative prøver. Vår CCL-modell er kun trent på det småskala CASIA Webface-datasettet med 460 10 ansiktsbilder fra ca. XNUMX XNUMX personer, og demonstrerer høy effektivitet og generalitet, og viser konsekvent konkurransedyktig ytelse på tvers av alle de seks benchmark-databasene. …

Fast-Node2Vec google
Node2Vec er en state-of-the-art generell funksjonslæringsmetode for nettverksanalyse. Nåværende løsninger kan imidlertid ikke kjøre Node2Vec på grafer i stor skala med milliarder av hjørner og kanter, som er vanlige i virkelige applikasjoner. Den eksisterende distribuerte Node2Vec på Spark pådrar seg betydelig plass og tid overhead. Den går tom for minne selv for mellomstore grafer med millioner av hjørner. Dessuten vurderer den maksimalt 30 kanter for hvert toppunkt for å generere tilfeldige turer, noe som forårsaker dårlig resultatkvalitet. I denne artikkelen foreslår vi Fast-Node2Vec, en familie av effektive Node2Vec-algoritmer for random walk på et Pregel-lignende grafberegningsrammeverk. Fast-Node2Vec beregner overgangssannsynligheter under tilfeldige turer for å redusere minneplassforbruk og beregningsoverhead for storskala grafer. Det Pregel-lignende opplegget unngår plass og tid overhead av Sparks skrivebeskyttede RDD-strukturer og shuffle-operasjoner. Dessuten foreslår vi en rekke optimaliseringsteknikker for ytterligere å redusere beregningsoverhead for populære hjørner med store grader. Empirisk evaluering viser at Fast-Node2Vec er i stand til å beregne Node2Vec på grafer med milliarder av hjørner og kanter på en mellomstor maskinklynge. Sammenlignet med Spark-Node2Vec oppnår Fast-Node2Vec 7.7–122x hastigheter. …

Tidstempel:

Mer fra AnalytiXon