Als je het nog niet wist

Als je het nog niet wist

Bronknooppunt: 2969387

Aanbeveling op basis van diepgaand versterkend leren (DRR) google
Aanbeveling is cruciaal in zowel de academische wereld als de industrie, en er worden verschillende technieken voorgesteld, zoals op inhoud gebaseerde collaboratieve filtering, matrixfactorisatie, logistische regressie, factorisatiemachines, neurale netwerken en meerarmige bandieten. De meeste eerdere onderzoeken kampen echter met twee beperkingen: (1) het beschouwen van de aanbeveling als een statische procedure en het negeren van de dynamische, interactieve aard tussen gebruikers en de aanbevelingssystemen, (2) het focussen op de onmiddellijke feedback van aanbevolen items en het verwaarlozen van de lange termijn. - termijnbeloningen. Om de twee beperkingen aan te pakken, stellen we in dit artikel een nieuw aanbevelingskader voor, gebaseerd op diepgaand versterkend leren, genaamd DRR. Het DRR-raamwerk behandelt aanbevelingen als een sequentiële besluitvormingsprocedure en hanteert een 'Actor-Critic'-leerprogramma voor versterking om de interacties tussen de gebruikers en aanbevelingssystemen te modelleren, waarbij zowel de dynamische aanpassing als de langetermijnbeloningen in aanmerking kunnen worden genomen. Bovendien is er een statusrepresentatiemodule in DRR opgenomen, die expliciet de interacties tussen items en gebruikers kan vastleggen. Er zijn drie instantiatiestructuren ontwikkeld. Uitgebreide experimenten met vier real-world datasets worden uitgevoerd onder zowel de offline als online evaluatie-instellingen. De experimentele resultaten tonen aan dat de voorgestelde DRR-methode inderdaad beter presteert dan de huidige concurrenten. …

Diepe leren google
Deep learning is een reeks algoritmen in machinaal leren die proberen abstracties op hoog niveau in gegevens te modelleren door gebruik te maken van architecturen die zijn samengesteld uit meerdere niet-lineaire transformaties. Deep learning maakt deel uit van een bredere familie van machine learning-methoden gebaseerd op leerrepresentaties. Een observatie (bijvoorbeeld een afbeelding) kan op veel manieren worden weergegeven (bijvoorbeeld een vector van pixels), maar sommige representaties maken het gemakkelijker om interessante taken te leren (bijvoorbeeld is dit de afbeelding van een menselijk gezicht?) uit voorbeelden, en onderzoek op dit gebied probeert te definiëren wat betere representaties oplevert en hoe modellen kunnen worden gecreëerd om deze representaties te leren. Verschillende deep learning-architecturen, zoals diepe neurale netwerken, convolutionele diepe neurale netwerken en deep believe-netwerken, zijn toegepast op gebieden als computer vision, automatische spraakherkenning, natuurlijke taalverwerking en muziek-/audiosignaalherkenning, waarbij is aangetoond dat ze toestandsveranderingen produceren. -of-the-art resultaten op verschillende taken. …

Gecentraliseerd gecoördineerd leren (CCL) google
Dankzij de snelle ontwikkeling van deep neural network (DNN)-technieken en de opkomst van grootschalige gezichtsdatabases heeft gezichtsherkenning de afgelopen jaren een groot succes geboekt. Tijdens het trainingsproces van DNN zullen de te leren gezichtskenmerken en classificatievectoren met elkaar interageren, terwijl de verdeling van gezichtskenmerken grotendeels de convergentiestatus van het netwerk en de berekening van de gezichtsgelijkenis in de testfase zal beïnvloeden. In dit werk formuleren we gezamenlijk het leren van gezichtskenmerken en classificatievectoren, en stellen we een eenvoudige maar effectieve gecentraliseerde coördinatenleermethode (CCL) voor, die afdwingt dat de kenmerken verspreid in de coördinatenruimte worden overspannen en er tegelijkertijd voor zorgt dat de classificatievectoren erop liggen. een hypersfeer. Verder wordt een adaptieve hoekmarge voorgesteld om het onderscheidingsvermogen van gezichtskenmerken te vergroten. Er worden uitgebreide experimenten uitgevoerd op zes face-benchmarks, waaronder die met een groot leeftijdsverschil en harde negatieve steekproeven. Ons CCL-model is alleen getraind op de kleinschalige CASIA Webface-dataset met 460 gezichtsafbeeldingen van ongeveer 10 proefpersonen en demonstreert een hoge effectiviteit en algemeenheid, en toont consistent concurrerende prestaties in alle zes benchmarkdatabases. …

Fast-Node2Vec google
Node2Vec is een geavanceerde leermethode voor algemene doeleinden voor netwerkanalyse. De huidige oplossingen kunnen Node2Vec echter niet uitvoeren op grootschalige grafieken met miljarden hoekpunten en randen, wat gebruikelijk is in toepassingen in de echte wereld. De bestaande gedistribueerde Node2Vec op Spark brengt aanzienlijke ruimte- en tijdoverhead met zich mee. Er is onvoldoende geheugen beschikbaar, zelfs voor middelgrote grafieken met miljoenen hoekpunten. Bovendien houdt het bij het genereren van willekeurige wandelingen rekening met maximaal 30 randen voor elk hoekpunt, wat een slechte resultaatkwaliteit veroorzaakt. In dit artikel stellen we Fast-Node2Vec voor, een familie van efficiënte Node2Vec random walk-algoritmen op een Pregel-achtig grafiekberekeningsraamwerk. Fast-Node2Vec berekent de overgangskansen tijdens willekeurige wandelingen om het verbruik van geheugenruimte en de rekenoverhead voor grootschalige grafieken te verminderen. Het Pregel-achtige schema vermijdt ruimte- en tijdoverhead van Spark's alleen-lezen RDD-structuren en shuffle-bewerkingen. Bovendien stellen we een aantal optimalisatietechnieken voor om de rekenoverhead voor populaire hoekpunten met grote graden verder te verminderen. Uit empirische evaluatie blijkt dat Fast-Node2Vec in staat is om Node2Vec te berekenen op grafieken met miljarden hoekpunten en randen op een middelgroot machinecluster. Vergeleken met Spark-Node2Vec behaalt Fast-Node2Vec 7.7–122x versnellingen. …

Tijdstempel:

Meer van Analytie