Wenn du es nicht schon wusstest

Wenn du es nicht schon wusstest

Quellknoten: 2969387

Auf Deep Reinforcement Learning basierende Empfehlung (DRR) Google
Empfehlungen sind sowohl in der Wissenschaft als auch in der Industrie von entscheidender Bedeutung, und es werden verschiedene Techniken vorgeschlagen, wie z. B. inhaltsbasierte kollaborative Filterung, Matrixfaktorisierung, logistische Regression, Faktorisierungsmaschinen, neuronale Netze und mehrarmige Banditen. Die meisten früheren Studien weisen jedoch zwei Einschränkungen auf: (1) Sie betrachten die Empfehlung als statisches Verfahren und ignorieren die dynamische interaktive Natur zwischen Benutzern und den Empfehlungssystemen, (2) sie konzentrieren sich auf das unmittelbare Feedback empfohlener Elemente und vernachlässigen die lange -Befristete Belohnungen. Um die beiden Einschränkungen zu beseitigen, schlagen wir in diesem Artikel einen neuartigen Empfehlungsrahmen vor, der auf Deep Reinforcement Learning basiert und DRR genannt wird. Das DRR-Framework behandelt Empfehlungen als sequentielles Entscheidungsverfahren und verwendet ein „Actor-Critic“-Lernschema zur Verstärkung, um die Interaktionen zwischen den Benutzern und Empfehlungssystemen zu modellieren, das sowohl die dynamische Anpassung als auch langfristige Belohnungen berücksichtigen kann. Darüber hinaus ist in DRR ein Zustandsdarstellungsmodul integriert, das die Interaktionen zwischen Elementen und Benutzern explizit erfassen kann. Es werden drei Instanziierungsstrukturen entwickelt. Umfangreiche Experimente mit vier realen Datensätzen werden sowohl im Offline- als auch im Online-Auswertungsmodus durchgeführt. Die experimentellen Ergebnisse zeigen, dass die vorgeschlagene DRR-Methode tatsächlich die hochmodernen Konkurrenten übertrifft. …

Tiefes Lernen Google
Deep Learning ist eine Reihe von Algorithmen im maschinellen Lernen, die versuchen, Abstraktionen auf hoher Ebene in Daten zu modellieren, indem sie Architekturen verwenden, die aus mehreren nichtlinearen Transformationen bestehen. Deep Learning ist Teil einer größeren Familie maschineller Lernmethoden, die auf Lerndarstellungen basieren. Eine Beobachtung (z. B. ein Bild) kann auf viele Arten dargestellt werden (z. B. ein Pixelvektor), aber einige Darstellungen erleichtern das Erlernen interessanter Aufgaben (z. B. ist dies das Bild eines menschlichen Gesichts?) anhand von Beispielen. und die Forschung in diesem Bereich versucht zu definieren, was bessere Darstellungen ausmacht und wie man Modelle erstellt, um diese Darstellungen zu lernen. Verschiedene Deep-Learning-Architekturen wie Deep Neural Networks, Convolutional Deep Neural Networks und Deep Believe Networks wurden auf Bereiche wie Computer Vision, automatische Spracherkennung, natürliche Sprachverarbeitung und Musik-/Audiosignalerkennung angewendet, wo sie nachweislich einen Zustand erzeugen - Neueste Ergebnisse zu verschiedenen Aufgaben. …

Zentralisiertes Koordinatenlernen (CCL) Google
Dank der rasanten Entwicklung von DNN-Techniken (Deep Neural Network) und der Entstehung umfangreicher Gesichtsdatenbanken hat die Gesichtserkennung in den letzten Jahren große Erfolge erzielt. Während des Trainingsprozesses von DNN interagieren die zu erlernenden Gesichtsmerkmale und Klassifizierungsvektoren miteinander, während die Verteilung der Gesichtsmerkmale den Konvergenzstatus des Netzwerks und die Berechnung der Gesichtsähnlichkeit in der Testphase weitgehend beeinflusst. In dieser Arbeit formulieren wir gemeinsam das Lernen von Gesichtsmerkmalen und Klassifizierungsvektoren und schlagen eine einfache, aber effektive Methode des zentralisierten Koordinatenlernens (CCL) vor, die eine verteilte Verteilung der Merkmale im Koordinatenraum erzwingt und gleichzeitig sicherstellt, dass die Klassifizierungsvektoren darauf liegen eine Hypersphäre. Darüber hinaus wird ein adaptiver Winkelspielraum vorgeschlagen, um die Unterscheidungsfähigkeit von Gesichtsmerkmalen zu verbessern. Es werden umfangreiche Experimente mit sechs Gesichtsbenchmarks durchgeführt, darunter solche mit großem Altersunterschied und stark negativen Proben. Unser CCL-Modell wurde nur auf dem kleinen CASIA-Webface-Datensatz mit 460 Gesichtsbildern von etwa 10 Probanden trainiert und weist eine hohe Wirksamkeit und Allgemeingültigkeit auf. Es zeigt eine konstant wettbewerbsfähige Leistung in allen sechs Benchmark-Datenbanken. …

Fast-Node2Vec Google
Node2Vec ist eine hochmoderne Allzweck-Feature-Learning-Methode für die Netzwerkanalyse. Aktuelle Lösungen können Node2Vec jedoch nicht auf großen Diagrammen mit Milliarden von Eckpunkten und Kanten ausführen, die in realen Anwendungen üblich sind. Das bestehende verteilte Node2Vec auf Spark verursacht erheblichen Platz- und Zeitaufwand. Selbst bei mittelgroßen Diagrammen mit Millionen von Eckpunkten geht der Speicher aus. Darüber hinaus berücksichtigt es bei der Generierung von Random Walks höchstens 30 Kanten für jeden Scheitelpunkt, was zu einer schlechten Ergebnisqualität führt. In diesem Artikel schlagen wir Fast-Node2Vec vor, eine Familie effizienter Node2Vec-Random-Walk-Algorithmen auf einem Pregel-ähnlichen Diagrammberechnungsrahmen. Fast-Node2Vec berechnet Übergangswahrscheinlichkeiten während Random Walks, um den Speicherplatzverbrauch und den Rechenaufwand für große Diagramme zu reduzieren. Das Pregel-ähnliche Schema vermeidet den räumlichen und zeitlichen Overhead der schreibgeschützten RDD-Strukturen und Shuffle-Operationen von Spark. Darüber hinaus schlagen wir eine Reihe von Optimierungstechniken vor, um den Rechenaufwand für beliebte Eckpunkte mit großen Graden weiter zu reduzieren. Empirische Auswertungen zeigen, dass Fast-Node2Vec in der Lage ist, Node2Vec auf Diagrammen mit Milliarden von Eckpunkten und Kanten auf einem mittelgroßen Maschinencluster zu berechnen. Im Vergleich zu Spark-Node2Vec erreicht Fast-Node2Vec 7.7–122-fache Geschwindigkeitssteigerungen. …

Zeitstempel:

Mehr von AnalytiXon