Ha még nem tudtad

Ha még nem tudtad

Forrás csomópont: 2969387

Mélyen megerősített tanuláson alapuló ajánlás (DRR) google
Az ajánlás kulcsfontosságú mind a tudományos élet, mind az ipar számára, és különféle technikákat javasolnak, mint például a tartalom alapú kollaboratív szűrést, a mátrix faktorizációt, a logisztikai regressziót, a faktorizációs gépeket, a neurális hálózatokat és a többkarú banditák használatát. A legtöbb korábbi tanulmány azonban két korláttól szenved: (1) az ajánlást statikus eljárásnak tekinti, és figyelmen kívül hagyja a felhasználók és az ajánlórendszerek közötti dinamikus interaktív jelleget, (2) az ajánlott elemek azonnali visszajelzésére összpontosít, és figyelmen kívül hagyja a hosszú - távú jutalmak. A két korlát kezelésére ebben a cikkben egy új ajánlási keretrendszert javasolunk, amely a mélyen megerősített tanuláson alapul, úgynevezett DRR-t. A DRR keretrendszer az ajánlást szekvenciális döntéshozatali eljárásként kezeli, és egy „Szereplő-kritikus” megerősítési tanulási sémát alkalmaz a felhasználók és az ajánlórendszerek közötti interakciók modellezésére, amely figyelembe veszi a dinamikus alkalmazkodást és a hosszú távú jutalmakat is. Ezenkívül a DRR-be egy állapotábrázoló modul is be van építve, amely kifejezetten rögzítheti az elemek és a felhasználók közötti interakciókat. Három példányosítási struktúrát fejlesztettek ki. Kiterjedt kísérletek zajlanak négy valós adatkészleten offline és online értékelési beállítások mellett is. A kísérleti eredmények azt mutatják, hogy a javasolt DRR-módszer valóban felülmúlja a legmodernebb versenytársakat. …

Deep Learning google
A mélytanulás olyan algoritmusok sorozata a gépi tanulásban, amelyek az adatok magas szintű absztrakcióit próbálják modellezni több nemlineáris transzformációból álló architektúrák használatával. A mély tanulás a tanulási reprezentációkon alapuló gépi tanulási módszerek szélesebb családjának része. Egy megfigyelést (pl. egy képet) sokféleképpen ábrázolhatunk (pl. pixelvektor), de egyes reprezentációk megkönnyítik az érdekes feladatok (pl. ez egy emberi arc képe?) megtanulását példákból, és az ezen a területen végzett kutatás megpróbálja meghatározni, hogy mitől lehet jobb reprezentáció, és hogyan lehet modelleket létrehozni ezen reprezentációk megtanulására. Különféle mély tanulási architektúrákat, például mély neurális hálózatokat, konvolúciós mély neurális hálózatokat és mély hithálózatokat alkalmaztak olyan területeken, mint a számítógépes látás, az automatikus beszédfelismerés, a természetes nyelvi feldolgozás és a zenei/audiojel-felismerés, ahol kimutatták, hogy állapotot hoznak létre. - a legkorszerűbb eredményeket a különböző feladatokon. …

Központosított koordináta tanulás (CCL) google
A mély neurális hálózat (DNN) technikák gyors fejlődésének és a nagyméretű arcadatbázisok megjelenésének köszönhetően az arcfelismerés nagy sikert ért el az elmúlt években. A DNN betanítási folyamata során a megtanulandó arcvonások és osztályozási vektorok kölcsönhatásba lépnek egymással, míg az arcvonások eloszlása ​​nagymértékben befolyásolja a hálózat konvergencia státuszát és az archasonlóság-számítást a teszt szakaszban. Ebben a munkában közösen fogalmazzuk meg az arcvonások és osztályozási vektorok tanulását, és javasolunk egy egyszerű, de hatékony centralizált koordináta tanulási (CCL) módszert, amely kikényszeríti a jellemzők szétszórtan feszítését a koordinátatérben, miközben biztosítja az osztályozási vektorok elhelyezését. egy hiperszféra. Javasoljuk továbbá, hogy az arcvonások megkülönböztető képességét fokozza az adaptív szögmargó. Kiterjedt kísérleteket végeznek hat benchmarkon, beleértve azokat is, amelyek nagy korkülönbséggel és kemény negatív mintákkal rendelkeznek. Kizárólag a kisméretű CASIA Webface adatkészleten, amely körülbelül 460 10 alany XNUMX XNUMX arcképét tartalmazza, CCL modellünk nagy hatékonyságot és általánosságot mutat, következetesen versenyképes teljesítményt mutatva mind a hat benchmark adatbázisban. …

Fast-Node2Vec google
A Node2Vec egy korszerű általános célú szolgáltatástanulási módszer a hálózati elemzéshez. A jelenlegi megoldások azonban nem tudják futtatni a Node2Vec-et nagyméretű, több milliárd csúcsot és élt tartalmazó gráfokon, amelyek gyakoriak a valós alkalmazásokban. A meglévő elosztott Node2Vec a Sparkban jelentős hely- és időráfordítást igényel. Még a milliónyi csúcsot tartalmazó, közepes méretű gráfokhoz is elfogy a memóriája. Ezen túlmenően, minden csúcshoz legfeljebb 30 élt vesz figyelembe a véletlenszerű séták generálásakor, ami rossz eredményminőséget okoz. Ebben a cikkben a Fast-Node2Vec-et javasoljuk, amely hatékony Node2Vec véletlenszerű séta algoritmusok családja egy Pregel-szerű gráf számítási keretrendszeren. A Fast-Node2Vec kiszámítja az átmenet valószínűségét a véletlenszerű séták során, hogy csökkentse a memóriaterület-felhasználást és a számítási többletet nagyméretű grafikonok esetén. A Pregel-szerű séma elkerüli a Spark csak olvasható RDD struktúráinak és keverési műveleteinek túlterheltségét a térben és időben. Ezen túlmenően számos optimalizálási technikát javasolunk, hogy tovább csökkentsük a számítási többletterhelést a nagy fokokkal rendelkező népszerű csúcsok esetében. Az empirikus értékelés azt mutatja, hogy a Fast-Node2Vec képes a Node2Vec kiszámítására több milliárd csúcsot és élt tartalmazó gráfokon egy közepes méretű gépklaszteren. A Spark-Node2Vec-hez képest a Fast-Node2Vec 7.7–122-szeres sebességet ér el. …

Időbélyeg:

Még több AnalytiXon