Jeśli jeszcze tego nie wiesz

Jeśli jeszcze tego nie wiesz

Węzeł źródłowy: 2969387

Zalecenie oparte na głębokim wzmocnieniu uczenia się (DRR) google
Rekomendacje mają kluczowe znaczenie zarówno w środowisku akademickim, jak i przemysłowym, dlatego proponowane są różne techniki, takie jak wspólne filtrowanie oparte na treści, faktoryzacja macierzy, regresja logistyczna, maszyny faktoryzacyjne, sieci neuronowe i wieloręcy bandyci. Jednakże większość poprzednich badań ma dwa ograniczenia: (1) traktowanie rekomendacji jako procedury statycznej i ignorowanie dynamicznej, interaktywnej natury pomiędzy użytkownikami a systemami rekomendującymi, (2) skupianie się na natychmiastowej informacji zwrotnej na temat rekomendowanych pozycji i zaniedbywanie długiego czasu trwania - nagrody terminowe. Aby stawić czoła tym dwóm ograniczeniom, w tym artykule proponujemy nowatorskie ramy rekomendacji oparte na uczeniu się przez głębokie wzmacnianie, zwane DRR. Ramy DRR traktują rekomendację jako sekwencyjną procedurę podejmowania decyzji i przyjmują schemat uczenia się przez wzmacnianie „aktor-krytyk” w celu modelowania interakcji pomiędzy użytkownikami a systemami rekomendującymi, który może uwzględniać zarówno dynamiczną adaptację, jak i długoterminowe nagrody. Co więcej, do DRR wbudowany jest moduł reprezentacji stanu, który może jawnie uchwycić interakcje pomiędzy elementami i użytkownikami. Opracowano trzy struktury instancji. Zakrojone na szeroką skalę eksperymenty na czterech rzeczywistych zbiorach danych przeprowadzane są zarówno w trybie oceny offline, jak i online. Wyniki eksperymentów pokazują, że proponowana metoda DRR rzeczywiście przewyższa najnowocześniejsze rozwiązania konkurencyjne. …

głęboki Learning google
Uczenie głębokie to zestaw algorytmów uczenia maszynowego, które próbują modelować abstrakcje wysokiego poziomu w danych przy użyciu architektur składających się z wielu transformacji nieliniowych. Uczenie głębokie jest częścią szerszej rodziny metod uczenia maszynowego opartych na reprezentacjach uczenia się. Obserwację (np. obraz) można przedstawić na wiele sposobów (np. wektor pikseli), ale niektóre reprezentacje ułatwiają naukę interesujących Cię zadań (np. czy to jest obraz ludzkiej twarzy?) na przykładach, a badania w tej dziedzinie mają na celu określenie, co tworzy lepsze reprezentacje i jak tworzyć modele umożliwiające naukę tych reprezentacji. Różne architektury głębokiego uczenia się, takie jak głębokie sieci neuronowe, splotowe głębokie sieci neuronowe i sieci głębokich przekonań, zostały zastosowane w takich dziedzinach, jak widzenie komputerowe, automatyczne rozpoznawanie mowy, przetwarzanie języka naturalnego i rozpoznawanie sygnałów muzycznych/audio, gdzie wykazano, że wytwarzają stan najnowocześniejsze wyniki w różnych zadaniach. …

Scentralizowane uczenie się współrzędnych (CCL) google
Dzięki szybkiemu rozwojowi technik głębokich sieci neuronowych (DNN) i pojawieniu się wielkoskalowych baz danych o twarzach, rozpoznawanie twarzy odniosło w ostatnich latach ogromny sukces. Podczas procesu uczenia DNN cechy twarzy i wektory klasyfikacji, których należy się nauczyć, będą ze sobą współdziałać, podczas gdy rozkład cech twarzy będzie w dużym stopniu wpływać na stan zbieżności sieci i obliczanie podobieństwa twarzy na etapie testowym. W tej pracy wspólnie formułujemy uczenie się cech twarzy i wektorów klasyfikacji oraz proponujemy prostą, ale skuteczną metodę scentralizowanego uczenia się współrzędnych (CCL), która wymusza, aby cechy były rozproszone w przestrzeni współrzędnych, zapewniając jednocześnie położenie wektorów klasyfikacji hipersfera. Ponadto zaproponowano adaptacyjny margines kątowy w celu zwiększenia zdolności rozróżniania cech twarzy. Prowadzone są szeroko zakrojone eksperymenty na sześciu wzorcach twarzy, w tym na próbkach o dużej różnicy wieku i twardych próbach negatywnych. Nasz model CCL, wytrenowany wyłącznie na małym zbiorze danych CASIA Webface, zawierającym 460 tys. obrazów twarzy od około 10 tys. osób, wykazuje wysoką skuteczność i ogólność, wykazując niezmiennie konkurencyjne wyniki we wszystkich sześciu bazach danych porównawczych. …

Szybki węzeł2Vec google
Node2Vec to najnowocześniejsza, uniwersalna metoda uczenia się funkcji do analizy sieci. Jednak obecne rozwiązania nie mogą uruchamiać Node2Vec na wielkoskalowych grafach z miliardami wierzchołków i krawędzi, które są powszechne w rzeczywistych aplikacjach. Istniejący rozproszony Node2Vec na platformie Spark wiąże się ze znacznym obciążeniem przestrzennym i czasowym. Brakuje pamięci nawet w przypadku grafów średniej wielkości z milionami wierzchołków. Co więcej, podczas generowania przypadkowych spacerów uwzględnia co najwyżej 30 krawędzi na każdy wierzchołek, co powoduje słabą jakość wyników. W tym artykule proponujemy Fast-Node2Vec, rodzinę wydajnych algorytmów błądzenia losowego Node2Vec w ramach obliczeń grafów przypominających Pregel. Fast-Node2Vec oblicza prawdopodobieństwa przejść podczas losowych spacerów, aby zmniejszyć zużycie miejsca w pamięci i narzut obliczeniowy w przypadku wykresów o dużej skali. Schemat przypominający Pregel pozwala uniknąć narzutów przestrzennych i czasowych związanych ze strukturami RDD tylko do odczytu i operacjami tasowania Sparka. Ponadto proponujemy szereg technik optymalizacji w celu dalszego zmniejszenia narzutu obliczeniowego dla popularnych wierzchołków o dużych stopniach. Ocena empiryczna pokazuje, że Fast-Node2Vec jest w stanie obliczyć Node2Vec na wykresach zawierających miliardy wierzchołków i krawędzi w klastrze maszyn średniej wielkości. W porównaniu do Spark-Node2Vec, Fast-Node2Vec osiąga przyspieszenie 7.7–122x. …

Znak czasu:

Więcej z Analityxon