Якщо ви ще не знали

Якщо ви ще не знали

Вихідний вузол: 2969387

Рекомендації на основі глибокого підкріплення навчання (DRR) google
Рекомендації мають вирішальне значення як в наукових колах, так і в промисловості, і пропонуються різні методи, такі як спільне фільтрування на основі контенту, матрична факторизація, логістична регресія, машини факторизації, нейронні мережі та багаторуких бандитів. Однак більшість попередніх досліджень мають два обмеження: (1) розгляд рекомендації як статичної процедури та ігнорування динамічної інтерактивної природи між користувачами та системами рекомендацій, (2) зосередження на негайному зворотному зв’язку рекомендованих елементів та нехтування тривалим - термінові винагороди. Щоб усунути ці два обмеження, у цій статті ми пропонуємо нову структуру рекомендацій, засновану на глибокому навчанні з підкріпленням, яка називається DRR. Структура DRR розглядає рекомендації як послідовну процедуру прийняття рішень і використовує схему підкріплення «Актор-Критик» для моделювання взаємодії між користувачами та системами рекомендацій, які можуть враховувати як динамічну адаптацію, так і довгострокові винагороди. Крім того, модуль представлення стану включено в DRR, який може чітко фіксувати взаємодію між елементами та користувачами. Розроблено три структури інстанціювання. Масштабні експерименти з чотирма реальними наборами даних проводяться як в режимі офлайн, так і в режимі онлайн. Експериментальні результати демонструють, що запропонований метод DRR справді перевершує сучасні конкуренти. …

Глибоке навчання google
Глибоке навчання — це набір алгоритмів машинного навчання, які намагаються змоделювати високорівневі абстракції в даних за допомогою архітектур, що складаються з кількох нелінійних перетворень. Глибоке навчання є частиною ширшого сімейства методів машинного навчання, заснованих на представленнях навчання. Спостереження (наприклад, зображення) можна представити багатьма способами (наприклад, вектором пікселів), але деякі представлення полегшують вивчення цікавих завдань (наприклад, це зображення людського обличчя?) на прикладах, і дослідження в цій галузі намагаються визначити, що робить кращі уявлення та як створити моделі для вивчення цих уявлень. Різноманітні архітектури глибокого навчання, такі як глибокі нейронні мережі, згорточні глибокі нейронні мережі та мережі глибоких переконань, застосовувалися до таких областей, як комп’ютерне бачення, автоматичне розпізнавання мови, обробка природної мови та розпізнавання музичних/аудіосигналів, де було показано, що вони створюють стан найсучасніші результати для різних завдань. …

Централізоване координатне навчання (CCL) google
Завдяки швидкому розвитку методів глибокої нейронної мережі (DNN) і появі великомасштабних баз даних облич останніми роками розпізнавання облич досягло великого успіху. Під час процесу навчання DNN ознаки обличчя та вектори класифікації, які потрібно вивчати, взаємодіятимуть один з одним, тоді як розподіл ознак обличчя значною мірою впливатиме на статус конвергенції мережі та обчислення подібності обличчя на етапі тестування. У цій роботі ми сформулювали спільне вивчення рис обличчя та класифікаційних векторів і запропонували простий, але ефективний метод централізованого координатного навчання (CCL), який примусово розподіляє ознаки в координатному просторі, одночасно гарантуючи, що класифікаційні вектори лежать на гіперсфера. Крім того, запропоновано адаптивний кутовий запас для підвищення здатності розрізняти риси обличчя. Масштабні експерименти проводяться з шістьма тестами обличчя, включно з тими, які мають велику різницю у віці та жорсткі негативні зразки. Наша модель CCL, навчена лише на невеликому наборі даних CASIA Webface із 460 тис. зображень облич із приблизно 10 тис. суб’єктів, демонструє високу ефективність і загальність, демонструючи незмінно конкурентоспроможну продуктивність у всіх шести порівняльних базах даних. …

Fast-Node2Vec google
Node2Vec — це сучасний універсальний метод вивчення функцій для аналізу мережі. Однак поточні рішення не можуть запускати Node2Vec на великомасштабних графах з мільярдами вершин і ребер, які є звичайними для реальних програм. Існуючий розподілений Node2Vec на Spark потребує значного простору та часу. Не вистачає пам’яті навіть для графів середнього розміру з мільйонами вершин. Крім того, він розглядає щонайбільше 30 ребер для кожної вершини під час генерації випадкових блукань, що спричиняє низьку якість результату. У цьому документі ми пропонуємо Fast-Node2Vec, сімейство ефективних алгоритмів випадкового блукання Node2Vec на графовій структурі обчислень типу Pregel. Fast-Node2Vec обчислює ймовірності переходів під час випадкових блукань, щоб зменшити споживання пам’яті та витрати на обчислення для великомасштабних графіків. Схема, подібна до Pregel, дозволяє уникнути накладних витрат на простір і час для структур RDD Spark, призначених лише для читання, і операцій перемішування. Крім того, ми пропонуємо низку методів оптимізації для подальшого зменшення накладних витрат на обчислення для популярних вершин із великими ступенями. Емпіричні оцінки показують, що Fast-Node2Vec здатний обчислювати Node2Vec на графах із мільярдами вершин і ребер у машинному кластері середнього розміру. Порівняно зі Spark-Node2Vec, Fast-Node2Vec досягає прискорення в 7.7–122 рази. …

Часова мітка:

Більше від Аналітичний