اگر قبلا نمی دانستید

اگر قبلا نمی دانستید

گره منبع: 2969387

توصیه مبتنی بر یادگیری تقویتی عمیق (DRR) گوگل
توصیه هم در دانشگاه و هم در صنعت بسیار مهم است و تکنیک‌های مختلفی مانند فیلتر مشارکتی مبتنی بر محتوا، فاکتورسازی ماتریسی، رگرسیون لجستیک، ماشین‌های فاکتورسازی، شبکه‌های عصبی و راهزنان چند مسلح پیشنهاد شده‌اند. با این حال، بیشتر مطالعات قبلی از دو محدودیت رنج می برند: (1) در نظر گرفتن توصیه به عنوان یک رویه ایستا و نادیده گرفتن ماهیت تعاملی پویا بین کاربران و سیستم های توصیه کننده، (2) تمرکز بر بازخورد فوری موارد توصیه شده و نادیده گرفتن طولانی مدت -جوایز مدت برای پرداختن به این دو محدودیت، در این مقاله یک چارچوب پیشنهادی جدید مبتنی بر یادگیری تقویتی عمیق به نام DRR پیشنهاد می‌کنیم. چارچوب DRR توصیه‌ها را به‌عنوان یک رویه تصمیم‌گیری متوالی در نظر می‌گیرد و یک طرح یادگیری تقویتی «بازیگر منتقد» را برای مدل‌سازی تعاملات بین کاربران و سیستم‌های توصیه‌کننده اتخاذ می‌کند، که می‌تواند هم سازگاری پویا و هم پاداش‌های بلندمدت را در نظر بگیرد. علاوه بر این، یک ماژول نمایش وضعیت در DRR گنجانده شده است که می تواند به صراحت تعاملات بین آیتم ها و کاربران را ثبت کند. سه ساختار نمونه توسعه داده شده است. آزمایش‌های گسترده بر روی چهار مجموعه داده دنیای واقعی تحت هر دو تنظیمات ارزیابی آفلاین و آنلاین انجام می‌شود. نتایج تجربی نشان می‌دهد که روش DRR پیشنهادی در واقع بهتر از رقبای پیشرفته عمل می‌کند. …

یادگیری عمیق گوگل
یادگیری عمیق مجموعه‌ای از الگوریتم‌ها در یادگیری ماشینی است که تلاش می‌کنند انتزاعات سطح بالا در داده‌ها را با استفاده از معماری‌های متشکل از چند تبدیل غیرخطی مدل‌سازی کنند. یادگیری عمیق بخشی از خانواده گسترده‌تری از روش‌های یادگیری ماشینی است که مبتنی بر بازنمایی‌های یادگیری است. یک مشاهده (مثلاً یک تصویر) را می توان به روش های مختلفی نشان داد (مثلاً بردار پیکسل ها)، اما برخی از نمایش ها یادگیری وظایف مورد علاقه را آسان تر می کنند (مثلاً آیا این تصویر چهره انسان است؟) از مثال ها، و تحقیق در این زمینه تلاش می کند تا مشخص کند چه چیزی بازنمایی های بهتر را ایجاد می کند و چگونه می توان مدل هایی برای یادگیری این نمایش ها ایجاد کرد. معماری‌های یادگیری عمیق مختلف مانند شبکه‌های عصبی عمیق، شبکه‌های عصبی عمیق کانولوشن، و شبکه‌های باور عمیق در زمینه‌هایی مانند بینایی رایانه، تشخیص خودکار گفتار، پردازش زبان طبیعی، و تشخیص سیگنال موسیقی/صوتی به کار گرفته شده‌اند، جایی که نشان داده شده است که حالت ایجاد می‌کنند. نتایج پیشرفته در کارهای مختلف. …

یادگیری هماهنگ متمرکز (CCL) گوگل
با توجه به توسعه سریع تکنیک های شبکه عصبی عمیق (DNN) و ظهور پایگاه داده های چهره در مقیاس بزرگ، تشخیص چهره در سال های اخیر به موفقیت بزرگی دست یافته است. در طول فرآیند آموزش DNN، ویژگی‌های چهره و بردارهای طبقه‌بندی که باید یاد بگیرند با یکدیگر تعامل خواهند داشت، در حالی که توزیع ویژگی‌های چهره تا حد زیادی بر وضعیت هم‌گرایی شبکه و محاسبه شباهت چهره در مرحله آزمایش تأثیر می‌گذارد. در این کار، ما به طور مشترک یادگیری ویژگی‌های چهره و بردارهای طبقه‌بندی را فرموله می‌کنیم، و یک روش یادگیری مختصات متمرکز ساده و در عین حال مؤثر (CCL) پیشنهاد می‌کنیم، که باعث می‌شود ویژگی‌ها به طور پراکنده در فضای مختصات پخش شوند و در عین حال اطمینان حاصل شود که بردارهای طبقه‌بندی روی آن قرار دارند. یک ابرکره یک حاشیه زاویه ای تطبیقی ​​بیشتر برای افزایش قابلیت تشخیص ویژگی های صورت پیشنهاد شده است. آزمایش‌های گسترده‌ای روی شش معیار چهره انجام شده است، از جمله مواردی که فاصله سنی زیاد و نمونه‌های منفی سخت دارند. مدل CCL ما که فقط در مقیاس کوچک مجموعه داده‌های CASIA Webface با 460K تصاویر چهره از حدود 10K سوژه آموزش دیده است، اثربخشی و عمومیت بالایی را نشان می‌دهد و عملکرد رقابتی مداوم را در تمام شش پایگاه داده معیار نشان می‌دهد. …

Fast-Node2Vec گوگل
Node2Vec یک روش یادگیری ویژگی همه منظوره برای تجزیه و تحلیل شبکه است. با این حال، راه‌حل‌های فعلی نمی‌توانند Node2Vec را بر روی نمودارهای مقیاس بزرگ با میلیاردها راس و یال، که در برنامه‌های کاربردی دنیای واقعی رایج هستند، اجرا کنند. Node2Vec توزیع شده موجود در Spark هزینه و فضا و زمان قابل توجهی را متحمل می شود. حافظه آن حتی برای نمودارهای متوسط ​​با میلیون ها رأس تمام می شود. علاوه بر این، حداکثر 30 یال را برای هر رأس در ایجاد پیاده‌روی‌های تصادفی در نظر می‌گیرد که باعث کیفیت پایین نتایج می‌شود. در این مقاله، ما Fast-Node2Vec را پیشنهاد می‌کنیم، خانواده‌ای از الگوریتم‌های پیاده‌روی تصادفی Node2Vec کارآمد بر روی یک چارچوب محاسبه گراف مانند Pregel. Fast-Node2Vec احتمالات انتقال را در طول پیاده‌روی‌های تصادفی محاسبه می‌کند تا مصرف فضای حافظه و سربار محاسبات را برای نمودارهای مقیاس بزرگ کاهش دهد. طرح پرژل مانند از سربار فضا و زمان ساختارهای RDD فقط خواندنی Spark و عملیات زدن جلوگیری می کند. علاوه بر این، ما تعدادی تکنیک بهینه‌سازی را برای کاهش بیشتر سربار محاسبات برای رئوس محبوب با درجات بزرگ پیشنهاد می‌کنیم. ارزیابی تجربی نشان می‌دهد که Fast-Node2Vec قادر است Node2Vec را بر روی نمودارهایی با میلیاردها راس و یال در یک خوشه ماشینی با اندازه متوسط ​​محاسبه کند. در مقایسه با Spark-Node2Vec، Fast-Node2Vec به سرعت 7.7-122x دست می یابد. …

تمبر زمان:

بیشتر از AnalytiXon