あなたがまだ知らなかったなら

あなたがまだ知らなかったなら

ソースノード: 2969387

深層強化学習ベースのレコメンデーション (DRR) グーグル
学術界でも産業界でも推奨は非常に重要であり、コンテンツベースの協調フィルタリング、行列因数分解、ロジスティック回帰、因数分解マシン、ニューラル ネットワーク、マルチアーム バンディットなどのさまざまな技術が提案されています。しかし、これまでの研究のほとんどには次の 1 つの制限があります。(2) レコメンデーションを静的な手順として考慮し、ユーザーとレコメンダー システム間の動的なインタラクティブな性質を無視すること、(XNUMX) 推奨アイテムの即時のフィードバックに焦点を当て、長期にわたるフィードバックを無視すること- 期間報酬。この XNUMX つの制限に対処するために、この論文では、DRR と呼ばれる深層強化学習に基づく新しい推奨フレームワークを提案します。 DRR フレームワークは、推奨を逐次的な意思決定手順として扱い、「アクター-クリティック」強化学習スキームを採用して、ユーザーと推奨システム間の相互作用をモデル化します。これにより、動的な適応と長期的な報酬の両方を考慮できます。さらに、状態表現モジュールが DRR に組み込まれており、アイテムとユーザー間のインタラクションを明示的にキャプチャできます。 XNUMX つのインスタンス化構造が開発されています。 XNUMX つの現実世界のデータセットに対する広範な実験が、オフラインとオンラインの両方の評価設定で実施されます。実験結果は、提案された DRR 手法が実際に最先端の競合他社よりも優れていることを示しています。 …

深層学習 グーグル
ディープラーニングは、複数の非線形変換で構成されるアーキテクチャを使用して、データ内の高レベルの抽象化をモデル化しようとする機械学習の一連のアルゴリズムです。ディープラーニングは、学習表現に基づくより広範な機械学習手法の一部です。観察 (画像など) はさまざまな方法 (ピクセルのベクトルなど) で表現できますが、一部の表現では、例から興味のあるタスク (これは人間の顔の画像ですか?) を学習しやすくなります。この分野の研究では、何がより良い表現を作るのか、そしてこれらの表現を学習するためのモデルを作成する方法を定義することが試みられています。ディープ ニューラル ネットワーク、畳み込みディープ ニューラル ネットワーク、ディープ ビリーフ ネットワークなどのさまざまなディープ ラーニング アーキテクチャは、コンピューター ビジョン、自動音声認識、自然言語処理、音楽/オーディオ信号認識などの分野に適用され、状態を生成することが示されています。さまざまなタスクで最先端の結果が得られます。 …

集中座標学習 (CCL) グーグル
ディープ ニューラル ネットワーク (DNN) 技術の急速な発展と大規模な顔データベースの出現により、顔認識は近年大きな成功を収めています。 DNN の学習プロセスでは、学習する顔の特徴と分類ベクトルが相互作用しますが、顔の特徴の分布はネットワークの収束状況やテスト段階での顔類似度計算に大きく影響します。この研究では、顔の特徴と分類ベクトルの学習を共同で定式化し、分類ベクトルが確実に配置されるようにしながら、特徴を座標空間内に分散させる、シンプルかつ効果的な集中座標学習 (CCL) 手法を提案します。超球体。顔の特徴の識別能力を高めるために、適応的な角度マージンがさらに提案されています。大きな年齢差やハードネガティブサンプルを含む 460 つの顔ベンチマークに対して広範な実験が行われています。約 10 人の被験者からの XNUMX の顔画像を含む小規模な CASIA Webface データセットのみでトレーニングされた当社の CCL モデルは、高い有効性と汎用性を示し、XNUMX つのベンチマーク データベースすべてにわたって一貫した競争力のあるパフォーマンスを示しています。 …

Fast-Node2Vec グーグル
Node2Vec は、ネットワーク分析のための最先端の汎用特徴学習方法です。ただし、現在のソリューションでは、現実世界のアプリケーションで一般的な、数十億の頂点とエッジを含む大規模なグラフ上で Node2Vec を実行することはできません。 Spark 上の既存の分散型 Node2Vec では、スペースと時間の大幅なオーバーヘッドが発生します。数百万の頂点を持つ中規模のグラフであってもメモリ不足になります。さらに、ランダム ウォークを生成する際に頂点ごとに最大 30 個のエッジが考慮されるため、結果の品質が低下します。この論文では、Pregel のようなグラフ計算フレームワーク上の効率的な Node2Vec ランダム ウォーク アルゴリズムのファミリーである Fast-Node2Vec を提案します。 Fast-Node2Vec は、ランダム ウォーク中に遷移確率を計算して、大規模なグラフのメモリ領域の消費と計算オーバーヘッドを削減します。 Pregel のようなスキームにより、Spark の読み取り専用 RDD 構造とシャッフル操作による空間と時間のオーバーヘッドが回避されます。さらに、次数が大きい一般的な頂点の計算オーバーヘッドをさらに削減するために、いくつかの最適化手法を提案します。実証的評価により、Fast-Node2Vec は中規模のマシン クラスター上で数十億の頂点とエッジを持つグラフ上で Node2Vec を計算できることが示されています。 Spark-Node2Vec と比較して、Fast-Node2Vec は 7.7 ~ 122 倍の高速化を実現します。 …

タイムスタンプ:

より多くの アナリティクソン