당신이 아직 몰랐다면

당신이 아직 몰랐다면

소스 노드 : 2969387

심층 강화 학습 기반 추천(DRR) 구글
추천은 학계와 산업계 모두에서 중요하며, 콘텐츠 기반 협업 필터링, 행렬 분해, 로지스틱 회귀, 분해 기계, 신경망, 다중 무장 도적 등 다양한 기술이 제안됩니다. 그러나 대부분의 이전 연구는 두 가지 한계를 안고 있습니다. (1) 추천을 정적인 절차로 간주하고 사용자와 추천 시스템 간의 동적 상호 작용 특성을 무시합니다. (2) 추천 항목에 대한 즉각적인 피드백에 중점을 두고 긴 피드백을 무시합니다. -기간 보상. 두 가지 한계를 해결하기 위해 본 논문에서는 DRR이라는 심층 강화 학습 기반의 새로운 추천 프레임워크를 제안합니다. DRR 프레임워크는 추천을 순차적 의사결정 절차로 취급하고 동적 적응과 장기적인 보상을 모두 고려할 수 있는 사용자와 추천 시스템 간의 상호 작용을 모델링하기 위해 '배우-비평' 강화 학습 방식을 채택합니다. 또한 상태 표현 모듈이 DRR에 통합되어 항목과 사용자 간의 상호 작용을 명시적으로 캡처할 수 있습니다. 세 가지 인스턴스화 구조가 개발되었습니다. XNUMX개의 실제 데이터 세트에 대한 광범위한 실험이 오프라인 및 온라인 평가 설정에서 수행됩니다. 실험 결과는 제안된 DRR 방법이 실제로 최첨단 경쟁사보다 성능이 우수하다는 것을 보여줍니다. …

깊은 학습 구글
딥 러닝은 여러 비선형 변환으로 구성된 아키텍처를 사용하여 데이터에서 높은 수준의 추상화를 모델링하려고 시도하는 기계 학습의 알고리즘 세트입니다. 딥 러닝은 학습 표현을 기반으로 하는 광범위한 기계 학습 방법 제품군의 일부입니다. 관찰(예: 이미지)은 다양한 방법(예: 픽셀 벡터)으로 표현될 수 있지만 일부 표현을 사용하면 예를 통해 관심 있는 작업(예: 이것이 사람 얼굴 이미지인가요?)을 더 쉽게 배울 수 있습니다. 이 분야의 연구에서는 무엇이 더 나은 표현을 만드는지 정의하고 이러한 표현을 학습하기 위한 모델을 만드는 방법을 시도합니다. 심층 신경망, 컨볼루셔널 심층 신경망, 심층 신념 네트워크와 같은 다양한 딥 러닝 아키텍처는 컴퓨터 비전, 자동 음성 인식, 자연어 처리, 음악/오디오 신호 인식과 같은 분야에 적용되어 상태를 생성하는 것으로 나타났습니다. -다양한 작업에 대한 최첨단 결과. …

중앙 집중식 좌표 학습(CCL) 구글
심층 신경망(DNN) 기술의 급속한 발전과 대규모 얼굴 데이터베이스의 출현으로 인해 최근 몇 년 동안 얼굴 인식이 큰 성공을 거두었습니다. DNN의 훈련 과정에서 학습할 얼굴 특징과 분류 벡터는 서로 상호 작용하며, 얼굴 특징의 분포는 네트워크의 수렴 상태와 테스트 단계의 얼굴 유사성 계산에 큰 영향을 미칩니다. 본 연구에서는 얼굴 특징과 분류 벡터의 학습을 공동으로 공식화하고 분류 벡터가 위치하도록 보장하면서 특징이 좌표 공간에 분산되도록 하는 간단하면서도 효과적인 중앙 집중식 좌표 학습(CCL) 방법을 제안합니다. 하이퍼스피어. 얼굴 특징의 식별 능력을 향상시키기 위해 적응형 각도 마진이 추가로 제안되었습니다. 나이 차이가 크고 네거티브 샘플이 있는 얼굴을 포함하여 460개의 얼굴 벤치마크에 대해 광범위한 실험이 수행되었습니다. 약 10명의 주제에서 얻은 XNUMX개의 얼굴 이미지가 포함된 소규모 CASIA Webface 데이터 세트에서만 훈련된 CCL 모델은 높은 효율성과 일반성을 보여 XNUMX개 벤치마크 데이터베이스 모두에서 일관되게 경쟁력 있는 성능을 보여줍니다. …

빠른 Node2Vec 구글
Node2Vec은 네트워크 분석을 위한 최첨단 범용 기능 학습 방법입니다. 그러나 현재 솔루션은 실제 애플리케이션에서 흔히 볼 수 있는 수십억 개의 정점과 가장자리가 있는 대규모 그래프에서 Node2Vec을 실행할 수 없습니다. Spark의 기존 분산형 Node2Vec은 상당한 공간 및 시간 오버헤드를 발생시킵니다. 수백만 개의 정점이 있는 중간 크기의 그래프에도 메모리가 부족합니다. 게다가 무작위 이동을 생성할 때 모든 정점에 대해 최대 30개의 가장자리를 고려하므로 결과 품질이 저하됩니다. 본 논문에서는 Pregel과 유사한 그래프 계산 프레임워크에서 효율적인 Node2Vec 랜덤 워크 알고리즘 제품군인 Fast-Node2Vec을 제안합니다. Fast-Node2Vec은 무작위 이동 중에 전환 확률을 계산하여 대규모 그래프의 메모리 공간 소비와 계산 오버헤드를 줄입니다. Pregel과 유사한 체계는 Spark의 읽기 전용 RDD 구조 및 셔플 작업의 공간 및 시간 오버헤드를 방지합니다. 또한 우리는 인기 있는 정점에 대한 계산 오버헤드를 더 줄이기 위해 다양한 최적화 기술을 제안합니다. 경험적 평가에 따르면 Fast-Node2Vec은 중간 규모의 기계 클러스터에서 수십억 개의 정점과 가장자리가 있는 그래프에서 Node2Vec을 계산할 수 있습니다. Spark-Node2Vec에 비해 Fast-Node2Vec은 7.7~122배의 속도 향상을 달성합니다. …

타임 스탬프 :

더보기 분석