추천 시스템은 소셜 네트워크에서 전자상거래 플랫폼에 이르기까지 실제 애플리케이션에서 가장 널리 채택되는 기계 학습(ML) 기술 중 하나입니다. 많은 온라인 시스템 사용자는 추천 시스템을 사용하여 새로운 우정을 쌓고, 추천 음악 목록에 따라 새로운 음악을 발견하고, 추천 제품을 기반으로 전자상거래 구매 결정을 내립니다. 소셜 네트워크에서 일반적인 사용 사례 중 하나는 사용자의 다른 연결을 기반으로 사용자에게 새로운 친구를 추천하는 것입니다. 공통 친구가 있는 사용자는 서로를 알고 있을 가능성이 높습니다. 따라서 아직 연결되지 않은 경우 추천 시스템에서 제안할 수 있는 점수가 더 높아야 합니다.
소셜 네트워크는 자연스럽게 그래프로 표현될 수 있는데, 노드는 사람을 나타내고, 우정이나 동료 등 사람 간의 연결은 엣지로 표현됩니다. 다음은 그러한 소셜 네트워크 중 하나를 보여줍니다. Bill, Terry, Henry, Gary 및 Alistair라는 구성원(노드)이 있는 소셜 네트워크가 있다고 가정해 보겠습니다. 이들의 관계는 링크(에지)로 표현되며, 스포츠, 예술, 게임, 만화 등 각 개인의 관심분야는 노드 속성으로 표현됩니다.
여기서의 목표는 구성원 간에 잠재적인 누락된 링크가 있는지 예측하는 것입니다. 예를 들어 헨리와 테리 사이의 연결을 추천해야 할까요? 그래프를 보면 두 사람에게는 서로 친구인 Gary와 Alistair가 있다는 것을 알 수 있습니다. 따라서 헨리와 테리는 이미 서로를 알고 있었거나 곧 알게 될 가능성이 높습니다. 헨리와 빌은 어때요? 그들은 서로 친구가 없지만 친구의 연결을 통해 약한 연결을 가지고 있습니다. 게다가 두 사람은 예술, 만화, 게임에도 비슷한 관심을 가지고 있습니다. 이 연결을 홍보해야 할까요? 이러한 모든 질문과 직관은 소셜 네트워크 추천 시스템의 핵심 논리입니다.
이를 수행하는 한 가지 가능한 방법은 그래프 탐색을 기반으로 관계를 추천하는 것입니다. 다음과 같은 그래프 쿼리 언어에서 아파치 TinkerPop 그렘린, 공통 친구 수 계산과 같은 규칙 세트의 구현은 상대적으로 쉽고 Henry와 Terry 간의 연결을 결정하는 데 사용할 수 있습니다. 그러나 노드 속성, 연결 강도 등과 같은 다른 속성을 설명하려는 경우 이러한 규칙 세트는 매우 복잡합니다. Henry와 Bill 사이의 링크를 결정하는 규칙 세트를 상상해 봅시다. 이 규칙 세트는 그래프의 특정 경로를 통한 공통 관심사와 약한 연결을 설명해야 합니다. 견고성을 높이려면 강한 연결을 선호하고 약한 연결에 불이익을 주기 위해 거리 요소를 추가해야 할 수도 있습니다. 마찬가지로, 우리는 공통의 이익을 선호하는 요소를 원할 것입니다. 머지않아 복잡하고 숨겨진 패턴을 드러낼 수 있는 규칙 세트는 열거할 수 없게 될 것입니다.
ML 기술을 사용하면 알고리즘을 학습하여 숨겨진 패턴을 발견할 수 있습니다. 한 예로 분류 또는 회귀 작업에 널리 사용되는 XGBoost가 있습니다. 그러나 XGBoost와 같은 알고리즘은 표 형식 데이터 형식을 기반으로 하는 기존 ML 접근 방식을 사용합니다. 이러한 접근 방식은 그래프 데이터 구조에 최적화되어 있지 않으며 이러한 데이터 패턴에 대처하려면 복잡한 기능 엔지니어링이 필요합니다.
이전 소셜 네트워크 예에서 그래프 상호 작용 정보는 추천 정확도를 높이는 데 매우 중요합니다. GNN(그래프 신경망)은 그래프 데이터에 적용하여 에지 수준, 노드 수준 또는 그래프 수준 예측 작업을 수행할 수 있는 딥 러닝(DL) 프레임워크입니다. GNN은 그래프 표현과 기본 패턴을 학습할 때 개별 노드 특성과 그래프 구조 정보를 활용할 수 있습니다. 따라서 최근 몇 년 동안 GNN 기반 방법은 많은 추천 시스템 벤치마크에서 새로운 표준을 설정했습니다. 최근 연구 논문에서 더 자세한 정보를 확인하세요: 그래프 신경망에 대한 종합적인 조사 와 그래프 학습 기반 추천 시스템: 검토.
다음은 이러한 사용 사례의 유명한 예입니다. Pinterest의 연구원과 엔지니어는 교육을 받았습니다. 웹 규모 추천 시스템을 위한 그래프 컨벌루션 신경망PinSage라고 불리는 , 핀과 보드를 나타내는 18억 개의 노드와 XNUMX억 개의 에지가 있습니다. PinSage는 핀(온라인 콘텐츠에 대한 시각적 북마크)을 나타내는 고품질 임베딩을 생성합니다. 이는 콘텐츠 검색 및 추천을 위한 학습된 임베딩 공간의 최근접 이웃 조회와 같은 광범위한 다운스트림 추천 작업에 사용될 수 있습니다.
이 게시물에서는 이를 링크 예측 문제로 캐스팅하여 추천 사용 사례에 GNN을 사용하는 방법을 안내합니다. 또한 Neptune ML이 구현을 어떻게 촉진할 수 있는지 설명하겠습니다. 우리는 또한 제공할 것입니다 GitHub의 샘플 코드 Neptune ML을 사용하여 첫 번째 GNN을 교육하고 링크 예측 작업을 통해 데모 그래프에서 추천 추론을 수행합니다.
그래프 신경망을 사용한 링크 예측
이전 소셜 네트워크 사례를 고려하여 Henry에게 새로운 친구를 추천하고 싶습니다. Terry와 Bill 모두 좋은 후보가 될 것입니다. Terry는 Henry와 더 많은 공통된 친구(Gary, Alistair)를 갖고 있지만 공통 관심사는 없습니다. Bill은 Henry와 공통 관심사(예술, 만화, 게임)를 공유하지만 공통 친구는 없습니다. 어느 것이 더 나은 추천이 될까요? 링크 예측 문제로 구성될 때 작업은 두 노드 사이의 가능한 모든 링크에 점수를 할당하는 것입니다. 링크 점수가 높을수록 이 권장 사항이 수렴될 가능성이 높아집니다. 링크 예측 모델은 그래프에 이미 존재하는 링크 구조를 학습함으로써 그래프를 '완성'하는 새로운 링크 예측을 일반화할 수 있습니다.
함수의 매개변수 f
링크 점수를 예측하는 것은 훈련 단계에서 학습됩니다. 기능 이후 f
그래프의 두 노드에 대해 예측을 수행하는 경우 노드와 관련된 특징 벡터는 학습 프로세스에 필수적입니다. Henry와 Bill의 링크 점수를 예측하기 위해 Henry와 Bill을 대표할 수 있는 원시 데이터 특성(예술, 만화, 게임) 세트를 보유하고 있습니다. 우리는 GNN 네트워크를 사용하여 그래프의 연결과 함께 이를 변환하여 노드 임베딩으로 알려진 새로운 표현을 형성합니다. 또한 훈련 과정에서 학습할 수 있는 임베딩 조회 테이블의 벡터로 초기 원시 기능을 보완하거나 대체할 수도 있습니다. 이상적으로는 Henry와 Bill에 포함된 기능이 그래프의 토폴로지 정보뿐만 아니라 관심도를 나타내야 합니다.
GNN 작동 방식
GNN은 다음과 같은 기술을 사용하여 초기 노드 기능을 노드 임베딩으로 변환합니다. 메시지 전달. 메시지 전달 프로세스는 다음 그림에 설명되어 있습니다. 처음에는 노드 속성이나 기능이 숫자 속성으로 변환됩니다. 우리의 경우에는 범주형 특성(Henry의 관심사: 예술, 만화, 게임)을 원-핫 인코딩합니다. 그런 다음 GNN의 첫 번째 레이어는 모든 이웃(Gary 및 Alistair)의 원시 기능(검은색)을 집계하여 새로운 기능 세트(노란색)를 형성합니다. 일반적인 접근 방식은 모든 인접 특성을 선형 변환한 다음 정규화된 합계를 통해 이를 집계하고 결과를 ReLU와 같은 비선형 활성화 함수에 전달하여 새 벡터 세트를 생성하는 것입니다. 다음 그림은 노드에서 메시지 전달이 작동하는 방식을 보여줍니다. 헨리. GNN 메시지 전달 알고리즘인 H는 모든 그래프 노드에 대한 표현을 계산합니다. 이는 나중에 두 번째 레이어의 입력 기능으로 사용됩니다.
GNN의 두 번째 레이어는 동일한 프로세스를 반복합니다. 첫 번째 레이어에서 이전에 계산된 기능(노란색)을 입력으로 사용하고, Gary와 Alistair의 이웃의 새로운 내장 기능을 모두 집계하고, Henry에 대한 두 번째 레이어 기능 벡터(주황색)를 생성합니다. 보시다시피 메시지 전달 메커니즘을 반복하여 기능 집계를 2홉 이웃으로 확장했습니다. 그림에서는 2홉 이웃으로 제한하지만 다른 GNN 레이어를 추가하면 같은 방식으로 3홉 이웃으로 확장할 수 있습니다.
Henry와 Bill(주황색)의 최종 임베딩은 점수 계산에 사용됩니다. 훈련 과정에서 링크 점수는 두 노드 사이에 에지가 있으면 1(양성 샘플), 두 노드 사이에 에지가 없으면(음성 샘플) 0으로 정의됩니다. 그러면 실제 점수와 예측 사이의 오류나 손실이 발생합니다. f(e1,e2)
가중치를 조정하기 위해 이전 레이어로 역전파됩니다. 훈련이 끝나면 각 노드에 내장된 특징 벡터를 사용하여 함수로 링크 점수를 계산할 수 있습니다. f
.
이 예에서는 학습 작업을 단순화했습니다. 동차 그래프, 여기서 모든 노드와 가장자리는 동일한 유형입니다. 예를 들어 그래프의 모든 노드는 "사람" 유형이고 모든 가장자리는 "친구" 유형입니다. 그러나 학습 알고리즘은 노드와 에지 유형이 다른 이종 그래프도 지원합니다. 이전 사용 사례를 확장하여 비슷한 상호 작용과 관심을 공유하는 다양한 사용자에게 제품을 추천할 수 있습니다. 이 연구 논문에서 자세한 내용을 확인하세요. 그래프 컨벌루션 네트워크를 사용하여 관계형 데이터 모델링.
AWS re:Invent 2020에서 우리는 아마존 넵튠 ML이를 통해 고객은 심층적인 ML 전문 지식 없이도 그래프 데이터에서 ML 모델을 학습할 수 있습니다. 이 예에서는 Neptune ML의 도움을 받아 그래프 데이터에 대한 추천 시스템을 구축하는 방법을 보여줍니다.
Amazon Neptune ML을 사용하여 그래프 컨볼루션 네트워크 훈련
Neptune ML은 그래프 신경망 기술을 사용하여 그래프 데이터에 ML 모델을 자동으로 생성, 교육 및 배포합니다. Neptune ML은 노드 분류 및 회귀, 에지 분류 및 회귀, 링크 예측과 같은 일반적인 그래프 예측 작업을 지원합니다.
다음을 통해 구동됩니다.
- 아마존 해왕성: 수십억 개의 관계를 저장하고 밀리초의 대기 시간으로 그래프를 쿼리하는 데 최적화된 빠르고 안정적이며 완벽하게 관리되는 그래프 데이터베이스입니다. Amazon Neptune은 그래프 애플리케이션 구축을 위한 세 가지 개방형 표준인 Apache TinkerPop Gremlin, RDF SPARQL 및 openCypher를 지원합니다. 자세히 알아보기 Amazon Neptune 기능 개요.
- 아마존 세이지 메이커: 모든 개발자와 데이터 과학자에게 ML 모델의 구축, 교육 및 배포를 신속하게 준비할 수 있는 기능을 제공하는 완전 관리형 서비스입니다.
- 딥 그래프 라이브러리 (DGL): 오픈 소스, 그래프의 DL을 위한 확장 가능한 고성능 Python 패키지입니다. 그래프 신경망 훈련을 위한 빠르고 메모리 효율적인 메시지 전달 기본 요소를 제공합니다. Neptune ML은 DGL을 사용하여 워크로드에 가장 적합한 ML 모델을 자동으로 선택하고 교육합니다. 이를 통해 몇 주가 아닌 몇 시간 만에 그래프 데이터에 대한 ML 기반 예측을 수행할 수 있습니다.
Neptune ML을 시작하는 가장 쉬운 방법은 다음을 사용하는 것입니다. AWS CloudFormation 빠른 시작 템플릿. 템플릿은 Neptune DB 클러스터를 포함하여 필요한 모든 구성 요소를 설치하고 Neptune ML용 미리 채워진 노트북 샘플을 사용하여 네트워크 구성, IAM 역할 및 관련 SageMaker 노트북 인스턴스를 설정합니다.
다음 그림은 Neptune ML이 GNN 기반 추천 시스템을 교육하는 다양한 단계를 보여줍니다. 각 단계를 확대하여 관련 내용을 살펴보겠습니다.
-
데이터 내보내기 구성
Neptune ML 프로세스의 첫 번째 단계는 Neptune 클러스터에서 그래프 데이터를 내보내는 것입니다. 데이터 내보내기 작업에 대한 매개변수와 모델 구성을 지정해야 합니다. 우리는 모든 구성과 칭찬을 위해 Neptune Workbench를 사용합니다. 워크벤치를 사용하면 Amazon SageMaker에서 호스팅하는 Jupyter 노트북을 사용하여 Neptune DB 클러스터로 작업할 수 있습니다. 또한, 많은 시간과 노력을 절약할 수 있는 다양한 마법 명령을 노트북에 제공합니다. 내보내기 매개변수의 예는 다음과 같습니다.
In export_params
, Neptune 클러스터 및 출력과 같은 기본 설정을 구성해야 합니다. Amazon Simple Storage Service (S3) 내보낸 데이터 저장 경로입니다. 에 지정된 구성 additionalParams
수행할 ML 작업 유형입니다. 이 예에서 링크 예측은 선택적으로 특정 에지 유형(User-FRIEND-User)을 예측하는 데 사용됩니다. 대상 유형이 지정되지 않으면 Neptune ML은 작업이 링크 예측이라고 가정합니다. 또한 매개변수는 그래프에 저장된 데이터에 대한 세부정보와 ML 모델이 해당 데이터를 해석하는 방법을 지정합니다("사용자"는 노드로, "관심사"는 노드 속성으로 사용됨).
ML 구축 프로세스의 각 단계를 실행하려면 Neptune Workbench 명령을 사용하면 됩니다. 그만큼 해왕성 작업대 이러한 단계를 관리하는 데 많은 시간을 절약할 수 있는 라인 매직과 셀 매직이 포함되어 있습니다. 데이터 내보내기를 실행하려면 Neptune Workbench 명령을 사용하십시오. %neptune_ml export start
내보내기 작업이 완료되면 Neptune 그래프를 CSV 형식으로 내보내고 S3 버킷에 저장하게 됩니다. 두 가지 유형의 파일이 있습니다. nodes.csv
와 edges.csv
. 이름이 지정된 파일 training-data-configuration.json
Neptune ML이 모델 교육을 수행하는 데 필요한 구성이 포함된 파일도 생성됩니다.
만나다 Neptune ML을 위해 Neptune에서 데이터 내보내기
-
데이터 전처리
Neptune ML은 데이터 처리 단계의 일부로 특징 추출 및 인코딩을 수행합니다. 일반적인 유형의 속성 사전 처리에는 원-핫 인코딩을 통한 범주형 기능 인코딩, 숫자 기능 버킷팅, word2vec를 사용하여 문자열 속성 또는 기타 자유 형식 텍스트 속성 값 인코딩 등이 포함됩니다.
이 예에서는 단순히 "interests" 속성을 사용합니다. Neptune ML은 값을 다중 범주형으로 인코딩합니다. 그러나 범주형 값이 복잡한 경우(노드당 2개 단어 이상) Neptune ML은 속성 유형을 텍스트로 추론하고 text_wordXNUMXvec 인코딩을 사용합니다.
데이터 사전 처리를 실행하려면 다음 Neptune 노트북 매직 명령을 사용하십시오. %neptune_ml dataprocessing start
이 단계가 끝나면 모델 훈련 단계에서 사용할 수 있도록 내보낸 데이터 세트에서 DGL 그래프가 생성됩니다. Neptune ML은 다음에 정의된 하이퍼파라미터 최적화 튜닝 작업을 사용하여 모델을 자동으로 튜닝합니다. training-data-configuration.json
. 이 파일을 다운로드하고 수정하여 배치 크기, 숨겨진 숫자, 에포크 횟수, 드롭아웃 등과 같은 모델의 하이퍼파라미터를 조정할 수 있습니다. 샘플 구성.json 파일.
만나다 훈련을 위해 Neptune에서 내보낸 그래프 데이터 처리
-
모델 훈련
다음 단계는 GNN 모델의 자동화된 학습입니다. 모델 훈련은 두 단계로 진행됩니다. 첫 번째 단계에서는 SageMaker 처리 작업을 사용하여 모델 훈련 전략을 생성합니다. 이는 모델 훈련에 사용할 모델 유형과 모델 하이퍼파라미터 범위를 지정하는 구성 세트입니다.
그런 다음 SageMaker 하이퍼파라미터 튜닝 작업이 시작됩니다. 그만큼 SageMaker 하이퍼파라미터 튜닝 최적화 작업 처리된 데이터에 대해 사전 지정된 수의 모델 훈련 작업 시도를 실행하고, 결과에 따라 다양한 하이퍼파라미터 조합을 시도합니다. model-hpo-configuration.json
파일을 생성하고 교육을 통해 생성된 모델 결과물을 출력 Amazon S3 위치에 저장합니다.
훈련 단계를 시작하려면 다음을 사용할 수 있습니다. %neptune_ml training start
명령.
모든 훈련 작업이 완료되면 하이퍼파라미터 튜닝 작업은 추론에 사용되는 최고 성능 모델의 아티팩트를 저장합니다.
훈련이 끝나면 Neptune ML은 훈련된 모델, 노드와 에지에 대해 계산된 원시 임베딩, 임베딩과 노드 인덱스 간의 매핑 정보를 저장하도록 SageMaker에 지시합니다.
-
Amazon SageMaker에서 추론 엔드포인트 생성
이제 그래프 표현이 학습되었으므로 학습된 모델을 엔드포인트 뒤에 배포하여 추론 요청을 수행할 수 있습니다. 모델 입력은 에지 유형과 함께 친구의 추천을 생성해야 하는 사용자이며, 출력은 해당 사용자에게 추천될 가능성이 있는 친구 목록이 됩니다.
SageMaker 엔드포인트 인스턴스에 모델을 배포하려면 다음을 사용하십시오. %neptune_ml endpoint create
명령.
-
Gremlin을 사용하여 ML 모델 쿼리
엔드포인트가 준비되면 이를 그래프 추론 쿼리에 사용할 수 있습니다. Neptune ML은 Gremlin 또는 SPARQL에서 그래프 추론 쿼리를 지원합니다. 이 예에서는 이제 사용자 "Henry"에 대해 Neptune ML을 사용하여 친구 추천을 확인할 수 있습니다. Edge를 통과하려면 거의 동일한 구문이 필요하며 FRIEND 연결을 통해 Henry와 연결된 다른 사용자를 나열합니다.
Neptune#ml.prediction
소셜 그래프에서 방금 훈련한 모델을 사용하여 Neptune ML 예측에 의해 결정된 연결을 반환합니다. Bill은 우리가 기대한 대로 반환됩니다.
다음은 Henry와 연결될 가능성이 가장 높은 상위 XNUMX명의 사용자를 예측하는 데 사용되는 또 다른 샘플 예측 쿼리입니다.
결과는 강한 연결에서 약한 연결로 순위가 매겨집니다. Henry — FRIEND — Colin and Henry — FRIEND — Terry
제안되기도 합니다. 이 제안은 그래프의 복잡한 상호 작용 패턴을 탐색할 수 있는 그래프 기반 ML을 통해 이루어집니다.
그래프 데이터 변경 시 모델 변환 또는 재학습
또 다른 질문은 다음과 같습니다. 내 소셜 네트워크가 변경되거나 새로 추가된 사용자에게 추천을 하고 싶다면 어떻게 해야 합니까? 그래프가 지속적으로 변경되는 이러한 시나리오에서는 최신 그래프 데이터로 ML 예측을 업데이트해야 할 수도 있습니다. 훈련 후 생성된 모델 아티팩트는 훈련 그래프에 직접 연결됩니다. 이는 원래 훈련 그래프의 엔터티가 변경되면 추론 끝점을 업데이트해야 함을 의미합니다.
그러나 업데이트된 그래프에 대해 예측을 하기 위해 전체 모델을 재교육할 필요는 없습니다. 증분 모델 추론 워크플로를 사용하면 Neptune DB 데이터를 내보내고 증분 데이터 전처리를 수행하고 모델 일괄 변환 작업을 실행한 다음 추론 엔드포인트를 업데이트하기만 하면 됩니다. 모델 변환 단계에서는 기본 워크플로에서 훈련된 모델을 사용하고 증분 데이터 전처리 단계의 결과를 입력으로 사용합니다. 그런 다음 추론에 사용할 새로운 모델 아티팩트를 출력합니다. 이 새로운 모델 아티팩트는 최신 그래프 데이터에서 생성됩니다.
여기서 특별히 초점을 맞춘 것 중 하나는 모델 변환 단계 명령입니다. 모델 훈련에 사용되지 않은 그래프 데이터에 대한 모델 아티팩트를 계산할 수 있습니다. 노드 임베딩이 다시 계산되고 기존 노드 임베딩이 재정의됩니다. Neptune ML은 이전 훈련 모델에서 학습된 GNN 인코더를 새로운 기능이 포함된 새 그래프 데이터 노드에 적용합니다. 따라서 새 그래프 데이터는 동일한 기능 인코딩을 사용하여 처리되어야 하며 원본 그래프 데이터와 동일한 그래프 스키마를 준수해야 합니다. Neptune ML 구현에 대한 자세한 내용은 다음에서 확인하세요. 새로운 모델 아티팩트 생성.
또한 그래프가 급격하게 변경되거나 이전에 훈련된 모델이 기본 상호 작용을 더 이상 정확하게 나타낼 수 없는 경우 전체 모델을 다시 훈련할 수 있습니다. 이 경우 학습된 모델 매개변수를 새 그래프에 재사용하면 유사한 모델 성능을 보장할 수 없습니다. 새 그래프에서 모델을 다시 훈련해야 합니다. 하이퍼파라미터 검색을 가속화하기 위해 Neptune ML은 웜 스타트를 통해 이전 모델 교육 작업의 정보를 활용할 수 있습니다. 이전 교육 작업의 결과는 새 튜닝 작업을 검색할 하이퍼파라미터의 좋은 조합을 선택하는 데 사용됩니다.
만나다 변화하는 그래프 데이터를 처리하기 위한 워크플로 자세한 내용은.
결론
이 게시물에서는 Neptune ML 및 GNN이 그래프의 복잡한 상호 작용 패턴의 정보를 결합하여 링크 예측 작업을 사용하여 그래프 데이터에 대한 권장 사항을 제공하는 데 어떻게 도움이 되는지 확인했습니다.
링크 예측은 추천 시스템을 그래프로 구현하는 한 가지 방법입니다. 다양한 방법으로 추천자를 구성할 수 있습니다. 링크 예측 훈련 중에 학습된 임베딩을 사용하여 감독되지 않은 방식으로 노드를 다른 세그먼트로 클러스터링하고 동일한 세그먼트에 속한 노드에 항목을 추천할 수 있습니다. 또한 임베딩을 획득하여 다운스트림 유사성 기반 추천 시스템에 입력 기능으로 공급할 수 있습니다. 이제 이 추가 입력 기능은 그래프에서 파생된 의미 정보도 인코딩하고 시스템의 전반적인 정밀도를 크게 향상시킬 수 있습니다. 다음을 방문하여 Amazon Neptune ML에 대해 자세히 알아보세요. 웹 사이트 또는 댓글로 질문을 남겨주세요!
저자에 관하여
얀웨이 추이, PhD는 AWS의 기계 학습 전문가 솔루션 아키텍트입니다. 그는 IRISA(컴퓨터 과학 및 랜덤 시스템 연구소)에서 기계 학습 연구를 시작했으며 컴퓨터 비전, 자연어 처리 및 온라인 사용자 행동 예측 분야에서 인공 지능 기반 산업 응용 프로그램을 구축한 경험이 있습니다. AWS에서 그는 도메인 전문 지식을 공유하고 고객이 비즈니스 잠재력을 발휘할 수 있도록 돕고 대규모 기계 학습을 통해 실행 가능한 결과를 이끌어냅니다. 일 외에는 독서와 여행을 즐깁니다.
윌 바드르 글로벌 Amazon Machine Learning 팀의 일원으로 일하는 수석 AI/ML 전문가 SA입니다. Will은 커뮤니티에 긍정적인 영향을 미치기 위해 혁신적인 방식으로 기술을 사용하는 데 열정적입니다. 여가 시간에는 다이빙, 축구, 태평양 제도 탐험을 즐깁니다.
- '
- "
- 100
- 2020
- 7
- 소개
- 에 따르면
- 계정
- 또한
- 추가
- 연산
- 알고리즘
- All
- 이미
- 아마존
- 아마존 머신 러닝
- 아마존 세이지 메이커
- 아파치
- 어플리케이션
- 인조의
- 인공 지능
- 예술
- 자동화
- AWS
- AWS 재 : 발명
- 처음
- BEST
- 지폐
- 억원
- 검정
- 빌드
- 건물
- 사업
- 가지 경우
- 과제
- 분류
- 암호
- 공통의
- 커뮤니티
- 복잡한
- 계산
- 컴퓨터 과학
- 컴퓨터 비전
- 컴퓨팅
- 구성
- 연결
- 연결
- 콘솔에서
- 함유량
- 모이다
- 수
- 고객
- 데이터
- 데이터 과학자
- 데이터 저장
- 데이터베이스
- 거래
- 깊은 학습
- 개발자
- 다른
- 발견
- 거리
- 전자 상거래
- Edge
- 종점
- 엔지니어링
- 엔지니어
- 등
- 예
- 경험
- 탐구
- 수출
- 추출
- FAST
- 특색
- 특징
- 그림
- 먼저,
- 초점
- 형태
- 체재
- 뼈대
- 무료
- 우정
- 기능
- Games
- 생성
- 글로벌
- 좋은
- 신경망 그래프
- 큰
- 처리
- 도움
- 도움이
- 여기에서 지금 확인해 보세요.
- 방법
- How To
- HTTPS
- IAM
- 영향
- 구현
- 개선
- 포함
- 증가
- 개인
- 산업
- 정보
- 혁신적인
- 인텔리전스
- 상호 작용
- 이해
- IT
- 일
- 작업
- 언어
- 언어
- 배우다
- 배운
- 배우기
- 이점
- 도서관
- 라인
- LINK
- 명부
- 기울기
- 위치
- 찾고
- 조회
- 기계 학습
- 회원
- 밀리 초
- ML
- 모델
- 음악
- 자연어
- 자연 언어 처리
- 필요
- 이웃
- 네트워크
- 네트워크
- 신경
- 신경망
- 신경망
- 새로운 기능
- 노드
- 노트북
- 온라인
- 열 수
- 기타
- 태평양
- 서
- 사람들
- 성능
- 상
- 플랫폼
- 연극
- Precision
- 예측
- 예측
- 제시
- 교장
- 문제
- 방법
- 제품
- 프로필
- 홍보
- 재산
- 제안
- 제공
- 제공
- 매수
- Python
- 문제
- 범위
- 살갗이 벗어 진
- 원시 데이터
- RE
- 읽기
- 되돌아옴
- 관계
- 교체
- 연구
- 결과
- 재교육
- 반품
- 달리기
- 현자
- 규모
- 과학
- 검색
- 세트
- 공유
- 공유
- 비슷한
- 단순, 간단, 편리
- 작은
- 축구
- 사회적
- 소셜 그래프
- 소셜 네트워크
- 소셜 네트워크
- 솔루션
- 스페이스 버튼
- 스포츠
- 단계
- 기준
- 스타트
- 시작
- 저장
- 상점
- 전략
- 보충
- 지원
- 설문조사
- 체계
- 시스템은
- 목표
- 기술
- Technology
- 그래프
- 을 통하여
- 시간
- 상단
- 트레이닝
- 변환
- 변환
- 업데이트
- us
- 사용자
- 가치
- 시력
- 뭐
- 누구
- 크게
- 위키 백과
- 없이
- 말
- 작업
- 워크플로우
- 일
- 겠지
- 년
- 줌