조직학은 도입된 지 1,2년 이상이 지난 후에도 종양 진단 및 예후의 표준으로 남아 있습니다. 해부학적 병리학자는 조직학을 평가하여 암 환자의 종양 유전자형과 표현형, 임상 결과에 따라 여러 그룹으로 계층화합니다[3]. 그러나 조직학적 슬라이드에 대한 인간의 평가는 주관적이며 반복 가능하지 않습니다[XNUMX]. 또한, 조직학적 평가는 고도로 훈련된 전문가가 필요한 시간 소모적인 프로세스입니다.
지난 XNUMX년 동안 상당한 기술 발전을 통해 이제 전체 슬라이드 이미징(WSI) 및 딥 러닝(DL)과 같은 기술을 널리 사용할 수 있습니다. WSI는 기존 현미경 유리 슬라이드를 스캐닝하여 해당 슬라이드에서 단일 고해상도 이미지를 생성합니다. 이를 통해 엄청나게 많은 시간과 비용이 소요되는 대규모 병리학 이미지 세트를 디지털화하고 수집할 수 있습니다. 이러한 데이터 세트의 가용성은 기계 학습(ML)과 같은 기술을 사용하여 병리학자가 관심 있는 특징을 신속하게 식별하여 진단을 가속화함으로써 진단을 가속화하는 새롭고 혁신적인 방법을 만듭니다.
이번 게시물에서는 ML 경험이 없는 개발자가 ML을 어떻게 사용할 수 있는지 살펴보겠습니다. Amazon Rekognition 사용자 지정 레이블 세포 특징을 분류하는 모델을 훈련합니다. Amazon Rekognition 사용자 정의 레이블은 다음의 기능입니다. 아마존 인식 이를 통해 특정 사용 사례에 필수적인 고유한 개체와 장면을 감지하는 전문적인 ML 기반 이미지 분석 기능을 구축할 수 있습니다. 특히, 우리는 개 유방 암종의 전체 슬라이드 이미지가 포함된 데이터세트를 사용하여 이러한 이미지를 처리하는 방법을 보여주고 유사분열 수치를 감지하는 모델을 훈련시킵니다. 이 데이터 세트는 Marc Aubreville 교수의 허가를 받아 사용되었으며, 그는 이 게시물에 사용하는 데 친절하게 동의했습니다. 자세한 내용은 이 게시물 끝에 있는 감사 인사 섹션을 참조하세요.
솔루션 개요
솔루션은 두 가지 구성 요소로 구성됩니다.
- Amazon Rekognition 사용자 정의 레이블 모델 — Amazon Rekognition을 활성화하여 유사분열 수치를 감지하려면 다음 단계를 완료합니다.
- WSI 데이터 세트를 샘플링하여 적절한 크기의 이미지를 생성합니다. 아마존 세이지 메이커 스튜디오 Jupyter 노트북에서 실행되는 Python 코드입니다. Studio는 생산성을 높이면서 모델을 실험에서 프로덕션으로 전환하는 데 필요한 모든 도구를 제공하는 웹 기반 ML용 통합 개발 환경(IDE)입니다. Studio를 사용하여 이미지를 더 작은 이미지로 분할하여 모델을 교육하겠습니다.
- 이전 단계에서 준비한 데이터를 사용하여 헤마톡실린-에오신 샘플의 유사분열 수치를 인식하도록 Amazon Rekognition Custom Labels 모델을 훈련합니다.
- 프런트엔드 애플리케이션 — 이전 단계에서 훈련한 것과 같은 모델을 사용하는 방법을 보여주기 위해 다음 단계를 완료합니다.
다음 다이어그램은 솔루션 아키텍처를 보여줍니다.
이 게시물에서 논의된 구현을 배포하는 데 필요한 모든 리소스와 전체 섹션의 코드는 다음에서 사용할 수 있습니다. GitHub의. 저장소를 복제하거나 포크하고, 원하는 대로 변경하고, 직접 실행할 수 있습니다.
다음 단계에서는 데이터 획득 및 준비, 모델 교육, 샘플 애플리케이션에서 사용과 관련된 다양한 단계를 이해하기 위해 코드를 살펴봅니다.
비용
이 연습의 단계를 실행할 때 다음 AWS 서비스를 사용하면 소액의 비용이 발생합니다.
- 아마존 인식
- AWS 파게이트
- 애플리케이션로드 밸런서
- AWS 비밀 관리자
또한 더 이상 프리 티어 기간 또는 조건이 적용되지 않는 경우 다음 서비스로 인해 비용이 발생할 수 있습니다.
- 코드 파이프라인
- 코드빌드
- 아마존 ECR
- 아마존 세이지 메이커
이 연습을 마친 후 정리 단계를 올바르게 완료하면 Amazon Rekognition Custom Labels 모델과 웹 애플리케이션이 10시간 이하로 실행될 경우 비용이 XNUMX USD 미만이 될 것으로 예상할 수 있습니다.
사전 조건
모든 단계를 완료하려면 다음이 필요합니다.
유사분열 그림 분류 모델 훈련
Studio 노트북에서 모델을 훈련하는 데 필요한 모든 단계를 실행합니다. 이전에 Studio를 사용해 본 적이 없다면 다음을 수행해야 할 수도 있습니다. 온보드 첫 번째. 자세한 내용은 다음을 참조하세요. Amazon SageMaker Studio에 빠르게 온 보딩.
다음 단계 중 일부에는 표준 ml.t3.medium 노트북에서 사용 가능한 것보다 더 많은 RAM이 필요합니다. ml.m5.large 노트북을 선택했는지 확인하세요. 페이지 오른쪽 상단에 2 vCPU + 8 GiB 표시가 표시됩니다.
이 섹션의 코드는 Jupyter 노트북 파일.
Studio에 온보딩한 후 팔로우하세요. 이러한 지침 사용자를 대신하여 Amazon Rekognition을 호출하는 데 필요한 권한을 Studio에 부여합니다.
종속성
먼저 다음 단계를 완료해야 합니다.
- Linux 패키지를 업데이트하고 OpenSlide와 같은 필수 종속성을 설치합니다.
- pip를 사용하여 fastai 및 SlideRunner 라이브러리를 설치합니다.
- 데이터 세트를 다운로드합니다(이 작업을 자동으로 수행하는 스크립트 제공).
데이터 세트 처리
데이터 준비 단계 전체에서 사용하는 일부 패키지를 가져오는 것부터 시작하겠습니다. 그런 다음 이 데이터 세트에 대한 주석 데이터베이스를 다운로드하고 로드합니다. 이 데이터베이스에는 유사분열 수치(분류하려는 특징)의 전체 슬라이드 이미지 위치가 포함되어 있습니다. 다음 코드를 참조하세요.
SageMaker를 사용하고 있으므로 새 SageMaker를 생성합니다. 세션 데이터 세트를 업로드하는 등의 작업을 쉽게 하기 위한 개체 아마존 단순 스토리지 서비스 (Amazon S3) 버킷. 또한 SageMaker가 기본적으로 생성하는 S3 버킷을 사용하여 처리된 이미지 파일을 업로드합니다.
XNUMXD덴탈의 slidelist_test
배열에는 학습된 모델의 성능을 평가하기 위해 테스트 데이터세트의 일부로 사용하는 슬라이드의 ID가 포함되어 있습니다. 다음 코드를 참조하세요.
다음 단계는 일련의 훈련 및 테스트 슬라이드 영역과 그 안의 레이블을 얻는 것입니다. 이 영역에서 모델 훈련에 사용할 더 작은 영역을 선택할 수 있습니다. get_slides의 코드는 다음의 sampling.py 파일에 있습니다. GitHub의.
훈련 및 테스트 슬라이드에서 무작위로 샘플링하려고 합니다. 훈련 및 테스트 슬라이드 목록을 사용하여 무작위로 선택합니다. n_training_images
훈련을 위해 파일의 시간을 계산하고 n_test_images
테스트용 파일의 시간을 계산합니다.
다음으로 학습 이미지용 디렉터리와 테스트 이미지용 디렉터리를 만듭니다.
모델 훈련에 필요한 작은 이미지를 생성하기 전에 훈련 및 테스트 데이터를 설명하는 데 필요한 메타데이터를 생성하는 도우미 코드가 필요합니다. 다음 코드는 관심 있는 특징(유사분열 그림)을 둘러싼 주어진 경계 상자가 절단 중인 영역 내에 있는지 확인하고 이미지와 그 안의 특징을 설명하는 JSON 줄을 생성합니다. 아마존 세이지 메이커 그라운드 진실 이는 Amazon Rekognition Custom Labels에 필요한 형식입니다. 개체 감지를 위한 이 매니페스트 파일에 대한 자세한 내용은 다음을 참조하세요. 매니페스트 파일의 개체 현지화.
와 더불어 generate_annotations
함수가 준비되면 훈련 및 테스트 이미지를 생성하는 코드를 작성할 수 있습니다.
필요한 모든 데이터를 확보하기 위한 마지막 단계는 다음을 작성하는 것입니다. manifest.json
각 데이터 세트에 대한 파일:
S3로 파일 전송
우리는을 사용하여 upload_data
기본 SageMaker S3 버킷에 이미지와 매니페스트 파일을 업로드하기 위해 SageMaker 세션 객체가 노출하는 메서드:
Amazon Rekognition Custom Labels 모델 훈련
Amazon S3에 이미 있는 데이터를 사용하여 사용자 지정 모델을 교육할 수 있습니다. Boto3 라이브러리를 사용하여 Amazon Rekognition 클라이언트를 생성하고 프로젝트를 생성합니다.
프로젝트를 사용할 준비가 되었으므로 이제 Amazon S3의 교육 및 테스트 데이터 세트를 가리키는 프로젝트 버전이 필요합니다. 각 버전은 이상적으로 서로 다른 데이터 세트(또는 다른 버전)를 가리킵니다. 이를 통해 우리는 모델의 다양한 버전을 보유하고, 성능을 비교하고, 필요에 따라 모델 간에 전환할 수 있습니다. 다음 코드를 참조하세요.
프로젝트 버전을 생성하면 Amazon Rekognition이 자동으로 훈련 프로세스를 시작합니다. 학습 시간은 이미지 크기, 이미지 수, 클래스 수 등과 같은 여러 기능에 따라 달라집니다. 이 경우 500개의 이미지에 대해 학습을 완료하는 데 약 90분이 소요됩니다.
모델 테스트
훈련 후 Amazon Rekognition Custom Labels의 모든 모델은 STOPPED
상태. 추론에 사용하려면 시작해야 합니다. 프로젝트 버전 설명에서 프로젝트 버전 ARN을 가져와서 start_project_version
. 주의 MinInferenceUnits
매개변수 - 하나의 추론 단위로 시작합니다. 이 추론 장치가 지원하는 실제 최대 초당 트랜잭션 수(TPS)는 모델의 복잡성에 따라 다릅니다. TPS에 대한 자세한 내용은 다음을 참조하세요. 블로그 게시물.
프로젝트 버전이 다음과 같이 나열되면 RUNNING
, 추론을 위해 Amazon Rekognition으로 이미지 전송을 시작할 수 있습니다.
테스트 데이터 세트의 파일 중 하나를 사용하여 새로 시작된 모델을 테스트합니다. 대신 적절한 PNG 또는 JPEG 파일을 사용할 수 있습니다.
간소화된 애플리케이션
Amazon Rekognition과의 통합을 시연하기 위해 매우 간단한 Python 애플리케이션을 사용합니다. 우리는 스트림릿 사용자에게 이미지 파일을 업로드하라는 메시지를 표시하는 스파르타식 사용자 인터페이스를 구축하기 위한 라이브러리입니다.
우리는 Boto3 라이브러리를 사용합니다. detect_custom_labels
메서드를 프로젝트 버전 ARN과 함께 사용하여 추론 엔드포인트를 호출합니다. 응답은 이미지에서 감지된 다양한 객체의 위치와 클래스를 포함하는 JSON 문서입니다. 우리의 경우, 이는 우리가 끝점으로 보낸 이미지에서 알고리즘이 찾은 유사분열 수치입니다. 다음 코드를 참조하세요.
AWS에 애플리케이션 배포
애플리케이션을 배포하기 위해 AWS CDK 스크립트를 사용합니다. 전체 프로젝트는 다음에서 찾을 수 있습니다. GitHub의 . 스크립트에 의해 배포된 다양한 리소스를 살펴보겠습니다.
Amazon ECR 리포지토리 생성
배포 설정을 위한 첫 번째 단계로 애플리케이션 컨테이너 이미지를 저장할 수 있는 Amazon ECR 리포지토리를 생성합니다.
AWS Secrets Manager에서 GitHub 토큰 생성 및 저장
CodePipeline에서는 GitHub 리포지토리의 변경 사항과 풀 코드를 모니터링하려면 GitHub 개인 액세스 토큰이 필요합니다. 토큰을 만들려면 다음 지침을 따르세요. GitHub 문서. 토큰에는 다음 GitHub 범위가 필요합니다.
- XNUMXD덴탈의
repo
범위는 공용 및 개인 저장소에서 아티팩트를 읽고 파이프라인으로 가져오는 전체 제어에 사용됩니다. - XNUMXD덴탈의
admin:repo_hook
저장소 후크를 완전히 제어하는 데 사용되는 범위입니다.
토큰을 만든 후 새 보안 비밀에 저장하세요. AWS 비밀 관리자 다음과 같이 :
AWS Systems Manager Parameter Store에 구성 매개변수 쓰기
AWS CDK 스크립트는 다음에서 일부 구성 매개변수를 읽습니다. AWS Systems Manager 파라미터 스토어, GitHub 리포지토리의 이름 및 소유자, 대상 계정 및 지역 등. AWS CDK 스크립트를 시작하기 전에 자신의 계정에서 이러한 매개변수를 생성해야 합니다.
AWS CLI를 사용하여 이를 수행할 수 있습니다. 간단히 호출 put-parameter
이름, 값, 매개변수 유형이 포함된 명령:
다음은 AWS CDK 스크립트에 필요한 모든 매개변수 목록입니다. 모두 종류가 있어요 String
:
- /rek_wsi/prod/accountId — 애플리케이션을 배포하는 계정의 ID입니다.
- /rek_wsi/prod/ecr_repo_name — 컨테이너 이미지가 저장되는 Amazon ECR 리포지토리의 이름입니다.
- /rek_wsi/prod/github/branch — CodePipeline이 코드를 가져와야 하는 GitHub 리포지토리의 분기입니다.
- /rek_wsi/prod/github/owner — GitHub 저장소의 소유자입니다.
- /rek_wsi/prod/github/repo — 코드가 저장된 GitHub 저장소의 이름입니다.
- /rek_wsi/prod/github/token — GitHub 인증 토큰이 포함된 Secrets Manager의 비밀 이름 또는 ARN입니다. 이는 CodePipeline이 GitHub와 통신하는 데 필요합니다.
- /rek_wsi/prod/region — 애플리케이션을 배포할 지역입니다.
공지 사항 prod
모든 매개변수 이름의 세그먼트입니다. 비록 간단한 예에서는 이러한 세부 수준이 필요하지 않지만, 다른 환경이 필요할 수 있는 다른 프로젝트에서 이 접근 방식을 재사용할 수 있습니다.
AWS CDK 스크립트로 생성된 리소스
Amazon Rekognition을 호출할 수 있는 권한을 얻으려면 Fargate 작업에서 실행되는 애플리케이션이 필요합니다. 그래서 우리는 먼저 AWS 자격 증명 및 액세스 관리 (IAM) 작업 역할 RekognitionReadOnlyPolicy
정책이 첨부되어 있습니다. 주의할 점은 assumed_by
다음 코드의 매개변수는 ecs-tasks.amazonaws.com
서비스 교장. 이는 Amazon ECS를 오케스트레이터로 사용하고 있기 때문에 역할을 맡고 자격 증명을 Fargate 작업에 전달하려면 Amazon ECS가 필요하기 때문입니다.
일단 구축되면 애플리케이션 컨테이너 이미지는 프라이빗 Amazon ECR 리포지토리에 저장됩니다. Fargate 서비스를 생성할 때 전달할 수 있는 이를 설명하는 객체가 필요합니다.
이 애플리케이션을 위한 새 VPC와 클러스터를 생성합니다. 이 부분을 다음을 사용하여 자체 VPC를 사용하도록 수정할 수 있습니다. from_lookup
방법 Vpc
수업:
이제 배포할 VPC와 클러스터가 있으므로 Fargate 서비스를 생성합니다. 이 작업에는 0.25 vCPU와 512MB RAM을 사용하고 그 앞에 공용 애플리케이션 로드 밸런서(ALB)를 배치합니다. 배포되면 ALB CNAME을 사용하여 애플리케이션에 액세스합니다. 다음 코드를 참조하세요.
코드를 메인 브랜치에 푸시할 때마다 새 컨테이너 이미지를 자동으로 빌드하고 배포하기 위해 GitHub 소스 작업과 빌드 단계로 구성된 간단한 파이프라인을 만듭니다. 여기에서는 이전 단계에서 AWS Secrets Manager 및 AWS Systems Manager Parameter Store에 저장한 비밀을 사용합니다.
CodeBuild에는 컨테이너 이미지를 Amazon ECR에 푸시할 권한이 필요합니다. 이러한 권한을 부여하기 위해 다음을 추가합니다. AmazonEC2ContainerRegistryFullAccess
CodeBuild 서비스 주체가 맡을 수 있는 맞춤형 IAM 역할에 대한 정책:
CodeBuild 프로젝트는 프라이빗 Amazon ECR 리포지토리에 로그인하고 Streamlit 애플리케이션을 사용하여 Docker 이미지를 빌드한 다음 해당 이미지를 appspec.yaml
및 imagedefinitions.json
파일.
XNUMXD덴탈의 appspec.yaml
파일은 작업(포트, Fargate 플랫폼 버전 등)을 설명하고, imagedefinitions.json
파일은 컨테이너 이미지의 이름을 해당 Amazon ECR URI에 매핑합니다. 다음 코드를 참조하세요.
마지막으로 다양한 파이프라인 단계를 하나로 묶습니다. 마지막 동작은 EcsDeployAction
, 이전 단계에서 구축된 컨테이너 이미지를 가져와 ECS 클러스터의 작업을 순차적으로 업데이트합니다.
대청소
향후 비용이 발생하지 않도록 하려면 이 솔루션의 일부로 생성한 리소스를 정리하십시오.
Amazon Rekognition 사용자 정의 레이블 모델
Studio 노트북을 종료하기 전에 Amazon Rekognition Custom Labels 모델을 중지했는지 확인하십시오. 그렇지 않으면 계속해서 비용이 발생합니다.
또는 Amazon Rekognition 콘솔을 사용하여 서비스를 중지할 수 있습니다.
- Amazon Rekognition 콘솔에서 맞춤 라벨 사용 탐색 창에서
- 왼쪽 메뉴에서 프로젝트 탐색 창에서
- 버전 1을 선택하세요.
rek-mitotic-figures-workshop
프로젝트. - 에 모델 사용 탭에서 중지.
간소화된 애플리케이션
Streamlit 애플리케이션과 연결된 모든 리소스를 삭제하려면 AWS CDK 애플리케이션 디렉터리에서 다음 코드를 실행합니다.
AWS 비밀 관리자
GitHub 토큰을 삭제하려면 다음 지침을 따르세요. 선적 서류 비치.
결론
이 게시물에서는 실제 데이터를 사용하여 디지털 병리학 애플리케이션을 위한 Amazon Rekognition Custom Labels 모델을 훈련하는 데 필요한 단계를 살펴보았습니다. 그런 다음 CI/CD 파이프라인에서 Fargate로 배포된 간단한 애플리케이션에서 모델을 사용하는 방법을 배웠습니다.
Amazon Rekognition Custom Labels를 사용하면 Fargate, CodeBuild 및 CodePipeline과 같은 서비스를 사용하여 쉽게 구축하고 배포할 수 있는 ML 지원 의료 애플리케이션을 구축할 수 있습니다.
연구원, 의사 또는 환자의 삶을 더 쉽게 만드는 데 도움이 되는 응용 프로그램을 생각할 수 있습니까? 그렇다면 이 연습의 코드를 사용하여 다음 애플리케이션을 빌드하세요. 질문이 있으시면 댓글 섹션에서 공유해 주세요.
감사의
이 블로그 게시물에 MITOS_WSI_CMC 데이터 세트를 사용할 수 있도록 친절하게 허락해주신 Marc Aubreville 교수에게 감사드립니다. 데이터세트는 다음에서 찾을 수 있습니다. GitHub의.
참고자료
[1] Aubreville, M., Bertram, CA, Donovan, TA 외. 인간 유방암 연구를 돕기 위해 개 유방암에 대한 주석이 완전히 달린 전체 슬라이드 이미지 데이터세트입니다. 과학 데이터 7, 417(2020). https://doi.org/10.1038/s41597-020-00756-z
[2] Kened, M., Kori, A., Rajkumar, H. et al. 전체 슬라이드 이미지 분할 및 분석을 위한 일반화된 딥러닝 프레임워크입니다. Sci Rep 11, 11579 (2021). https://doi.org/10.1038/s41598-021-90444-8
[3] PNAS 27년 2018월 115일 13 (2970) E2979-E12; 2018년 XNUMX월 XNUMX일에 처음 출판되었습니다. https://doi.org/10.1073/pnas.1717139115
저자에 관하여
파블로 누녜스 푈체르, MSc는 Amazon Web Services의 공공 부문 팀에서 일하는 수석 솔루션 설계자입니다. Pablo는 의료 공공 부문 고객이 모범 사례에 따라 AWS에서 새롭고 혁신적인 제품을 구축하도록 돕는 데 중점을 두고 있습니다. 그는 M.Sc.를 받았습니다. 부에노스아이레스 대학교에서 생물학을 전공했습니다. 여가 시간에는 사이클링을 즐기고 ML 지원 임베디드 장치를 만지작거리는 것을 즐깁니다.
라즈반 이오나세크, PhD, MBA는 유럽, 중동 및 아프리카의 Amazon Web Services에서 의료 분야의 기술 리더입니다. 그의 업무는 의료 고객이 기술을 활용하여 비즈니스 문제를 해결할 수 있도록 돕는 데 중점을 두고 있습니다. 이전에 Razvan은 Siemens Healthineers에서 AI 기반 및 클라우드 기반 이미징 디지털 건강 솔루션 제품군인 AI-Rad Companion을 담당하는 인공 지능(AI) 제품의 글로벌 책임자였습니다. 그는 의료 영상을 위한 AI/ML 분야에서 30개 이상의 특허를 보유하고 있으며 컴퓨터 비전, 컴퓨터 모델링 및 의료 영상 분석에 관한 70개 이상의 국제 동료 검토 기술 및 임상 간행물을 출판했습니다. Razvan은 뮌헨 공과대학교에서 컴퓨터 과학 박사 학위를 취득했고, 저지 비즈니스 스쿨(Judge Business School)의 케임브리지 대학교에서 MBA를 취득했습니다.
- '
- "
- &
- 100
- 11
- 110
- 2020
- 2021
- 7
- 소개
- 가속
- ACCESS
- 계정
- 동작
- 아프리카
- AI
- 연산
- All
- 이미
- 이기는하지만
- 아마존
- 아마존 인식
- 아마존 세이지 메이커
- Amazon Web Services
- 분석
- 어플리케이션
- 어플리케이션
- APT
- 아키텍처
- 인조의
- 인공 지능
- 인공 지능(AI)
- 자산
- 인증
- 유효성
- 가능
- AWS
- 그네
- BEST
- 모범 사례
- 블로그
- 증폭
- 보물상자
- 유방암
- 빌드
- 사업
- 전화
- 캠브리지
- 얻을 수 있습니다
- 게자리
- 암 연구
- 요금
- 분류
- 암호
- 수집
- 댓글
- 컴퓨터 과학
- 컴퓨터 비전
- 자신
- 구성
- 콘솔에서
- 컨테이너
- 용기
- 이 포함되어 있습니다
- 계속
- 비용
- 만들기
- 신임장
- 고객
- 데이터
- 데이터베이스
- 데이터베이스
- 깊은 학습
- 파괴
- 세부 묘사
- Detection System
- 개발자
- 개발
- 디바이스
- 다른
- 디지털
- 디지털 건강
- 디지털화
- 도커
- 의사
- 아래 (down)
- 용이하게
- 에코
- 종점
- 환경
- 유럽
- 예
- 경험
- 수출
- 가족
- 특색
- 특징
- 그림
- 먼저,
- 따라
- 포크
- 체재
- 발견
- 뼈대
- 무료
- 가득 찬
- 기능
- 미래
- 생성
- 기하학
- GitHub의
- 기부
- 글로벌
- 덴탈
- 부여
- 보조금
- 데
- 머리
- 건강
- 건강 관리
- 도움
- 여기에서 지금 확인해 보세요.
- 방법
- How To
- HTTPS
- IAM
- 통합 인증
- 영상
- 이미지 분석
- 이미지 분할
- 영상
- 가져 오기
- 정보
- 혁신적인
- 완전한
- 완성
- 인텔리전스
- 관심
- 국제 노동자 동맹
- 참여
- IT
- 주피터 수첩
- 레이블
- 넓은
- 최근
- 진수
- 배우다
- 배운
- 배우기
- 레벨
- 도서관
- 라인
- 리눅스
- 명부
- 기울기
- 하중
- 현지화
- 기계 학습
- 지도
- 삼월
- 의료
- 의료 이미징
- 매질
- 중동
- ML
- 모델
- 모델링
- 모델
- 배우기
- 뮌헨
- 이름
- 카테고리
- 필요
- 객체 감지
- 온 보딩
- 기타
- 소유자
- 특허
- 병리학
- 환자
- 성능
- 확인
- 플랫폼
- 정책
- 교장
- 사설
- 방법
- 생산
- 생산력
- 제품
- 전문가
- 프로젝트
- 프로젝트
- 제공
- 제공
- 공개
- 공공 부문
- 출판물
- Python
- 램
- 연구
- 자료
- 응답
- 달리기
- 달리는
- 현자
- 스캐닝
- 학교
- 과학
- 과학
- 부문
- 선택된
- 서비스
- 세트
- 설정
- 공유
- 지멘스
- 상당한
- 단순, 간단, 편리
- 크기
- 작은
- So
- 솔루션
- 풀다
- 스페이스 버튼
- 전문
- 분열
- 단계
- 스타트
- 시작
- 주 정부
- Status
- 저장
- 저장
- 스튜디오
- 지원
- 스위치
- 시스템은
- 목표
- 테크니컬
- 기법
- Technology
- test
- 소스
- 을 통하여
- 시간
- 시간이 많이 걸리는
- 함께
- 토큰
- 검색을
- 상단
- 트레이닝
- 거래 내역
- 유일한
- 대학
- 캠브리지 대학교
- 업데이트
- URI
- us
- USD
- 가치
- 버전
- 시력
- W
- 웹
- 웹 서비스
- 웹 기반
- 뭐
- 누구
- 크게
- 이내
- 없이
- 작업
- 일하는
- 겠지
- 쓰기
- X
- 년
- 유튜브