Ngay cả sau hơn một trăm năm kể từ khi được giới thiệu, mô học vẫn là tiêu chuẩn vàng trong chẩn đoán và tiên lượng khối u. Các nhà nghiên cứu bệnh học giải phẫu đánh giá mô học để phân tầng bệnh nhân ung thư thành các nhóm khác nhau tùy thuộc vào kiểu gen và kiểu hình khối u cũng như kết quả lâm sàng của họ [1,2]. Tuy nhiên, đánh giá của con người về các slide mô học là chủ quan và không thể lặp lại [3]. Hơn nữa, đánh giá mô học là một quá trình tốn thời gian đòi hỏi các chuyên gia được đào tạo chuyên sâu.
Với những tiến bộ công nghệ đáng kể trong thập kỷ qua, các kỹ thuật như tạo ảnh toàn bộ trang trình bày (WSI) và học sâu (DL) hiện đã phổ biến rộng rãi. WSI là quá trình quét các phiến kính hiển vi thông thường để tạo ra một hình ảnh có độ phân giải cao duy nhất từ các phiến kính đó. Điều này cho phép số hóa và thu thập các tập hợp lớn các hình ảnh bệnh lý, điều này sẽ rất tốn thời gian và tốn kém. Tính khả dụng của các bộ dữ liệu như vậy tạo ra những cách mới và sáng tạo để tăng tốc chẩn đoán bằng cách sử dụng các kỹ thuật như học máy (ML) để hỗ trợ các nhà nghiên cứu bệnh học đẩy nhanh chẩn đoán bằng cách nhanh chóng xác định các đặc điểm quan tâm.
Trong bài đăng này, chúng ta sẽ khám phá cách các nhà phát triển không có kinh nghiệm ML trước đó có thể sử dụng Nhãn tùy chỉnh Rekognition của Amazon để đào tạo một mô hình phân loại các tính năng di động. Nhãn tùy chỉnh Amazon Rekognition là một tính năng của Nhận thức lại Amazon cho phép bạn xây dựng các khả năng phân tích hình ảnh dựa trên ML chuyên biệt của riêng mình để phát hiện các đối tượng và cảnh độc nhất không thể thiếu trong trường hợp sử dụng cụ thể của bạn. Cụ thể, chúng tôi sử dụng bộ dữ liệu chứa toàn bộ hình ảnh slide về ung thư biểu mô tuyến vú ở chó [1] để minh họa cách xử lý những hình ảnh này và đào tạo một mô hình phát hiện các hình ảnh phân bào. Tập dữ liệu này đã được sử dụng với sự cho phép của Giáo sư Tiến sĩ Marc Aubreville, người đã vui lòng đồng ý cho phép chúng tôi sử dụng nó cho bài đăng này. Để biết thêm thông tin, hãy xem phần Lời cảm ơn ở cuối bài đăng này.
Tổng quan về giải pháp
Giải pháp bao gồm hai thành phần:
- Mô hình Nhãn tùy chỉnh của Amazon Rekognition — Để cho phép Amazon Rekognition phát hiện các số nguyên phân, chúng tôi hoàn thành các bước sau:
- Lấy mẫu tập dữ liệu WSI để tạo hình ảnh có kích thước phù hợp bằng cách sử dụng Xưởng sản xuất Amazon SageMaker và mã Python chạy trên sổ ghi chép Jupyter. Studio là một môi trường phát triển tích hợp (IDE) dành cho ML dựa trên web, cung cấp tất cả các công cụ bạn cần để chuyển các mô hình của mình từ thử nghiệm sang sản xuất đồng thời tăng năng suất của bạn. Chúng tôi sẽ sử dụng Studio để chia các hình ảnh thành các hình ảnh nhỏ hơn để đào tạo mô hình của chúng tôi.
- Huấn luyện mô hình Nhãn tùy chỉnh Amazon Rekognition để nhận dạng các số liệu phân bào trong các mẫu hematoxylin-eosin bằng cách sử dụng dữ liệu đã chuẩn bị ở bước trước.
- Một ứng dụng giao diện người dùng — Để minh họa cách sử dụng một mô hình giống như mô hình mà chúng ta đã đào tạo ở bước trước, chúng ta hoàn thành các bước sau:
Sơ đồ sau minh họa kiến trúc giải pháp.
Tất cả các tài nguyên cần thiết để triển khai triển khai được thảo luận trong bài đăng này và mã cho toàn bộ phần đều có sẵn trên GitHub. Bạn có thể sao chép hoặc rẽ nhánh kho lưu trữ, thực hiện bất kỳ thay đổi nào bạn muốn và tự chạy nó.
Trong các bước tiếp theo, chúng ta sẽ xem qua mã để hiểu các bước khác nhau liên quan đến việc thu thập và chuẩn bị dữ liệu, huấn luyện mô hình và sử dụng mô hình đó từ một ứng dụng mẫu.
Chi phí
Khi thực hiện các bước trong hướng dẫn này, bạn phải chịu một khoản chi phí nhỏ khi sử dụng các dịch vụ AWS sau:
- Nhận thức lại Amazon
- Cổng xa AWS
- Cân bằng tải ứng dụng
- Quản lý bí mật AWS
Ngoài ra, nếu không còn trong khoảng thời gian hoặc điều kiện của Bậc miễn phí, bạn có thể phải chịu chi phí từ các dịch vụ sau:
- MãĐường ống dẫn
- xây dựng mã
- Amazon ECR
- Amazon SageMaker
Nếu hoàn thành đúng các bước dọn dẹp sau khi hoàn thành hướng dẫn này, bạn có thể dự kiến chi phí sẽ thấp hơn 10 USD nếu mô hình Nhãn tùy chỉnh Amazon Rekognition và ứng dụng web chạy trong một giờ hoặc ít hơn.
Điều kiện tiên quyết
Để hoàn thành tất cả các bước, bạn cần những điều sau đây:
Đào tạo mô hình phân loại hình nguyên phân
Chúng tôi chạy tất cả các bước cần thiết để đào tạo mô hình từ sổ ghi chép Studio. Nếu bạn chưa từng sử dụng Studio trước đây, bạn có thể cần trên tàu Đầu tiên. Để biết thêm thông tin, xem Nhanh chóng truy cập Amazon SageMaker Studio.
Một số bước sau đây yêu cầu nhiều RAM hơn so với RAM sẵn có trong sổ ghi chép ml.t3.medium tiêu chuẩn. Đảm bảo rằng bạn đã chọn sổ ghi chép ml.m5.large. Bạn sẽ thấy chỉ báo 2 vCPU + 8 GiB ở góc trên bên phải của trang.
Mã cho phần này có sẵn dưới dạng Tập tin máy tính xách tay Jupyter.
Sau khi làm quen với Studio, hãy làm theo các hướng dẫn cấp cho Studio các quyền cần thiết để thay mặt bạn gọi Amazon Rekognition.
Sự phụ thuộc
Để bắt đầu, chúng ta cần hoàn thành các bước sau:
- Cập nhật các gói Linux và cài đặt các phụ thuộc cần thiết, chẳng hạn như OpenSlide:
- Cài đặt thư viện fastai và SlideRunner bằng pip:
- Tải xuống tập dữ liệu (chúng tôi cung cấp tập lệnh để tự động thực hiện việc này):
Xử lý tập dữ liệu
Chúng tôi sẽ bắt đầu bằng cách nhập một số gói mà chúng tôi sử dụng trong suốt giai đoạn chuẩn bị dữ liệu. Sau đó, chúng tôi tải xuống và tải cơ sở dữ liệu chú thích cho tập dữ liệu này. Cơ sở dữ liệu này chứa các vị trí trong toàn bộ ảnh chiếu của các hình nguyên phân (các đặc điểm chúng tôi muốn phân loại). Xem đoạn mã sau:
Bởi vì chúng tôi đang sử dụng SageMaker, chúng tôi tạo một SageMaker mới Phiên đối tượng để giảm bớt các nhiệm vụ như tải tập dữ liệu của chúng tôi lên một Dịch vụ lưu trữ đơn giản của Amazon (Amazon S3) xô. Chúng tôi cũng sử dụng bộ chứa S3 mà SageMaker tạo theo mặc định để tải lên các tệp hình ảnh đã xử lý của chúng tôi.
Sản phẩm slidelist_test
mảng chứa ID của các trang trình bày mà chúng tôi sử dụng như một phần của tập dữ liệu thử nghiệm để đánh giá hiệu suất của mô hình được đào tạo. Xem đoạn mã sau:
Bước tiếp theo là lấy một tập hợp các khu vực huấn luyện và trang trình bày kiểm tra, cùng với các nhãn trong đó, từ đó chúng ta có thể lấy các khu vực nhỏ hơn để sử dụng để huấn luyện mô hình của mình. Mã cho get_slides nằm trong tệp sampling.py trong GitHub.
Chúng tôi muốn lấy mẫu ngẫu nhiên từ các slide đào tạo và kiểm tra. Chúng tôi sử dụng danh sách các slide đào tạo và kiểm tra và chọn ngẫu nhiên n_training_images
lần một tập tin để đào tạo, và n_test_images
lần một tệp để kiểm tra:
Tiếp theo, chúng tôi tạo một thư mục cho hình ảnh đào tạo và một cho hình ảnh thử nghiệm:
Trước khi chúng tôi tạo ra các hình ảnh nhỏ hơn cần thiết để đào tạo mô hình, chúng tôi cần một số mã trợ giúp tạo siêu dữ liệu cần thiết để mô tả dữ liệu đào tạo và thử nghiệm. Đoạn mã sau đảm bảo rằng một hộp giới hạn nhất định bao quanh các tính năng quan tâm (các số liệu phân chia) nằm trong vùng mà chúng ta đang cắt và tạo ra một dòng JSON mô tả hình ảnh và các tính năng trong đó. Sự thật về mặt đất của Amazon SageMaker định dạng, đây là định dạng Nhãn tùy chỉnh Amazon Rekognition yêu cầu. Để biết thêm thông tin về tệp kê khai này để phát hiện đối tượng, hãy xem Bản địa hóa đối tượng trong tệp kê khai.
Với generate_annotations
chức năng tại chỗ, chúng ta có thể viết mã để tạo ra các hình ảnh đào tạo và kiểm tra:
Bước cuối cùng để có tất cả các dữ liệu cần thiết là viết một manifest.json
tệp cho từng bộ dữ liệu:
Chuyển tệp sang S3
Chúng tôi sử dụng upload_data
phương thức mà đối tượng phiên SageMaker hiển thị để tải hình ảnh và tệp kê khai lên bộ chứa SageMaker S3 mặc định:
Đào tạo mô hình Nhãn tùy chỉnh Amazon Rekognition
Với dữ liệu đã có trong Amazon S3, chúng tôi có thể đào tạo một mô hình tùy chỉnh. Chúng tôi sử dụng thư viện Boto3 để tạo ứng dụng khách Amazon Rekognition và tạo dự án:
Với dự án đã sẵn sàng để sử dụng, bây giờ bạn cần một phiên bản dự án trỏ đến bộ dữ liệu đào tạo và thử nghiệm trong Amazon S3. Lý tưởng nhất là mỗi phiên bản trỏ đến các bộ dữ liệu khác nhau (hoặc các phiên bản khác nhau của nó). Điều này cho phép chúng tôi có các phiên bản khác nhau của một mô hình, so sánh hiệu suất của chúng và chuyển đổi giữa chúng khi cần. Xem đoạn mã sau:
Sau khi chúng tôi tạo phiên bản dự án, Amazon Rekognition sẽ tự động bắt đầu quá trình đào tạo. Thời gian đào tạo phụ thuộc vào một số tính năng, chẳng hạn như kích thước và số lượng hình ảnh, số lượng lớp, v.v. Trong trường hợp này, đối với 500 hình ảnh, quá trình đào tạo mất khoảng 90 phút để hoàn thành.
Kiểm tra mô hình
Sau khi đào tạo, mọi mô hình trong Nhãn tùy chỉnh Amazon Rekognition đều nằm trong STOPPED
tình trạng. Để sử dụng nó để suy luận, bạn cần khởi động nó. Chúng tôi lấy ARN phiên bản dự án từ mô tả phiên bản dự án và chuyển nó cho start_project_version
. Chú ý MinInferenceUnits
tham số - chúng tôi bắt đầu với một đơn vị suy luận. Số lượng giao dịch mỗi giây (TPS) tối đa thực tế mà đơn vị suy luận này hỗ trợ tùy thuộc vào độ phức tạp của mô hình của bạn. Để tìm hiểu thêm về TPS, hãy tham khảo điều này blog đăng bài.
Khi phiên bản dự án của bạn được liệt kê là RUNNING
, bạn có thể bắt đầu gửi hình ảnh tới Amazon Rekognition để suy luận.
Chúng tôi sử dụng một trong các tệp trong tập dữ liệu thử nghiệm để kiểm tra mô hình mới bắt đầu. Thay vào đó, bạn có thể sử dụng bất kỳ tệp PNG hoặc JPEG phù hợp nào.
Ứng dụng hợp lý hóa
Để minh họa việc tích hợp với Amazon Rekognition, chúng tôi sử dụng một ứng dụng Python rất đơn giản. chúng tôi sử dụng Hợp lý hóa thư viện để xây dựng giao diện người dùng spartan, nơi chúng tôi nhắc người dùng tải lên tệp hình ảnh.
Chúng tôi sử dụng thư viện Boto3 và detect_custom_labels
cùng với ARN phiên bản dự án, để gọi điểm cuối suy luận. Phản hồi là một tài liệu JSON chứa các vị trí và lớp của các đối tượng khác nhau được phát hiện trong hình ảnh. Trong trường hợp của chúng tôi, đây là những con số nguyên phân mà thuật toán đã tìm thấy trong hình ảnh mà chúng tôi đã gửi đến điểm cuối. Xem đoạn mã sau:
Triển khai ứng dụng lên AWS
Để triển khai ứng dụng, chúng tôi sử dụng tập lệnh AWS CDK. Toàn bộ dự án có thể được tìm thấy trên GitHub . Hãy xem xét các tài nguyên khác nhau được triển khai bởi tập lệnh.
Tạo kho lưu trữ Amazon ECR
Là bước đầu tiên để thiết lập triển khai của chúng tôi, chúng tôi tạo kho lưu trữ Amazon ECR, nơi chúng tôi có thể lưu trữ hình ảnh bộ chứa ứng dụng của mình:
Tạo và lưu trữ mã thông báo GitHub của bạn trong AWS Secrets Manager
CodePipeline cần Mã thông báo truy cập cá nhân GitHub để giám sát kho lưu trữ GitHub của bạn để biết các thay đổi và kéo mã. Để tạo mã thông báo, hãy làm theo hướng dẫn trong Tài liệu GitHub. Mã thông báo yêu cầu các phạm vi GitHub sau:
- Sản phẩm
repo
phạm vi, được sử dụng để kiểm soát hoàn toàn để đọc và kéo các tạo phẩm từ các kho lưu trữ công cộng và riêng tư vào một đường dẫn. - Sản phẩm
admin:repo_hook
phạm vi, được sử dụng để kiểm soát hoàn toàn các móc kho lưu trữ.
Sau khi tạo mã thông báo, hãy lưu trữ nó trong một bí mật mới trong Quản lý bí mật AWS như sau:
Ghi tham số cấu hình vào AWS Systems Manager Parameter Store
Tập lệnh AWS CDK đọc một số tham số cấu hình từ Cửa hàng thông số trình quản lý hệ thống AWS, chẳng hạn như tên và chủ sở hữu của kho lưu trữ GitHub cũng như tài khoản đích và Khu vực. Trước khi khởi chạy tập lệnh AWS CDK, bạn cần tạo các tham số này trong tài khoản của riêng mình.
Bạn có thể làm điều đó bằng cách sử dụng AWS CLI. Đơn giản chỉ cần gọi put-parameter
lệnh có tên, giá trị và loại tham số:
Sau đây là danh sách tất cả các tham số mà tập lệnh AWS CDK yêu cầu. Tất cả đều thuộc loại String
:
- /rek_wsi/prod/accountId — ID của tài khoản nơi chúng tôi triển khai ứng dụng.
- /rek_wsi/prod/ecr_repo_name — Tên của kho lưu trữ Amazon ECR nơi lưu trữ hình ảnh bộ chứa.
- /rek_wsi/prod/github/branch — Nhánh trong kho lưu trữ GitHub mà CodePipeline cần lấy mã từ đó.
- /rek_wsi/prod/github/owner — Chủ sở hữu của kho lưu trữ GitHub.
- /rek_wsi/prod/github/repo — Tên của kho lưu trữ GitHub nơi lưu trữ mã của chúng tôi.
- /rek_wsi/prod/github/token — Tên hoặc ARN của bí mật trong Trình quản lý bí mật chứa mã thông báo xác thực GitHub của bạn. Điều này là cần thiết để CodePipeline có thể giao tiếp với GitHub.
- /rek_wsi/prod/region — Khu vực mà chúng tôi sẽ triển khai ứng dụng.
Chú ý prod
phân đoạn trong tất cả các tên tham số. Mặc dù chúng tôi không cần mức độ chi tiết này cho một ví dụ đơn giản như vậy, nhưng nó sẽ cho phép sử dụng lại cách tiếp cận này với các dự án khác khi có thể cần đến các môi trường khác nhau.
Tài nguyên được tạo bởi tập lệnh AWS CDK
Chúng tôi cần ứng dụng của mình, đang chạy trong tác vụ Fargate, để có quyền gọi Amazon Rekognition. Vì vậy, trước tiên chúng tôi tạo một Quản lý truy cập và nhận dạng AWS (IAM) Vai trò nhiệm vụ với RekognitionReadOnlyPolicy
chính sách gắn liền với nó. Lưu ý rằng assumed_by
tham số trong đoạn mã sau lấy ecs-tasks.amazonaws.com
dịch vụ chính. Điều này là do chúng tôi đang sử dụng Amazon ECS làm công cụ điều phối, vì vậy chúng tôi cần Amazon ECS đảm nhận vai trò này và chuyển thông tin đăng nhập cho tác vụ Fargate.
Sau khi được xây dựng, hình ảnh bộ chứa ứng dụng của chúng tôi nằm trong kho lưu trữ riêng của Amazon ECR. Chúng tôi cần một đối tượng mô tả nó mà chúng tôi có thể vượt qua khi tạo dịch vụ Fargate:
Chúng tôi tạo một VPC và cụm mới cho ứng dụng này. Bạn có thể sửa đổi phần này để sử dụng VPC của riêng mình bằng cách sử dụng from_lookup
phương pháp của Vpc
lớp học:
Bây giờ chúng tôi có một VPC và cụm để triển khai, chúng tôi tạo dịch vụ Fargate. Chúng tôi sử dụng 0.25 vCPU và 512 MB RAM cho tác vụ này và chúng tôi đặt một Cân bằng tải ứng dụng (ALB) công khai trước nhiệm vụ này. Sau khi triển khai, chúng tôi sử dụng ALB CNAME để truy cập ứng dụng. Xem đoạn mã sau:
Để tự động xây dựng và triển khai hình ảnh bộ chứa mới mỗi khi chúng tôi đẩy mã vào nhánh chính của mình, chúng tôi tạo một quy trình đơn giản bao gồm một hành động nguồn GitHub và một bước xây dựng. Đây là nơi chúng tôi sử dụng các bí mật mà chúng tôi đã lưu trữ trong AWS Secrets Manager và AWS Systems Manager Parameter Store trong các bước trước.
CodeBuild cần có quyền để đẩy hình ảnh bộ chứa lên Amazon ECR. Để cấp các quyền này, chúng tôi thêm AmazonEC2ContainerRegistryFullAccess
chính sách đối với vai trò IAM riêng biệt mà dịch vụ chính của CodeBuild có thể đảm nhận:
Dự án CodeBuild đăng nhập vào kho lưu trữ riêng của Amazon ECR, xây dựng hình ảnh Docker bằng ứng dụng Streamlit và đẩy hình ảnh vào kho lưu trữ cùng với một appspec.yaml
và một imagedefinitions.json
tập tin.
Sản phẩm appspec.yaml
tệp mô tả tác vụ (cổng, phiên bản nền tảng Fargate, v.v.), trong khi imagedefinitions.json
tệp ánh xạ tên của hình ảnh vùng chứa tới URI Amazon ECR tương ứng của chúng. Xem đoạn mã sau:
Cuối cùng, chúng tôi đặt các giai đoạn quy trình khác nhau lại với nhau. Hành động cuối cùng là EcsDeployAction
, lấy hình ảnh vùng chứa được tạo ở giai đoạn trước và thực hiện cập nhật liên tục các tác vụ trong cụm ECS của chúng tôi:
Dọn dẹp
Để tránh phát sinh chi phí trong tương lai, hãy dọn dẹp tài nguyên bạn đã tạo như một phần của giải pháp này.
Mô hình nhãn tùy chỉnh Amazon Rekognition
Trước khi bạn tắt sổ ghi chép Studio của mình, hãy đảm bảo rằng bạn dừng mô hình Nhãn tùy chỉnh Amazon Rekognition. Nếu bạn không, nó tiếp tục phát sinh chi phí.
Ngoài ra, bạn có thể sử dụng bảng điều khiển Amazon Rekognition để dừng dịch vụ:
- Trên bảng điều khiển Amazon Rekognition, chọn Sử dụng Nhãn tùy chỉnh trong khung điều hướng.
- Chọn Dự án trong khung điều hướng.
- Chọn phiên bản 1 của
rek-mitotic-figures-workshop
dự án. - trên Sử dụng mô hình tab, chọn Dừng.
Ứng dụng hợp lý hóa
Để hủy tất cả các tài nguyên liên quan đến ứng dụng Streamlit, hãy chạy mã sau từ thư mục ứng dụng AWS CDK:
Quản lý bí mật AWS
Để xóa mã thông báo GitHub, hãy làm theo hướng dẫn trong tài liệu hướng dẫn.
Kết luận
Trong bài đăng này, chúng tôi đã hướng dẫn các bước cần thiết để đào tạo mô hình Nhãn tùy chỉnh Amazon Rekognition cho ứng dụng bệnh lý kỹ thuật số sử dụng dữ liệu trong thế giới thực. Sau đó, chúng tôi đã học cách sử dụng mô hình từ một ứng dụng đơn giản được triển khai từ đường dẫn CI/CD đến Fargate.
Nhãn tùy chỉnh của Amazon Rekognition cho phép bạn xây dựng các ứng dụng chăm sóc sức khỏe hỗ trợ ML mà bạn có thể dễ dàng xây dựng và triển khai bằng các dịch vụ như Fargate, CodeBuild và CodePipeline.
Bạn có thể nghĩ ra bất kỳ ứng dụng nào để giúp các nhà nghiên cứu, bác sĩ hoặc bệnh nhân của họ làm cho cuộc sống của họ dễ dàng hơn không? Nếu vậy, hãy sử dụng mã trong hướng dẫn này để xây dựng ứng dụng tiếp theo của bạn. Và nếu bạn có bất kỳ câu hỏi nào, xin vui lòng chia sẻ chúng trong phần bình luận.
Lời cảm ơn
Chúng tôi xin cảm ơn Giáo sư Tiến sĩ Marc Aubreville đã vui lòng cho phép chúng tôi sử dụng bộ dữ liệu MITOS_WSI_CMC cho bài đăng trên blog này. Bộ dữ liệu có thể được tìm thấy trên GitHub.
dự án
[1] Aubreville, M., Bertram, CA, Donovan, TA et al. Một bộ dữ liệu hình ảnh toàn bộ slide được chú thích đầy đủ về bệnh ung thư vú ở chó để hỗ trợ nghiên cứu bệnh ung thư vú ở người. Dữ liệu Khoa học 7, 417 (2020). https://doi.org/10.1038/s41597-020-00756-z
[2] Khened, M., Kori, A., Rajkumar, H. et al. Một khung học tập sâu tổng quát để phân tích và phân đoạn hình ảnh toàn bộ slide. Đại diện Sci 11, 11579 (2021). https://doi.org/10.1038/s41598-021-90444-8
[3] PNAS 27/2018/115 13 (2970) E2979-E12; xuất bản lần đầu ngày 2018 tháng XNUMX năm XNUMX; https://doi.org/10.1073/pnas.1717139115
Lưu ý
Pablo Nunez Pölcher, ThS, là Kiến trúc sư giải pháp cấp cao làm việc cho nhóm Khu vực công với Amazon Web Services. Pablo tập trung vào việc giúp các khách hàng thuộc khu vực công chăm sóc sức khỏe xây dựng các sản phẩm mới, sáng tạo trên AWS theo các phương pháp hay nhất. Anh ấy đã nhận bằng M.Sc. về Khoa học Sinh học từ Đại học de Buenos Aires. Khi rảnh rỗi, anh ấy thích đạp xe và mày mò các thiết bị nhúng hỗ trợ ML.
Razvan Ionasec, Tiến sĩ, MBA, là lãnh đạo kỹ thuật về chăm sóc sức khỏe tại Amazon Web Services ở Châu Âu, Trung Đông và Châu Phi. Công việc của ông tập trung vào việc giúp khách hàng chăm sóc sức khỏe giải quyết các vấn đề kinh doanh bằng cách tận dụng công nghệ. Trước đây, Razvan là người đứng đầu toàn cầu về các sản phẩm trí tuệ nhân tạo (AI) tại Siemens Healthineers, phụ trách AI-Rad Companion, dòng giải pháp chụp ảnh sức khỏe kỹ thuật số dựa trên đám mây và dựa trên AI. Ông có hơn 30 bằng sáng chế về AI/ML cho hình ảnh y tế và đã xuất bản hơn 70 ấn phẩm kỹ thuật và lâm sàng được bình duyệt quốc tế về thị giác máy tính, mô hình tính toán và phân tích hình ảnh y tế. Razvan nhận bằng Tiến sĩ Khoa học Máy tính tại Đại học Kỹ thuật Munich và bằng Thạc sĩ Quản trị Kinh doanh của Đại học Cambridge, Trường Kinh doanh Judge.
- '
- "
- &
- 100
- 11
- 110
- 2020
- 2021
- 7
- Giới thiệu
- đẩy nhanh tiến độ
- truy cập
- Tài khoản
- Hoạt động
- Châu Phi
- AI
- thuật toán
- Tất cả
- Đã
- Mặc dù
- đàn bà gan dạ
- Nhận thức lại Amazon
- Amazon SageMaker
- Amazon Web Services
- phân tích
- Các Ứng Dụng
- các ứng dụng
- APT
- kiến trúc
- nhân tạo
- trí tuệ nhân tạo
- Trí tuệ nhân tạo (AI)
- Tài sản
- Xác thực
- sẵn có
- có sẵn
- AWS
- cân bằng
- BEST
- thực hành tốt nhất
- Blog
- thúc đẩy
- Hộp
- Ung thư vú
- xây dựng
- kinh doanh
- cuộc gọi
- cambridge
- Có thể có được
- Ung thư
- nghiên cứu ung thư
- phí
- phân loại
- mã
- bộ sưu tập
- Bình luận
- Khoa học Máy tính
- Tầm nhìn máy tính
- sự tự tin
- Cấu hình
- An ủi
- Container
- Container
- chứa
- liên tiếp
- Chi phí
- Tạo
- Credentials
- khách hàng
- dữ liệu
- Cơ sở dữ liệu
- cơ sở dữ liệu
- học kĩ càng
- phá hủy
- chi tiết
- Phát hiện
- phát triển
- Phát triển
- Thiết bị (Devices)
- khác nhau
- kỹ thuật số
- Sức khỏe kỹ thuật số
- số hóa
- phu bến tàu
- Các bác sĩ
- xuống
- dễ dàng
- bỏ lỡ
- Điểm cuối
- Môi trường
- Châu Âu
- ví dụ
- kinh nghiệm
- xuất khẩu
- gia đình
- Đặc tính
- Tính năng
- Hình
- Tên
- theo
- ngã ba
- định dạng
- tìm thấy
- Khung
- Miễn phí
- Full
- chức năng
- tương lai
- tạo ra
- hình học
- GitHub
- Cho
- Toàn cầu
- Gói Vàng
- cấp
- tài trợ
- có
- cái đầu
- cho sức khoẻ
- chăm sóc sức khỏe
- giúp đỡ
- tại đây
- Độ đáng tin của
- Hướng dẫn
- HTTPS
- IAM
- Bản sắc
- hình ảnh
- Phân tích hình ảnh
- phân đoạn hình ảnh
- Hình ảnh
- nhập khẩu
- thông tin
- sáng tạo
- thiếu
- hội nhập
- Sự thông minh
- quan tâm
- Quốc Tế
- tham gia
- IT
- Máy tính xách tay Jupyter
- Nhãn
- lớn
- mới nhất
- ra mắt
- LEARN
- học
- học tập
- Cấp
- Thư viện
- Dòng
- linux
- Danh sách
- Chức năng
- tải
- Nội địa hóa
- học máy
- Maps
- Tháng Ba
- y khoa
- Hình ảnh y tế
- trung bình
- Trung Đông
- ML
- kiểu mẫu
- người mẫu
- mô hình
- chi tiết
- Munich
- tên
- THÔNG TIN
- cần thiết
- Phát hiện đối tượng
- Tiếp nhận nhận việc
- Nền tảng khác
- chủ sở hữu
- Bằng sáng chế
- bệnh lý
- bệnh nhân
- hiệu suất
- riêng
- nền tảng
- điều luật
- Hiệu trưởng
- riêng
- quá trình
- Sản lượng
- năng suất
- Sản phẩm
- chuyên gia
- dự án
- dự án
- cho
- cung cấp
- công khai
- khu vực công
- ấn phẩm
- Python
- RAM
- nghiên cứu
- Thông tin
- phản ứng
- chạy
- chạy
- nhà làm hiền triết
- quét
- Trường học
- Khoa học
- KHOA HỌC
- ngành
- chọn
- DỊCH VỤ
- định
- thiết lập
- Chia sẻ
- Siemens
- có ý nghĩa
- Đơn giản
- Kích thước máy
- nhỏ
- So
- Giải pháp
- động SOLVE
- Không gian
- chuyên nghành
- chia
- Traineeship
- Bắt đầu
- bắt đầu
- Tiểu bang
- Trạng thái
- là gắn
- hàng
- phòng thu
- Hỗ trợ
- Công tắc điện
- hệ thống
- Mục tiêu
- Kỹ thuật
- kỹ thuật
- Công nghệ
- thử nghiệm
- Nguồn
- Thông qua
- thời gian
- mất thời gian
- bên nhau
- mã thông báo
- công cụ
- hàng đầu
- Hội thảo
- Giao dịch
- độc đáo
- trường đại học
- đại học Cambridge
- Cập nhật
- URI
- us
- Đô la Mỹ
- giá trị
- phiên bản
- tầm nhìn
- W
- web
- các dịch vụ web
- Dựa trên web
- Điều gì
- Là gì
- CHÚNG TÔI LÀ
- rộng rãi
- ở trong
- không có
- Công việc
- đang làm việc
- sẽ
- viết
- X
- năm
- youtube