Auch mehr als hundert Jahre nach ihrer Einführung bleibt die Histologie der Goldstandard in der Tumordiagnostik und -prognose. Anatomische Pathologen werten die Histologie aus, um Krebspatienten in Abhängigkeit von ihren Tumor-Genotypen und -Phänotypen und ihrem klinischen Ergebnis in verschiedene Gruppen einzuteilen [1,2]. Allerdings ist die menschliche Bewertung histologischer Objektträger subjektiv und nicht wiederholbar [3]. Darüber hinaus ist die histologische Beurteilung ein zeitaufwändiger Prozess, der hochqualifiziertes Fachpersonal erfordert.
Mit bedeutenden technologischen Fortschritten in den letzten zehn Jahren sind Techniken wie Whole Slide Imaging (WSI) und Deep Learning (DL) heute weit verbreitet. WSI ist das Scannen herkömmlicher Mikroskopie-Objektträger aus Glas, um ein einzelnes Bild mit hoher Auflösung von diesen Objektträgern zu erzeugen. Dies ermöglicht die Digitalisierung und Sammlung großer Sätze pathologischer Bilder, was unerschwinglich zeitaufwändig und teuer gewesen wäre. Die Verfügbarkeit solcher Datensätze schafft neue und innovative Möglichkeiten zur Beschleunigung der Diagnose durch den Einsatz von Techniken wie maschinellem Lernen (ML), um Pathologen dabei zu unterstützen, Diagnosen zu beschleunigen, indem interessante Merkmale schnell identifiziert werden.
In diesem Beitrag werden wir untersuchen, wie Entwickler ohne vorherige ML-Erfahrung verwenden können Benutzerdefinierte Etiketten von Amazon Rekognition um ein Modell zu trainieren, das zelluläre Merkmale klassifiziert. Amazon Rekognition Custom Labels ist eine Funktion von Amazon-Anerkennung Dadurch können Sie Ihre eigenen spezialisierten ML-basierten Bildanalysefunktionen erstellen, um einzigartige Objekte und Szenen zu erkennen, die für Ihren spezifischen Anwendungsfall von wesentlicher Bedeutung sind. Insbesondere verwenden wir einen Datensatz, der ganze Folienbilder von Hunde-Mammakarzinomen enthält [1], um zu demonstrieren, wie diese Bilder verarbeitet und ein Modell trainiert werden können, das mitotische Figuren erkennt. Dieser Datensatz wurde mit Genehmigung von Prof. Dr. Marc Aubreville verwendet, der uns freundlicherweise zugestimmt hat, ihn für diesen Beitrag zu verwenden. Weitere Informationen finden Sie im Abschnitt „Danksagungen“ am Ende dieses Beitrags.
Die Lösung im Überblick
Die Lösung besteht aus zwei Komponenten:
- Ein Amazon Rekognition Custom Labels-Modell — Damit Amazon Rekognition mitotische Figuren erkennen kann, führen wir die folgenden Schritte aus:
- Proben Sie den WSI-Datensatz, um Bilder mit angemessener Größe zu erstellen Amazon SageMaker-Studio und ein Python-Code, der auf einem Jupyter-Notebook ausgeführt wird. Studio ist eine webbasierte, integrierte Entwicklungsumgebung (IDE) für ML, die alle Tools bereitstellt, die Sie benötigen, um Ihre Modelle vom Experimentieren in die Produktion zu bringen und gleichzeitig Ihre Produktivität zu steigern. Wir werden Studio verwenden, um die Bilder in kleinere aufzuteilen, um unser Modell zu trainieren.
- Trainieren Sie ein Amazon Rekognition Custom Labels-Modell, um mitotische Figuren in Hämatoxylin-Eosin-Proben zu erkennen, indem Sie die im vorherigen Schritt vorbereiteten Daten verwenden.
- Eine Frontend-Anwendung — Um zu demonstrieren, wie ein Modell wie das im vorherigen Schritt trainierte verwendet wird, führen wir die folgenden Schritte aus:
Das folgende Diagramm zeigt die Lösungsarchitektur.
Alle notwendigen Ressourcen zum Bereitstellen der in diesem Beitrag besprochenen Implementierung und der Code für den gesamten Abschnitt sind unter verfügbar GitHub. Sie können das Repository klonen oder forken, alle gewünschten Änderungen vornehmen und es selbst ausführen.
In den nächsten Schritten gehen wir durch den Code, um die verschiedenen Schritte zu verstehen, die zum Abrufen und Vorbereiten der Daten, zum Trainieren des Modells und zur Verwendung aus einer Beispielanwendung erforderlich sind.
Kosten
Wenn Sie die Schritte in dieser exemplarischen Vorgehensweise ausführen, entstehen Ihnen geringe Kosten durch die Nutzung der folgenden AWS-Services:
- Amazon-Anerkennung
- AWS Fargate
- Anwendungs-Load-Balancer
- AWS Secrets Manager
Wenn Sie sich nicht mehr innerhalb des Zeitraums oder der Bedingungen des kostenlosen Kontingents befinden, können Ihnen außerdem Kosten für die folgenden Dienste entstehen:
- CodePipeline
- CodeBuild
- Amazon ECR
- Amazon Sage Maker
Wenn Sie die Bereinigungsschritte nach Abschluss dieser exemplarischen Vorgehensweise korrekt ausführen, können Sie mit Kosten von weniger als 10 USD rechnen, wenn das Amazon Rekognition Custom Labels-Modell und die Webanwendung eine Stunde oder weniger laufen.
Voraussetzungen:
Um alle Schritte abzuschließen, benötigen Sie Folgendes:
Training des Klassifikationsmodells für mitotische Figuren
Wir führen alle Schritte aus, die zum Trainieren des Modells von einem Studio-Notebook aus erforderlich sind. Wenn Sie Studio noch nie zuvor verwendet haben, müssen Sie dies möglicherweise tun an Bord Erste. Weitere Informationen finden Sie unter Schnell an Bord von Amazon SageMaker Studio.
Einige der folgenden Schritte erfordern mehr RAM als in einem standardmäßigen ml.t3.medium-Notebook verfügbar ist. Stellen Sie sicher, dass Sie ein ml.m5.large-Notebook ausgewählt haben. Sie sollten in der oberen rechten Ecke der Seite eine 2 vCPU + 8 GiB-Anzeige sehen.
Der Code für diesen Abschnitt ist als Jupyter-Notizbuchdatei.
Folgen Sie nach dem Onboarding in Studio den Anweisungen diese Anweisungen um Studio die erforderlichen Berechtigungen zum Aufrufen von Amazon Rekognition in Ihrem Namen zu erteilen.
Abhängigkeiten
Zunächst müssen wir die folgenden Schritte ausführen:
- Aktualisieren Sie Linux-Pakete und installieren Sie die erforderlichen Abhängigkeiten, z. B. OpenSlide:
- Installieren Sie die Fastai- und SlideRunner-Bibliotheken mit pip:
- Laden Sie den Datensatz herunter (wir stellen ein Skript bereit, um dies automatisch zu tun):
Verarbeiten Sie den Datensatz
Wir beginnen damit, einige der Pakete zu importieren, die wir während der gesamten Datenvorbereitungsphase verwenden. Dann laden wir die Anmerkungsdatenbank für diesen Datensatz herunter und laden sie. Diese Datenbank enthält die Positionen der mitotischen Figuren (die Merkmale, die wir klassifizieren wollen) in den gesamten Diabildern. Siehe folgenden Code:
Da wir SageMaker verwenden, erstellen wir einen neuen SageMaker Sitzung widersprechen, um Aufgaben wie das Hochladen unseres Datensatzes in eine zu erleichtern Amazon Simple Storage-Service (Amazon S3) Eimer. Wir verwenden auch den S3-Bucket, den SageMaker standardmäßig erstellt, um unsere verarbeiteten Bilddateien hochzuladen.
Das slidelist_test
array enthält die IDs der Folien, die wir als Teil des Testdatensatzes verwenden, um die Leistung des trainierten Modells zu bewerten. Siehe folgenden Code:
Der nächste Schritt besteht darin, eine Reihe von Trainingsbereichen und Testfolien zusammen mit den darin enthaltenen Beschriftungen zu erhalten, aus denen wir kleinere Bereiche zum Trainieren unseres Modells verwenden können. Der Code für get_slides befindet sich in der Datei „sampling.py“. GitHub.
Wir möchten Stichproben aus den Trainings- und Testfolien ziehen. Wir verwenden die Listen der Trainings- und Testfolien und wählen sie nach dem Zufallsprinzip aus n_training_images
mal eine Datei zum Training, und n_test_images
mal eine Datei zum Test:
Als nächstes erstellen wir ein Verzeichnis für Trainingsbilder und eines für Testbilder:
Bevor wir die kleineren Bilder erstellen, die zum Trainieren des Modells benötigt werden, benötigen wir einen Hilfscode, der die Metadaten erzeugt, die zum Beschreiben der Trainings- und Testdaten erforderlich sind. Der folgende Code stellt sicher, dass ein bestimmter Begrenzungsrahmen, der die interessierenden Merkmale (mitotische Figuren) umgibt, gut innerhalb der Zone liegt, die wir ausschneiden, und erzeugt eine JSON-Zeile, die das Bild und die darin enthaltenen Merkmale beschreibt Amazon Sagemaker Ground Truth -Format, das das Format ist, das Amazon Rekognition Custom Labels benötigt. Weitere Informationen zu dieser Manifestdatei für die Objekterkennung finden Sie unter Objektlokalisierung in Manifestdateien.
Mit der generate_annotations
Wenn die Funktion vorhanden ist, können wir den Code schreiben, um die Trainings- und Testbilder zu erstellen:
Der letzte Schritt, um alle erforderlichen Daten zu haben, besteht darin, a zu schreiben manifest.json
Datei für jeden der Datensätze:
Übertragen Sie die Dateien auf S3
Wir nutzen die upload_data
-Methode, die das SageMaker-Sitzungsobjekt bereitstellt, um die Bilder und Manifestdateien in den standardmäßigen SageMaker S3-Bucket hochzuladen:
Trainieren Sie ein Amazon Rekognition Custom Labels-Modell
Da sich die Daten bereits in Amazon S3 befinden, können wir ein benutzerdefiniertes Modell trainieren. Wir verwenden die Boto3-Bibliothek, um einen Amazon Rekognition-Client zu erstellen und ein Projekt zu erstellen:
Wenn das Projekt einsatzbereit ist, benötigen Sie jetzt eine Projektversion, die auf die Trainings- und Testdatensätze in Amazon S3 verweist. Jede Version verweist idealerweise auf unterschiedliche Datensätze (oder unterschiedliche Versionen davon). Dies ermöglicht es uns, verschiedene Versionen eines Modells zu haben, ihre Leistung zu vergleichen und bei Bedarf zwischen ihnen zu wechseln. Siehe folgenden Code:
Nachdem wir die Projektversion erstellt haben, startet Amazon Rekognition automatisch den Trainingsprozess. Die Trainingszeit hängt von mehreren Merkmalen ab, z. B. der Größe und Anzahl der Bilder, der Anzahl der Klassen usw. In diesem Fall dauert das Training für 500 Bilder etwa 90 Minuten bis zum Abschluss.
Testen Sie das Modell
Nach dem Training befindet sich jedes Modell in Amazon Rekognition Custom Labels in der STOPPED
Zustand. Um es für die Inferenz zu verwenden, müssen Sie es starten. Wir erhalten den Projektversions-ARN aus der Projektversionsbeschreibung und übergeben ihn an die start_project_version
. Beachten Sie die MinInferenceUnits
Parameter — wir beginnen mit einer Inferenzeinheit. Die tatsächliche maximale Anzahl von Transaktionen pro Sekunde (TPS), die diese Inferenzeinheit unterstützt, hängt von der Komplexität Ihres Modells ab. Weitere Informationen zu TPS finden Sie hier Blog-Post.
Wenn Ihre Projektversion als aufgeführt ist RUNNING
, können Sie damit beginnen, Bilder zur Inferenz an Amazon Rekognition zu senden.
Wir verwenden eine der Dateien im Testdatensatz, um das neu gestartete Modell zu testen. Sie können stattdessen jede geeignete PNG- oder JPEG-Datei verwenden.
Streamlit-Anwendung
Um die Integration mit Amazon Rekognition zu demonstrieren, verwenden wir eine sehr einfache Python-Anwendung. Wir benutzen das Stromlit Bibliothek, um eine spartanische Benutzeroberfläche zu erstellen, bei der wir den Benutzer auffordern, eine Bilddatei hochzuladen.
Wir verwenden die Boto3-Bibliothek und die detect_custom_labels
-Methode zusammen mit dem ARN der Projektversion, um den Inferenzendpunkt aufzurufen. Die Antwort ist ein JSON-Dokument, das die Positionen und Klassen der verschiedenen im Bild erkannten Objekte enthält. In unserem Fall sind dies die Mitosefiguren, die der Algorithmus in dem Bild gefunden hat, das wir an den Endpunkt gesendet haben. Siehe folgenden Code:
Stellen Sie die Anwendung in AWS bereit
Zur Bereitstellung der Anwendung verwenden wir ein AWS CDK-Skript. Das gesamte Projekt finden Sie unter GitHub . Sehen wir uns die verschiedenen Ressourcen an, die vom Skript bereitgestellt werden.
Erstellen Sie ein Amazon ECR-Repository
Als ersten Schritt zur Einrichtung unserer Bereitstellung erstellen wir ein Amazon ECR-Repository, in dem wir unsere Anwendungscontainer-Images speichern können:
Erstellen und speichern Sie Ihr GitHub-Token in AWS Secrets Manager
CodePipeline benötigt ein persönliches GitHub-Zugriffstoken, um Ihr GitHub-Repository auf Änderungen zu überwachen und Code abzurufen. Befolgen Sie zum Erstellen des Tokens die Anweisungen in der GitHub-Dokumentation. Das Token erfordert die folgenden GitHub-Bereiche:
- Das
repo
Bereich, der für die vollständige Kontrolle zum Lesen und Ziehen von Artefakten aus öffentlichen und privaten Repositories in eine Pipeline verwendet wird. - Das
admin:repo_hook
Bereich, der für die vollständige Kontrolle über Repository-Hooks verwendet wird.
Nachdem Sie das Token erstellt haben, speichern Sie es in einem neuen Geheimnis in AWS Secrets Manager wie folgt:
Schreiben Sie Konfigurationsparameter in AWS Systems Manager Parameter Store
Das AWS CDK-Skript liest einige Konfigurationsparameter aus AWS Systems Manager-Parameterspeicher, z. B. Name und Eigentümer des GitHub-Repositorys sowie Zielkonto und Region. Bevor Sie das AWS CDK-Skript starten, müssen Sie diese Parameter in Ihrem eigenen Konto erstellen.
Sie können dies tun, indem Sie die AWS CLI verwenden. Rufen Sie einfach die auf put-parameter
Befehl mit einem Namen, einem Wert und dem Typ des Parameters:
Im Folgenden finden Sie eine Liste aller Parameter, die für das AWS CDK-Skript erforderlich sind. Alle von ihnen sind vom Typ String
:
- /rek_wsi/prod/accountId – Die ID des Kontos, in dem wir die Anwendung bereitstellen.
- /rek_wsi/prod/ecr_repo_name – Der Name des Amazon ECR-Repositorys, in dem die Container-Images gespeichert sind.
- /rek_wsi/prod/github/branch – Der Branch im GitHub-Repository, aus dem CodePipeline den Code abrufen muss.
- /rek_wsi/prod/github/owner – Der Eigentümer des GitHub-Repositorys.
- /rek_wsi/prod/github/repo — Der Name des GitHub-Repositorys, in dem unser Code gespeichert ist.
- /rek_wsi/prod/github/token – Der Name oder ARN des Geheimnisses in Secrets Manager, das Ihr GitHub-Authentifizierungstoken enthält. Dies ist erforderlich, damit CodePipeline mit GitHub kommunizieren kann.
- /rek_wsi/prod/region – Die Region, in der wir die Anwendung bereitstellen werden.
Beachten Sie die prod
Segment in allen Parameternamen. Obwohl wir diesen Detaillierungsgrad für ein so einfaches Beispiel nicht benötigen, ermöglicht es die Wiederverwendung dieses Ansatzes bei anderen Projekten, bei denen möglicherweise andere Umgebungen erforderlich sind.
Ressourcen, die vom AWS CDK-Skript erstellt wurden
Wir benötigen unsere Anwendung, die in einer Fargate-Aufgabe ausgeführt wird, um Berechtigungen zum Aufrufen von Amazon Rekognition zu haben. Also erstellen wir zuerst eine AWS Identity and Access Management and (IAM) Aufgabenrolle mit der RekognitionReadOnlyPolicy
daran angeschlossene Politik. Beachten Sie, dass die assumed_by
Parameter im folgenden Code übernimmt die ecs-tasks.amazonaws.com
Dienstprinzipal. Dies liegt daran, dass wir Amazon ECS als Orchestrator verwenden, sodass Amazon ECS die Rolle übernehmen und die Anmeldeinformationen an die Fargate-Aufgabe übergeben muss.
Nach der Erstellung befindet sich unser Anwendungscontainer-Image in einem privaten Amazon ECR-Repository. Wir brauchen ein Objekt, das es beschreibt, das wir beim Erstellen des Fargate-Dienstes übergeben können:
Wir erstellen eine neue VPC und einen neuen Cluster für diese Anwendung. Sie können diesen Teil ändern, um Ihre eigene VPC zu verwenden, indem Sie die verwenden from_lookup
Methode der Vpc
Klasse:
Nachdem wir nun eine VPC und einen Cluster für die Bereitstellung haben, erstellen wir den Fargate-Dienst. Wir verwenden für diese Aufgabe 0.25 vCPU und 512 MB RAM und stellen einen öffentlichen Application Load Balancer (ALB) davor. Nach der Bereitstellung verwenden wir den ALB-CNAME, um auf die Anwendung zuzugreifen. Siehe folgenden Code:
Um jedes Mal, wenn wir Code an unseren Hauptzweig senden, automatisch ein neues Container-Image zu erstellen und bereitzustellen, erstellen wir eine einfache Pipeline, die aus einer GitHub-Quellaktion und einem Build-Schritt besteht. Hier verwenden wir die Geheimnisse, die wir in den vorherigen Schritten in AWS Secrets Manager und AWS Systems Manager Parameter Store gespeichert haben.
CodeBuild benötigt Berechtigungen zum Pushen von Container-Images an Amazon ECR. Um diese Berechtigungen zu erteilen, fügen wir die hinzu AmazonEC2ContainerRegistryFullAccess
Richtlinie zu einer maßgeschneiderten IAM-Rolle, die der CodeBuild-Dienstprinzipal übernehmen kann:
Das CodeBuild-Projekt meldet sich beim privaten Amazon ECR-Repository an, erstellt das Docker-Image mit der Streamlit-Anwendung und pusht das Image zusammen mit einem in das Repository appspec.yaml
und ein imagedefinitions.json
Datei.
Das appspec.yaml
Datei beschreibt die Aufgabe (Port, Version der Fargate-Plattform usw.), während die imagedefinitions.json
-Datei ordnet die Namen der Container-Images ihrem entsprechenden Amazon ECR-URI zu. Siehe folgenden Code:
Schließlich setzen wir die verschiedenen Pipeline-Stufen zusammen. Die letzte Aktion ist die EcsDeployAction
, das das in der vorherigen Phase erstellte Container-Image übernimmt und eine fortlaufende Aktualisierung der Aufgaben in unserem ECS-Cluster durchführt:
Aufräumen
Um zukünftige Kosten zu vermeiden, bereinigen Sie die Ressourcen, die Sie im Rahmen dieser Lösung erstellt haben.
Amazon Rekognition Custom Labels-Modell
Stellen Sie vor dem Herunterfahren Ihres Studio-Notebooks sicher, dass Sie das Amazon Rekognition Custom Labels-Modell stoppen. Wenn Sie dies nicht tun, entstehen weiterhin Kosten.
Alternativ können Sie die Amazon Rekognition-Konsole verwenden, um den Dienst zu stoppen:
- Wählen Sie in der Amazon Rekognition-Konsole aus Verwenden Sie benutzerdefinierte Beschriftungen im Navigationsbereich.
- Auswählen Projekte im Navigationsbereich.
- Wählen Sie Version 1 der
rek-mitotic-figures-workshop
Projekt. - Auf dem Modell verwenden Tab, wählen Sie Stoppen.
Streamlit-Anwendung
Um alle Ressourcen zu zerstören, die der Streamlit-Anwendung zugeordnet sind, führen Sie den folgenden Code aus dem AWS CDK-Anwendungsverzeichnis aus:
AWS Secrets Manager
Befolgen Sie zum Löschen des GitHub-Tokens die Anweisungen in der Dokumentation.
Zusammenfassung
In diesem Beitrag haben wir die notwendigen Schritte zum Trainieren eines Amazon Rekognition Custom Labels-Modells für eine digitale Pathologieanwendung unter Verwendung von Daten aus der realen Welt durchlaufen. Anschließend lernten wir, wie man das Modell anhand einer einfachen Anwendung verwendet, die von einer CI/CD-Pipeline in Fargate bereitgestellt wurde.
Mit Amazon Rekognition Custom Labels können Sie ML-fähige Gesundheitsanwendungen erstellen, die Sie mithilfe von Diensten wie Fargate, CodeBuild und CodePipeline einfach erstellen und bereitstellen können.
Fallen Ihnen Anwendungen ein, die Forschern, Ärzten oder ihren Patienten helfen, ihr Leben einfacher zu machen? Verwenden Sie in diesem Fall den Code in dieser exemplarischen Vorgehensweise, um Ihre nächste Anwendung zu erstellen. Und wenn Sie Fragen haben, teilen Sie diese bitte im Kommentarbereich mit.
Anerkennungen
Wir danken Prof. Dr. Marc Aubreville für die freundliche Erlaubnis, den MITOS_WSI_CMC-Datensatz für diesen Blogbeitrag zu verwenden. Den Datensatz finden Sie unter GitHub.
Bibliographie
[1] Aubreville, M., Bertram, CA, Donovan, TA et al. Ein vollständig kommentierter Bilddatensatz für ganze Dias von Brustkrebs bei Hunden zur Unterstützung der Brustkrebsforschung beim Menschen. Sci Data 7, 417 (2020). https://doi.org/10.1038/s41597-020-00756-z
[2] Khened, M., Kori, A., Rajkumar, H. et al. Ein verallgemeinertes Deep-Learning-Framework für die Bildsegmentierung und -analyse ganzer Folien. Sci Rep 11, 11579 (2021). https://doi.org/10.1038/s41598-021-90444-8
[3] PNAS 27. März 2018 115 (13) E2970-E2979; erstmals veröffentlicht am 12. März 2018; https://doi.org/10.1073/pnas.1717139115
Über den Autor
Pablo Nuñez Pölcher, MSc, ist ein Senior Solutions Architect, der für das Team des öffentlichen Sektors bei Amazon Web Services arbeitet. Pablo konzentriert sich darauf, Kunden des öffentlichen Sektors im Gesundheitswesen dabei zu helfen, neue, innovative Produkte auf AWS gemäß Best Practices zu entwickeln. Er erhielt seinen M.Sc. in Biowissenschaften von der Universidad de Buenos Aires. In seiner Freizeit fährt er gerne Fahrrad und bastelt an ML-fähigen eingebetteten Geräten.
Razvan Ionasec, PhD, MBA, ist der technische Leiter für das Gesundheitswesen bei Amazon Web Services in Europa, dem Nahen Osten und Afrika. Seine Arbeit konzentriert sich darauf, Kunden im Gesundheitswesen bei der Lösung von Geschäftsproblemen durch den Einsatz von Technologie zu unterstützen. Zuvor war Razvan Global Head of Artificial Intelligence (AI) Products bei Siemens Healthineers und verantwortlich für AI-Rad Companion, die Familie von KI-gestützten und cloudbasierten digitalen Gesundheitslösungen für die Bildgebung. Er hält mehr als 30 Patente im Bereich KI/ML für die medizinische Bildgebung und hat über 70 internationale, von Experten begutachtete technische und klinische Veröffentlichungen zu Computer Vision, Computermodellierung und medizinischer Bildanalyse veröffentlicht. Razvan erhielt seinen Doktortitel in Informatik von der Technischen Universität München und seinen MBA von der University of Cambridge, Judge Business School.
- '
- "
- &
- 100
- 11
- 110
- 2020
- 2021
- 7
- Über uns
- beschleunigen
- Zugang
- Konto
- Action
- Afrika
- AI
- Algorithmus
- Alle
- bereits
- Obwohl
- Amazon
- Amazon-Anerkennung
- Amazon Sage Maker
- Amazon Web Services
- Analyse
- Anwendung
- Anwendungen
- APT
- Architektur
- künstlich
- künstliche Intelligenz
- Künstliche Intelligenz (AI)
- Details
- Authentifizierung
- Verfügbarkeit
- verfügbar
- AWS
- Balancer
- BESTE
- Best Practices
- Blog
- Stärkung
- Box
- Brustkrebs
- bauen
- Geschäft
- rufen Sie uns an!
- Cambridge
- Kann bekommen
- Krebs
- Krebsforschung
- berechnen
- Einstufung
- Code
- Sammlung
- Bemerkungen
- Computerwissenschaften
- Computer Vision
- Vertrauen
- Konfiguration
- Konsul (Console)
- Container
- Behälter
- enthält
- weiter
- Kosten
- Erstellen
- Referenzen
- Kunden
- technische Daten
- Datenbase
- Datenbanken
- tiefe Lernen
- zerstören
- Detail
- Entdeckung
- Entwickler
- Entwicklung
- Geräte
- anders
- digital
- Digitale Gesundheit
- Digitalisierung
- Docker
- Ärzte
- nach unten
- leicht
- Echo
- Endpunkt
- Arbeitsumfeld
- Europa
- Beispiel
- ERFAHRUNGEN
- exportieren
- Familie
- Merkmal
- Eigenschaften
- Abbildung
- Vorname
- folgen
- Gabel
- Format
- gefunden
- Unser Ansatz
- Frei
- voller
- Funktion
- Zukunft
- erzeugen
- Geometrie
- GitHub
- Unterstützung
- Global
- Gold
- gewähren
- für Balkonkraftwerke Reduzierung
- mit
- ganzer
- Gesundheit
- Gesundheitswesen
- Hilfe
- hier
- Ultraschall
- Hilfe
- HTTPS
- IAM
- Identitätsschutz
- Image
- Bildanalyse
- Bildsegmentierung
- Imaging
- Einfuhr
- Information
- innovativ
- Integral
- Integration
- Intelligenz
- Interesse
- International
- beteiligt
- IT
- Jupyter Notizbuch
- Etiketten
- grosse
- neueste
- Start
- LERNEN
- gelernt
- lernen
- Niveau
- Bibliothek
- Line
- linux
- Liste
- Listen
- Belastung
- Lokalisierung
- Maschinelles Lernen
- Landkarten
- März
- sowie medizinische
- medizinische Bildgebung
- mittlere
- Mittlerer Osten
- ML
- Modell
- Modellieren
- für
- mehr
- München
- Namen
- Navigation
- erforderlich
- Objekterkennung
- Einsteigen
- Andere
- Eigentümer
- Patente
- Pathologie
- Patienten
- Leistung
- persönliche
- Plattform
- Datenschutzrichtlinien
- Principal
- privat
- Prozessdefinierung
- Produktion
- PRODUKTIVITÄT
- Produkte
- Profis
- Projekt
- Projekte
- die
- bietet
- Öffentlichkeit
- Öffentlicher Sektor
- Publikationen
- Python
- RAM
- Forschungsprojekte
- Downloads
- Antwort
- Führen Sie
- Laufen
- sagemaker
- Scannen
- Schule
- Wissenschaft
- WISSENSCHAFTEN
- Bibliotheken
- ausgewählt
- Leistungen
- kompensieren
- Einstellung
- Teilen
- Siemens
- signifikant
- Einfacher
- Größe
- klein
- So
- Lösungen
- LÖSEN
- Raumfahrt
- spezialisiert
- gespalten
- Stufe
- Anfang
- begonnen
- Bundesstaat
- Status
- Lagerung
- speichern
- Studio Adressen
- Unterstützt
- Schalter
- Systeme und Techniken
- Target
- Technische
- Techniken
- Technologie
- Test
- Die Quelle
- Durch
- Zeit
- Zeitaufwendig
- gemeinsam
- Zeichen
- Werkzeuge
- Top
- Ausbildung
- Transaktionen
- einzigartiges
- Universität
- Universität von Cambridge
- Aktualisierung
- URI
- us
- USD
- Wert
- Version
- Seh-
- W
- Netz
- Web-Services
- Webbasiert
- Was
- Was ist
- WHO
- weit
- .
- ohne
- Arbeiten
- arbeiten,
- würde
- Schreiben
- X
- Jahr
- Youtube