I sistemi di raccomandazione sono una delle tecnologie di machine learning (ML) più ampiamente adottate nelle applicazioni del mondo reale, dai social network alle piattaforme di e-commerce. Gli utenti di molti sistemi online si affidano ai sistemi di raccomandazione per stringere nuove amicizie, scoprire nuova musica in base agli elenchi musicali suggeriti o persino prendere decisioni di acquisto e-commerce in base ai prodotti consigliati. Nei social network, un caso d'uso comune è consigliare nuovi amici a un utente in base alle altre connessioni degli utenti. Gli utenti con amici comuni probabilmente si conoscono. Pertanto, dovrebbero avere un punteggio più alto per un sistema di raccomandazione da proporre se non sono ancora stati collegati.
I social network possono naturalmente essere espressi in un grafico, dove i nodi rappresentano le persone e le connessioni tra le persone, come l'amicizia o i colleghi, sono rappresentate dai bordi. Quanto segue illustra uno di questi social network. Immaginiamo di avere un social network con i membri (nodi) Bill, Terry, Henry, Gary e Alistair. Le loro relazioni sono rappresentate da un collegamento (bordo) e gli interessi di ogni persona, come sport, arte, giochi e fumetti, sono rappresentati dalle proprietà del nodo.
L'obiettivo qui è prevedere se esiste un potenziale collegamento mancante tra i membri. Ad esempio, dovremmo raccomandare una connessione tra Henry e Terry? Guardando il grafico, possiamo vedere che hanno due amici in comune, Gary e Alistair. Pertanto, c'è una buona possibilità che Henry e Terry si conoscessero già o che si conoscessero presto. Che ne dici di Henry e Bill? Non hanno amici in comune, ma hanno qualche connessione debole attraverso le connessioni dei loro amici. Inoltre, entrambi hanno interessi simili nelle arti, nei fumetti e nei giochi. Dovremmo promuovere questa connessione? Tutte queste domande e intuizioni sono la logica centrale dei sistemi di raccomandazione dei social network.
Un modo possibile per farlo è consigliare relazioni basate sull'esplorazione del grafico. Nei linguaggi di query del grafico, ad esempio Apache TinkerPop Gremlin, l'implementazione di insiemi di regole come il conteggio degli amici comuni, è relativamente semplice e può essere utilizzata per determinare il collegamento tra Henry e Terry. Tuttavia, questi set di regole saranno molto complicati quando vogliamo tenere conto di altri attributi come le proprietà del nodo, la forza della connessione, ecc. Immaginiamo un set di regole per determinare il collegamento tra Henry e Bill. Questo set di regole deve tenere conto dei loro interessi comuni e delle loro connessioni deboli attraverso determinati percorsi nel grafico. Per aumentare la robustezza, potremmo anche aver bisogno di aggiungere un fattore di distanza per favorire connessioni forti e penalizzare quelle deboli. Allo stesso modo, vorremmo un fattore per favorire interessi comuni. Presto, i set di regole che possono rivelare schemi nascosti complessi diventeranno impossibili da enumerare.
La tecnologia ML ci consente di scoprire schemi nascosti imparando algoritmi. Un esempio è XGBoost, ampiamente utilizzato per attività di classificazione o regressione. Tuttavia, algoritmi come XGBoost utilizzano un approccio ML convenzionale basato su un formato dati tabulare. Questi approcci non sono ottimizzati per le strutture di dati dei grafici e richiedono un'ingegnerizzazione complessa delle funzionalità per far fronte a questi modelli di dati.
Nell'esempio di social network precedente, le informazioni sull'interazione del grafico sono fondamentali per migliorare l'accuratezza della raccomandazione. Graph Neural Network (GNN) è un framework di deep learning (DL) che può essere applicato ai dati del grafico per eseguire attività di previsione a livello di bordo, a livello di nodo o a livello di grafico. I GNN possono sfruttare le caratteristiche dei singoli nodi e le informazioni sulla struttura del grafico durante l'apprendimento della rappresentazione del grafico e dei modelli sottostanti. Pertanto, negli ultimi anni, i metodi basati su GNN hanno stabilito nuovi standard su molti benchmark di sistemi di raccomandazione. Vedere informazioni più dettagliate in recenti documenti di ricerca: Un'indagine completa sulle reti neurali a grafo ed Sistemi di raccomandazione basati sull'apprendimento grafico: una revisione.
Quello che segue è un famoso esempio di tale caso d'uso. I ricercatori e gli ingegneri di Pinterest si sono formati Rappresentazione grafica di reti neurali convoluzionali per sistemi di raccomandazione su scala Web, chiamato PinSage, con tre miliardi di nodi che rappresentano pin e schede e 18 miliardi di bordi. PinSage genera incorporamenti di alta qualità che rappresentano i pin (segnalibri visivi ai contenuti online). Questi possono essere utilizzati per un'ampia gamma di attività di raccomandazione a valle, come le ricerche del vicino più vicino nello spazio di incorporamento appreso per la scoperta di contenuti e le raccomandazioni.
In questo post, ti illustreremo come utilizzare i GNN per i casi d'uso di raccomandazione, trasformandoli in un problema di previsione dei collegamenti. Illustreremo anche come Neptune ML può facilitare l'implementazione. Forniremo anche codice di esempio su GitHub per addestrare il tuo primo GNN con Neptune ML e fare inferenze di raccomandazioni sul grafico demo attraverso attività di previsione dei collegamenti.
Previsione dei collegamenti con Graph Neural Networks
Considerando il precedente esempio di social network, vorremmo raccomandare nuovi amici a Henry. Sia Terry che Bill sarebbero buoni candidati. Terry ha più amici comuni (Gary, Alistair) con Henry ma nessun interesse comune. Mentre Bill condivide interessi comuni (arte, fumetti, giochi) con Henry, ma nessun amico comune. Quale sarebbe una raccomandazione migliore? Quando inquadrato come un problema di previsione del collegamento, il compito è assegnare un punteggio a qualsiasi possibile collegamento tra i due nodi. Più alto è il punteggio del collegamento, più è probabile che questa raccomandazione converga. Apprendendo le strutture dei collegamenti già presenti nel grafico, un modello di previsione dei collegamenti può generalizzare nuove previsioni dei collegamenti che "completano" il grafico.
I parametri della funzione f
che prevede che il punteggio del collegamento venga appreso durante la fase di addestramento. Poiché la funzione f
effettua una previsione per due nodi qualsiasi nel grafico, i vettori di caratteristiche associati ai nodi sono essenziali per il processo di apprendimento. Per prevedere il punteggio del collegamento tra Henry e Bill, abbiamo una serie di funzionalità di dati grezzi (arti, fumetti, giochi) che possono rappresentare Henry e Bill. Trasformiamo questo, insieme alle connessioni nel grafico, utilizzando una rete GNN per formare nuove rappresentazioni note come incorporamenti di nodi. Possiamo anche integrare o sostituire le funzionalità grezze iniziali con i vettori di una tabella di ricerca incorporata che può essere appresa durante il processo di addestramento. Idealmente, le caratteristiche incorporate per Henry e Bill dovrebbero rappresentare i loro interessi così come le loro informazioni topologiche dal grafico.
Come funzionano i GNN
Un GNN trasforma le caratteristiche del nodo iniziale in incorporamenti di nodi utilizzando una tecnica chiamata passaggio di messaggi. Il processo di passaggio dei messaggi è illustrato nella figura seguente. All'inizio, gli attributi o le caratteristiche del nodo vengono convertiti in attributi numerici. Nel nostro caso, eseguiamo la codifica one-hot delle caratteristiche categoriche (interessi di Henry: arte, fumetti, giochi). Quindi, il primo strato di GNN aggrega tutte le caratteristiche grezze dei vicini (Gary e Alistair) (in nero) per formare un nuovo insieme di caratteristiche (in giallo). Un approccio comune è la trasformazione lineare di tutte le caratteristiche vicine, quindi aggregarle attraverso una somma normalizzata e passare i risultati in una funzione di attivazione non lineare, come ReLU, per generare un nuovo insieme di vettori. La figura seguente illustra come funziona il passaggio di messaggi per node Henry. H, l'algoritmo di passaggio dei messaggi GNN, calcolerà le rappresentazioni per tutti i nodi del grafo. Questi vengono successivamente utilizzati come funzioni di input per il secondo livello.
Il secondo strato di un GNN ripete lo stesso processo. Prende la feature calcolata in precedenza (in giallo) dal primo layer come input, aggrega tutte le nuove feature incorporate dei vicini di Gary e Alistair e genera vettori di feature di secondo layer per Henry (in arancione). Come puoi vedere, ripetendo il meccanismo di passaggio dei messaggi, abbiamo esteso l'aggregazione delle funzionalità ai vicini a 2 hop. Nella nostra illustrazione, ci limitiamo ai vicini a 2 hop, ma l'estensione nei vicini a 3 hop può essere eseguita allo stesso modo aggiungendo un altro livello GNN.
Gli incorporamenti finali di Henry e Bill (in arancione) vengono utilizzati per calcolare il punteggio. Durante il processo di addestramento, il link score è definito come 1 quando esiste il bordo tra i due nodi (campione positivo), e come 0 quando non esistono i bordi tra i due nodi (campione negativo). Quindi, l'errore o la perdita tra il punteggio effettivo e la previsione f(e1,e2)
viene retropropagato nei livelli precedenti per regolare i pesi. Una volta terminato l'addestramento, possiamo fare affidamento sui vettori di funzionalità incorporati per ciascun nodo per calcolare i loro punteggi di collegamento con la nostra funzione f
.
In questo esempio, abbiamo semplificato l'attività di apprendimento su a grafico omogeneo, dove tutti i nodi e gli spigoli sono dello stesso tipo. Ad esempio, tutti i nodi nel grafico sono del tipo "Persone" e tutti i bordi sono del tipo "amici con". Tuttavia, l'algoritmo di apprendimento supporta anche grafi eterogenei con diversi tipi di nodi e archi. Possiamo estendere il caso d'uso precedente per consigliare prodotti a utenti diversi che condividono interazioni e interessi simili. Vedi maggiori dettagli in questo documento di ricerca: Modellazione di dati relazionali con reti convoluzionali a grafo.
Ad AWS re:Invent 2020, abbiamo introdotto Amazon Nettuno ML, che consente ai nostri clienti di addestrare modelli ML su dati grafici, senza necessariamente avere una profonda esperienza di ML. In questo esempio, con l'aiuto di Neptune ML, ti mostreremo come costruire il tuo sistema di raccomandazione sui dati del grafico.
Allena la tua Graph Convolution Network con Amazon Neptune ML
Neptune ML utilizza la tecnologia della rete neurale del grafico per creare, addestrare e distribuire automaticamente modelli ML sui dati del grafico. Neptune ML supporta le comuni attività di previsione dei grafici, come la classificazione e la regressione dei nodi, la classificazione e la regressione dei bordi e la previsione dei collegamenti.
È alimentato da:
- Amazon Nettuno: un database grafico veloce, affidabile e completamente gestito, ottimizzato per archiviare miliardi di relazioni e interrogare il grafico con una latenza di millisecondi. Amazon Neptune supporta tre standard aperti per la creazione di applicazioni grafiche: Apache TinkerPop Gremlin, RDF SPARQL e openCypher. Scopri di più su Panoramica delle funzionalità di Amazon Neptune.
- Amazon Sage Maker: un servizio completamente gestito che offre a ogni sviluppatore e data scientist la possibilità di preparare rapidamente la creazione, l'addestramento e l'implementazione di modelli ML.
- Libreria Deep Graph (DGL): Un open-source, pacchetto Python ad alte prestazioni e scalabile per DL su grafici. Fornisce primitive di passaggio di messaggi veloci ed efficienti in termini di memoria per l'addestramento di reti neurali a grafo. Neptune ML utilizza DGL per scegliere e addestrare automaticamente il miglior modello ML per il tuo carico di lavoro. Ciò consente di effettuare previsioni basate su ML sui dati del grafico in ore anziché in settimane.
Il modo più semplice per iniziare con Neptune ML è utilizzare il file Modello di avvio rapido di AWS CloudFormation. Il modello installa tutti i componenti necessari, incluso un cluster di database Neptune, e configura le configurazioni di rete, i ruoli IAM e l'istanza notebook SageMaker associata con esempi di notebook precompilati per Neptune ML.
La figura seguente illustra diversi passaggi per Neptune ML per addestrare un sistema di raccomandazione basato su GNN. Ingrandiamo ogni passaggio ed esploriamo cosa comporta:
-
Configurazione dell'esportazione dei dati
Il primo passaggio nel nostro processo Neptune ML consiste nell'esportare i dati del grafico dal cluster Neptune. Dobbiamo specificare i parametri e la configurazione del modello per l'attività di esportazione dei dati. Utilizziamo il banco di lavoro Neptune per tutte le configurazioni e gli elogi. Il workbench ci consente di lavorare con il cluster Neptune DB utilizzando i notebook Jupyter ospitati da Amazon SageMaker. Inoltre, fornisce una serie di comandi magici nei taccuini che consentono di risparmiare molto tempo e fatica. Ecco il nostro esempio di parametri di esportazione:
In export_params
, dobbiamo configurare la configurazione di base, come il cluster Neptune e l'output Servizio di archiviazione semplice Amazon (S3) percorso per l'archiviazione dei dati esportati. La configurazione specificata in additionalParams
è il tipo di attività ML da eseguire. In questo esempio, la previsione del collegamento viene facoltativamente utilizzata per prevedere un particolare tipo di bordo (Utente—AMICO—Utente). Se non viene specificato alcun tipo di destinazione, Neptune ML presumerà che l'attività sia Previsione collegamento. I parametri specificano anche i dettagli sui dati memorizzati nel nostro grafico e su come il modello ML interpreterà tali dati (abbiamo "Utente" come nodo e "interessi" come proprietà del nodo).
Per eseguire ogni fase del processo di creazione ML, utilizza semplicemente i comandi del workbench di Neptune. Il Banco da lavoro Nettuno contiene una magia di linea e una magia di cella che possono farti risparmiare molto tempo nella gestione di questi passaggi. Per eseguire l'esportazione dei dati, utilizzare il comando Neptune workbench: %neptune_ml export start
Una volta completato il lavoro di esportazione, avremo il grafico di Nettuno esportato in formato CSV e archiviato in un bucket S3. Ci saranno due tipi di file: nodes.csv
ed edges.csv
. Un file denominato training-data-configuration.json
verrà anche generato che ha la configurazione necessaria per Neptune ML per eseguire l'addestramento del modello.
See Esporta i dati da Neptune per Neptune ML per maggiori informazioni.
-
Preelaborazione dei dati
Neptune ML esegue l'estrazione e la codifica delle caratteristiche come parte delle fasi di elaborazione dei dati. I tipi comuni di pre-elaborazione delle proprietà includono: codifica di caratteristiche categoriche attraverso la codifica one-hot, raggruppamento di caratteristiche numeriche o utilizzo di word2vec per codificare una proprietà di stringa o altri valori di proprietà di testo in formato libero.
Nel nostro esempio, useremo semplicemente la proprietà “interessi”. Neptune ML codifica i valori come multicategorici. Tuttavia, se un valore categoriale è complesso (più di tre parole per nodo), Neptune ML deduce che il tipo di proprietà è text e utilizza la codifica text_word2vec.
Per eseguire la pre-elaborazione dei dati, utilizzare il seguente comando magico del notebook Neptune: %neptune_ml dataprocessing start
Al termine di questa fase, viene generato un grafico DGL dal set di dati esportato per l'utilizzo nella fase di addestramento del modello. Neptune ML ottimizza automaticamente il modello con i processi di ottimizzazione dell'ottimizzazione degli iperparametri definiti in training-data-configuration.json
. Possiamo scaricare e modificare questo file per mettere a punto gli iperparametri del modello, come batch-size, num-hidden, num-epochs, dropout, ecc. Ecco un esempio di file configuration.json.
See Elaborazione dei dati del grafico esportati da Neptune per l'addestramento per maggiori informazioni.
-
Allenamento modello
Il passo successivo è l'addestramento automatizzato del modello GNN. L'addestramento del modello avviene in due fasi. La prima fase utilizza un processo di elaborazione SageMaker per generare una strategia di addestramento del modello. Si tratta di un set di configurazione che specifica il tipo di modello e gli intervalli di iperparametri del modello che verranno usati per l'addestramento del modello.
Quindi, verrà avviato un lavoro di ottimizzazione degli iperparametri di SageMaker. Il SageMaker Hyperparameter Tuning Lavoro di ottimizzazione esegue un numero predefinito di prove di lavoro di addestramento del modello sui dati elaborati, prova diverse combinazioni di iperparametri in base al model-hpo-configuration.json
file e archivia gli artefatti del modello generati dall'addestramento nella posizione Amazon S3 di output.
Per iniziare la fase di addestramento, puoi utilizzare il %neptune_ml training start
comando.
Una volta completati tutti i processi di addestramento, il processo di ottimizzazione degli iperparametri salverà gli artefatti dal modello con le prestazioni migliori, che verrà utilizzato per l'inferenza.
Al termine dell'addestramento, Neptune ML istruirà SageMaker a salvare il modello addestrato, gli incorporamenti grezzi calcolati per i nodi e gli spigoli e le informazioni di mappatura tra gli incorporamenti e gli indici dei nodi.
See Addestrare un modello utilizzando Neptune ML per maggiori informazioni.
-
Crea un endpoint di inferenza in Amazon SageMaker
Ora che la rappresentazione grafica è stata appresa, possiamo distribuire il modello appreso dietro un endpoint per eseguire richieste di inferenza. L'input del modello sarà l'utente per il quale dobbiamo generare i consigli degli amici, insieme al tipo di edge, e l'output sarà l'elenco dei probabili amici consigliati per quell'utente.
Per distribuire il modello nell'istanza dell'endpoint SageMaker, utilizza il file %neptune_ml endpoint create
comando.
-
Interroga il modello ML usando Gremlin
Una volta che l'endpoint è pronto, possiamo usarlo per le query di inferenza del grafico. Neptune ML supporta query di inferenza grafica in Gremlin o SPARQL. Nel nostro esempio, ora possiamo controllare la raccomandazione degli amici con Neptune ML sull'utente "Henry". Richiede quasi la stessa sintassi per attraversare il confine ed elenca gli altri utenti che sono connessi a Henry tramite la connessione FRIEND.
Neptune#ml.prediction
restituisce la connessione determinata dalle previsioni di Neptune ML utilizzando il modello che abbiamo appena addestrato sul grafico sociale. Bill viene restituito proprio come le nostre aspettative.
Ecco un'altra query di previsione di esempio utilizzata per prevedere i primi otto utenti che hanno maggiori probabilità di connettersi con Henry:
I risultati sono classificati dalla connessione più forte alla connessione più debole, dove Henry — FRIEND — Colin and Henry — FRIEND — Terry
viene anche proposto. Questa proposta avviene tramite ML basato su grafi in cui è possibile esplorare modelli di interazione complessi su grafi.
See Query di inferenza Gremlin in Neptune ML per maggiori informazioni.
Trasformazione o riaddestramento del modello quando i dati del grafico cambiano
Un'altra domanda che potresti porre è: cosa succede se il mio social network cambia o se voglio dare consigli per gli utenti appena aggiunti? In questi scenari, in cui i grafici cambiano continuamente, potrebbe essere necessario aggiornare le previsioni ML con i dati del grafico più recenti. Gli artefatti del modello generati dopo l'addestramento sono direttamente collegati al grafico di addestramento. Ciò significa che l'endpoint di inferenza deve essere aggiornato una volta che le entità nel grafico di training originale cambiano.
Tuttavia, non è necessario riaddestrare l'intero modello per fare previsioni sul grafico aggiornato. Con un flusso di lavoro di inferenza del modello incrementale, devi solo esportare i dati del database Neptune, eseguire una pre-elaborazione dei dati incrementale, eseguire un processo di trasformazione batch del modello e quindi aggiornare l'endpoint di inferenza. La fase di trasformazione del modello prende il modello addestrato dal flusso di lavoro principale e i risultati della fase di pre-elaborazione dei dati incrementali come input. Quindi emette un nuovo artefatto del modello da utilizzare per l'inferenza. Questo nuovo artefatto del modello viene creato dai dati del grafico aggiornati.
Un focus speciale qui è per il comando del passaggio di trasformazione del modello. Può calcolare gli artefatti del modello sui dati del grafico che non sono stati utilizzati per l'addestramento del modello. Gli incorporamenti dei nodi vengono ricalcolati e tutti gli incorporamenti dei nodi esistenti vengono sovrascritti. Neptune ML applica il codificatore GNN appreso dal precedente modello addestrato ai nuovi nodi di dati del grafico con le loro nuove funzionalità. Pertanto, i nuovi dati del grafico devono essere elaborati utilizzando le stesse codifiche delle caratteristiche e devono aderire allo stesso schema del grafico dei dati del grafico originale. Scopri ulteriori dettagli sull'implementazione di Neptune ML su Generazione di nuovi artefatti del modello.
Inoltre, puoi ripetere il training dell'intero modello se il grafico cambia drasticamente o se il modello precedentemente addestrato non è più in grado di rappresentare con precisione le interazioni sottostanti. In questo caso, il riutilizzo dei parametri del modello appresi su un nuovo grafico non può garantire prestazioni del modello simili. È necessario riaddestrare il modello sul nuovo grafico. Per accelerare la ricerca degli iperparametri, Neptune ML può sfruttare le informazioni dell'attività di addestramento del modello precedente con avvio a caldo: i risultati dei lavori di addestramento precedenti vengono utilizzati per selezionare buone combinazioni di iperparametri da cercare nel nuovo lavoro di ottimizzazione.
See flussi di lavoro per la gestione dei dati dei grafici in evoluzione per ulteriori dettagli.
Conclusione
In questo post, hai visto come Neptune ML e GNN possono aiutarti a formulare raccomandazioni sui dati del grafico utilizzando un'attività di previsione dei collegamenti combinando le informazioni dai complessi modelli di interazione nel grafico.
La previsione dei collegamenti è un modo per implementare un sistema di raccomandazione sul grafico. Puoi costruire il tuo suggeritore in molti altri modi. È possibile utilizzare gli incorporamenti appresi durante l'addestramento alla previsione dei collegamenti per raggruppare i nodi in segmenti diversi in modo non supervisionato e consigliare gli elementi a quello appartenente allo stesso segmento. Inoltre, è possibile ottenere gli incorporamenti e inserirli in un sistema di raccomandazione basato sulla somiglianza a valle come funzionalità di input. Ora questa funzione di input aggiuntiva codifica anche le informazioni semantiche derivate dal grafico e può fornire miglioramenti significativi alla precisione complessiva del sistema. Scopri di più su Amazon Neptune ML visitando il sito web oppure sentiti libero di fare domande nei commenti!
Informazioni sugli autori
Yanwei Cui, PhD, è un architetto di soluzioni specializzato in machine learning presso AWS. Ha iniziato la ricerca sull'apprendimento automatico presso l'IRISA (Research Institute of Computer Science and Random Systems) e ha diversi anni di esperienza nella creazione di applicazioni industriali basate sull'intelligenza artificiale nella visione artificiale, nell'elaborazione del linguaggio naturale e nella previsione del comportamento degli utenti online. In AWS, condivide l'esperienza del dominio e aiuta i clienti a sbloccare i potenziali di business e a ottenere risultati attuabili con l'apprendimento automatico su larga scala. Al di fuori del lavoro, ama leggere e viaggiare.
Will Badr è una Principal AI/ML Specialist SA che lavora come parte del team globale di Amazon Machine Learning. Will è appassionato di utilizzare la tecnologia in modi innovativi per avere un impatto positivo sulla comunità. Nel tempo libero ama fare immersioni, giocare a calcio ed esplorare le isole del Pacifico.
- '
- "
- 100
- 2020
- 7
- Chi siamo
- Secondo
- Il mio account
- aggiunta
- aggiuntivo
- algoritmo
- Algoritmi
- Tutti
- già
- Amazon
- Apprendimento automatico di Amazon
- Amazon Sage Maker
- Apache
- applicazioni
- artificiale
- intelligenza artificiale
- Arte
- Automatizzata
- AWS
- AWS re: Invent
- Inizio
- MIGLIORE
- Conto
- Miliardo
- Nero
- costruire
- Costruzione
- affari
- casi
- sfide
- classificazione
- codice
- Uncommon
- comunità
- complesso
- Calcolare
- Informatica
- Visione computerizzata
- informatica
- Configurazione
- veloce
- Connessioni
- consolle
- contenuto
- converge
- potuto
- Clienti
- dati
- scienziato di dati
- memorizzazione dei dati
- Banca Dati
- affare
- apprendimento profondo
- Costruttori
- diverso
- scoperta
- distanza
- ecommerce
- bordo
- endpoint
- Ingegneria
- Ingegneri
- eccetera
- esempio
- esperienza
- esplorazione
- export
- estrazione
- FAST
- caratteristica
- Caratteristiche
- figura
- Nome
- Focus
- modulo
- formato
- Contesto
- Gratis
- Amicizia
- function
- Giochi
- generare
- globali
- buono
- reti neurali grafiche
- grande
- Manovrabilità
- Aiuto
- aiuta
- qui
- Come
- Tutorial
- HTTPS
- IAM
- Impact
- Implementazione
- miglioramento
- Compreso
- Aumento
- individuale
- industriale
- informazioni
- creativi e originali
- Intelligence
- interazione
- interessi
- IT
- Lavoro
- Offerte di lavoro
- Lingua
- Le Lingue
- IMPARARE
- imparato
- apprendimento
- Leva
- Biblioteca
- linea
- LINK
- Lista
- elenchi
- località
- cerca
- ricerca
- machine learning
- Utenti
- millisecondo
- ML
- modello
- Musica
- Linguaggio naturale
- Elaborazione del linguaggio naturale
- di applicazione
- vicinato
- Rete
- reti
- Neurale
- rete neurale
- reti neurali
- Nuove funzionalità
- nodi
- computer portatili
- online
- aprire
- Altro
- Pacifico
- Carta
- Persone
- performance
- fase
- Piattaforme
- Giocare
- Precisione
- predizione
- Previsioni
- presenti
- Direttore
- Problema
- processi
- Prodotti
- Profilo
- promuoverlo
- proprietà
- offre
- fornire
- fornisce
- Acquista
- Python
- domanda
- gamma
- Crudo
- dati grezzi
- RE
- Lettura
- regressione
- Relazioni
- sostituire
- riparazioni
- Risultati
- riqualificazione
- problemi
- Correre
- sagemaker
- Scala
- Scienze
- Cerca
- set
- Condividi
- azioni
- simile
- Un'espansione
- piccole
- Calcio
- Social
- grafico sociale
- social network
- social network
- Soluzioni
- lo spazio
- Sports
- Stage
- standard
- inizia a
- iniziato
- conservazione
- negozi
- Strategia
- integrare
- supporti
- Indagine
- sistema
- SISTEMI DI TRATTAMENTO
- Target
- Tecnologie
- Tecnologia
- Il grafo
- Attraverso
- tempo
- top
- Training
- Trasformare
- Trasformazione
- Aggiornanento
- us
- utenti
- APPREZZIAMO
- visione
- Che
- OMS
- ampiamente
- wikipedia
- senza
- parole
- Lavora
- flusso di lavoro
- lavori
- sarebbe
- anni
- zoom