Los sistemas de recomendación son una de las tecnologías de aprendizaje automático (ML) más ampliamente adoptadas en aplicaciones del mundo real, que van desde redes sociales hasta plataformas de comercio electrónico. Los usuarios de muchos sistemas en línea confían en los sistemas de recomendación para hacer nuevas amistades, descubrir nueva música según las listas de música sugerida o incluso tomar decisiones de compra de comercio electrónico basadas en los productos recomendados. En las redes sociales, un caso de uso común es recomendar nuevos amigos a un usuario en función de otras conexiones de los usuarios. Es probable que los usuarios con amigos comunes se conozcan entre sí. Por lo tanto, deberían tener una puntuación más alta para que un sistema de recomendación proponga si aún no se han conectado.
Las redes sociales se pueden expresar naturalmente en un gráfico, donde los nodos representan personas y las conexiones entre personas, como amistades o compañeros de trabajo, están representadas por bordes. A continuación se ilustra una de esas redes sociales. Imaginemos que tenemos una red social con los miembros (nodos) Bill, Terry, Henry, Gary y Alistair. Sus relaciones están representadas por un enlace (borde), y los intereses de cada persona, como deportes, artes, juegos y cómics, están representados por propiedades de nodo.
El objetivo aquí es predecir si existe un posible eslabón perdido entre los miembros. Por ejemplo, ¿deberíamos recomendar una conexión entre Henry y Terry? Mirando el gráfico, podemos ver que tienen dos amigos en común, Gary y Alistair. Por lo tanto, existe una buena probabilidad de que Henry y Terry ya se conozcan o se conozcan pronto. ¿Qué hay de Henry y Bill? No tienen amigos en común, pero tienen una conexión débil a través de las conexiones de sus amigos. Además, ambos tienen intereses similares en las artes, los cómics y los juegos. ¿Debemos promover esta conexión? Todas estas preguntas e intuiciones son la lógica central de los sistemas de recomendación de redes sociales.
Una forma posible de hacer esto es recomendar relaciones basadas en la exploración de gráficos. En lenguajes de consulta de gráficos, como Apache TinkerPop Gremlin, la implementación de conjuntos de reglas, como contar amigos comunes, es relativamente fácil y se puede usar para determinar el vínculo entre Henry y Terry. Sin embargo, estos conjuntos de reglas serán muy complicados cuando queramos tener en cuenta otros atributos como las propiedades de los nodos, la fuerza de la conexión, etc. Imaginemos un conjunto de reglas para determinar el vínculo entre Henry y Bill. Este conjunto de reglas debe dar cuenta de sus intereses comunes y sus conexiones débiles a través de ciertos caminos en el gráfico. Para aumentar la robustez, es posible que también debamos agregar un factor de distancia para favorecer las conexiones fuertes y penalizar las débiles. Del mismo modo, querríamos un factor que favoreciera los intereses comunes. Pronto, los conjuntos de reglas que pueden revelar patrones ocultos complejos serán imposibles de enumerar.
La tecnología ML nos permite descubrir patrones ocultos mediante el aprendizaje de algoritmos. Un ejemplo es XGBoost, que se usa mucho para tareas de clasificación o regresión. Sin embargo, los algoritmos como XGBoost utilizan un enfoque de ML convencional basado en un formato de datos tabulares. Estos enfoques no están optimizados para estructuras de datos de gráficos y requieren una ingeniería de características compleja para hacer frente a estos patrones de datos.
En el ejemplo anterior de la red social, la información de interacción del gráfico es fundamental para mejorar la precisión de la recomendación. Graph Neural Network (GNN) es un marco de aprendizaje profundo (DL) que se puede aplicar a datos de gráficos para realizar tareas de predicción a nivel de borde, de nodo o de gráfico. Los GNN pueden aprovechar las características de los nodos individuales, así como la información de la estructura del gráfico al aprender la representación del gráfico y los patrones subyacentes. Por lo tanto, en los últimos años, los métodos basados en GNN han establecido nuevos estándares en muchos puntos de referencia del sistema de recomendación. Ver información más detallada en trabajos de investigación recientes: Una encuesta completa sobre redes neuronales gráficas y Sistemas de recomendación basados en aprendizaje gráfico: una revisión.
El siguiente es un ejemplo famoso de tal caso de uso. Los investigadores e ingenieros de Pinterest se han capacitado Graficar redes neuronales convolucionales para sistemas de recomendación a escala web, llamado PinSage, con tres mil millones de nodos que representan pines y tableros, y 18 mil millones de bordes. PinSage genera incrustaciones de alta calidad que representan pines (marcadores visuales para contenido en línea). Estos se pueden usar para una amplia gama de tareas de recomendación posteriores, como búsquedas de vecinos más cercanos en el espacio de incrustación aprendido para recomendaciones y descubrimiento de contenido.
En esta publicación, lo guiaremos a través de cómo usar GNN para casos de uso de recomendación al presentar esto como un problema de predicción de enlaces. También ilustraremos cómo Neptune ML puede facilitar la implementación. También proporcionaremos código de muestra en GitHub para entrenar su primer GNN con Neptune ML y hacer inferencias de recomendación en el gráfico de demostración a través de tareas de predicción de enlaces.
Predicción de enlaces con Graph Neural Networks
Teniendo en cuenta el ejemplo anterior de la red social, nos gustaría recomendar nuevos amigos a Henry. Tanto Terry como Bill serían buenos candidatos. Terry tiene más amigos en común (Gary, Alistair) con Henry, pero no tiene intereses comunes. Mientras que Bill comparte intereses comunes (artes, cómics, juegos) con Henry, pero no tiene amigos comunes. ¿Cuál sería una mejor recomendación? Cuando se enmarca como un problema de predicción de enlaces, la tarea es asignar una puntuación a cualquier posible enlace entre los dos nodos. Cuanto mayor sea la puntuación del enlace, más probable es que esta recomendación converja. Mediante el aprendizaje de estructuras de enlaces ya presentes en el gráfico, un modelo de predicción de enlaces puede generalizar nuevas predicciones de enlaces que "completan" el gráfico.
Los parámetros de la función. f
que predice que la puntuación del enlace se aprende durante la fase de entrenamiento. Dado que la función f
hace una predicción para cualquiera de los dos nodos en el gráfico, los vectores de características asociados con los nodos son esenciales para el proceso de aprendizaje. Para predecir la puntuación del vínculo entre Henry y Bill, tenemos un conjunto de características de datos sin procesar (artes, cómics, juegos) que pueden representar a Henry y Bill. Transformamos esto, junto con las conexiones en el gráfico, utilizando una red GNN para formar nuevas representaciones conocidas como incrustaciones de nodos. También podemos complementar o reemplazar las características sin procesar iniciales con vectores de una tabla de búsqueda incrustada que se puede aprender durante el proceso de capacitación. Idealmente, las características incrustadas de Henry y Bill deberían representar sus intereses, así como su información topológica del gráfico.
Cómo funcionan las GNN
Un GNN transforma las características iniciales del nodo en incrustaciones de nodos mediante el uso de una técnica llamada paso de mensajes. El proceso de paso de mensajes se ilustra en la siguiente figura. Al principio, los atributos o características del nodo se convierten en atributos numéricos. En nuestro caso, hacemos una codificación one-hot de las características categóricas (los intereses de Henry: artes, cómics, juegos). Luego, la primera capa de GNN agrega todas las características sin procesar de los vecinos (Gary y Alistair) (en negro) para formar un nuevo conjunto de características (en amarillo). Un enfoque común es la transformación lineal de todas las características vecinas, luego agregarlas a través de una suma normalizada y pasar los resultados a una función de activación no lineal, como ReLU, para generar un nuevo conjunto de vectores. La siguiente figura ilustra cómo funciona el paso de mensajes para el nodo Enrique. H, el algoritmo de paso de mensajes GNN, calculará las representaciones para todos los nodos del gráfico. Estos se utilizan más tarde como entidades de entrada para la segunda capa.
La segunda capa de una GNN repite el mismo proceso. Toma la característica previamente calculada (en amarillo) de la primera capa como entrada, agrega todas las nuevas características integradas de los vecinos de Gary y Alistair y genera vectores de características de la segunda capa para Henry (en naranja). Como puede ver, al repetir el mecanismo de paso de mensajes, ampliamos la agregación de características a vecinos de 2 saltos. En nuestra ilustración, nos limitamos a vecinos de 2 saltos, pero la extensión a vecinos de 3 saltos se puede hacer de la misma manera agregando otra capa GNN.
Las incrustaciones finales de Henry y Bill (en naranja) se utilizan para calcular la puntuación. Durante el proceso de entrenamiento, la puntuación del vínculo se define como 1 cuando existe un borde entre los dos nodos (muestra positiva) y como 0 cuando no existen bordes entre los dos nodos (muestra negativa). Luego, el error o la pérdida entre la puntuación real y la predicción f(e1,e2)
se propaga hacia atrás en capas anteriores para ajustar los pesos. Una vez que finaliza el entrenamiento, podemos confiar en los vectores de características incorporados para que cada nodo calcule sus puntajes de enlace con nuestra función f
.
En este ejemplo, simplificamos la tarea de aprendizaje en un gráfico homogéneo, donde todos los nodos y aristas son del mismo tipo. Por ejemplo, todos los nodos del gráfico son del tipo "Personas" y todos los bordes son del tipo "amigos de". Sin embargo, el algoritmo de aprendizaje también admite gráficos heterogéneos con diferentes tipos de nodos y bordes. Podemos extender el caso de uso anterior para recomendar productos a diferentes usuarios que comparten interacciones e intereses similares. Ver más detalles en este trabajo de investigación: Modelado de datos relacionales con redes convolucionales gráficas.
En AWS re:Invent 2020, presentamos Aprendizaje automático de Amazon Neptune, que permite a nuestros clientes entrenar modelos ML en datos gráficos, sin tener necesariamente una gran experiencia en ML. En este ejemplo, con la ayuda de Neptune ML, le mostraremos cómo crear su propio sistema de recomendación a partir de datos gráficos.
Entrene su red de convolución gráfica con Amazon Neptune ML
Neptune ML utiliza tecnología de redes neuronales gráficas para crear, entrenar e implementar automáticamente modelos ML en sus datos gráficos. Neptune ML admite tareas comunes de predicción de gráficos, como clasificación y regresión de nodos, clasificación y regresión de bordes y predicción de enlaces.
Está alimentado por:
- Amazonas Neptuno: una base de datos de gráficos rápida, confiable y completamente administrada, que está optimizada para almacenar miles de millones de relaciones y consultar el gráfico con una latencia de milisegundos. Amazon Neptune admite tres estándares abiertos para crear aplicaciones gráficas: Apache TinkerPop Gremlin, RDF SPARQL y openCypher. Obtenga más información en Descripción general de las características de Amazon Neptune.
- Amazon SageMaker: un servicio completamente administrado que brinda a cada desarrollador y científico de datos la capacidad de preparar, construir, entrenar e implementar modelos ML rápidamente.
- Biblioteca de gráficos profundos (DGL): Un De código abierto, paquete Python de alto rendimiento y escalable para DL en gráficos. Proporciona primitivas de paso de mensajes rápidas y eficientes en memoria para entrenar Graph Neural Networks. Neptune ML usa DGL para elegir y entrenar automáticamente el mejor modelo de ML para su carga de trabajo. Esto le permite hacer predicciones basadas en ML en datos de gráficos en horas en lugar de semanas.
La forma más fácil de comenzar con Neptune ML es usar el Plantilla de inicio rápido de AWS CloudFormation. La plantilla instala todos los componentes necesarios, incluido un clúster de base de datos de Neptune, y configura las configuraciones de red, los roles de IAM y la instancia de notebook de SageMaker asociada con muestras de notebook rellenadas previamente para Neptune ML.
La siguiente figura ilustra diferentes pasos para que Neptune ML entrene un sistema de recomendación basado en GNN. Acerquémonos a cada paso y exploremos lo que implica:
-
Configuración de exportación de datos
El primer paso en nuestro proceso de Neptune ML es exportar los datos del gráfico del clúster de Neptune. Debemos especificar los parámetros y la configuración del modelo para la tarea de exportación de datos. Usamos el banco de trabajo Neptune para todas las configuraciones y recomendaciones. El banco de trabajo nos permite trabajar con el clúster de base de datos de Neptune mediante portátiles Jupyter alojados por Amazon SageMaker. Además, proporciona una serie de comandos mágicos en los cuadernos que ahorran mucho tiempo y esfuerzo. Aquí está nuestro ejemplo de parámetros de exportación:
In export_params
, debemos configurar la configuración básica, como el clúster de Neptune y la salida Servicio de almacenamiento simple de Amazon (S3) ruta para el almacenamiento de datos exportados. La configuración especificada en additionalParams
es el tipo de tarea de ML a realizar. En este ejemplo, la predicción de enlaces se usa opcionalmente para predecir un tipo de borde particular (Usuario—AMIGO—Usuario). Si no se especifica ningún tipo de objetivo, Neptune ML supondrá que la tarea es Predicción de enlaces. Los parámetros también especifican detalles sobre los datos almacenados en nuestro gráfico y cómo el modelo ML interpretará esos datos (tenemos "Usuario" como nodo e "intereses" como propiedad del nodo).
Para ejecutar cada paso en el proceso de creación de ML, simplemente use los comandos del banco de trabajo de Neptune. los banco de trabajo neptuno contiene una magia de línea y una magia de celda que pueden ahorrarle mucho tiempo al administrar estos pasos. Para ejecutar la exportación de datos, use el comando del banco de trabajo de Neptune: %neptune_ml export start
Una vez que se complete el trabajo de exportación, tendremos el gráfico de Neptune exportado a formato CSV y almacenado en un depósito S3. Habrá dos tipos de archivos: nodes.csv
y edges.csv
. Un archivo llamado training-data-configuration.json
también se generará con la configuración necesaria para que Neptune ML realice el entrenamiento del modelo.
See Exportar datos de Neptune para Neptune ML para obtener más información.
-
Preprocesamiento de datos
Neptune ML realiza la extracción y codificación de características como parte de los pasos de procesamiento de datos. Los tipos comunes de preprocesamiento de propiedades incluyen: codificación de características categóricas a través de la codificación one-hot, agrupación de características numéricas o uso de word2vec para codificar una propiedad de cadena u otros valores de propiedad de texto de formato libre.
En nuestro ejemplo, simplemente usaremos la propiedad "intereses". Neptune ML codifica los valores como multicategóricos. Sin embargo, si un valor categórico es complejo (más de tres palabras por nodo), Neptune ML infiere que el tipo de propiedad es texto y utiliza la codificación text_word2vec.
Para ejecutar el preprocesamiento de datos, use el siguiente comando mágico del cuaderno Neptune: %neptune_ml dataprocessing start
Al final de este paso, se genera un gráfico DGL a partir del conjunto de datos exportado para que lo use el paso de entrenamiento del modelo. Neptune ML ajusta automáticamente el modelo con trabajos de ajuste de optimización de hiperparámetros definidos en training-data-configuration.json
. Podemos descargar y modificar este archivo para ajustar los hiperparámetros del modelo, como tamaño de lote, número oculto, número de épocas, abandono, etc. Aquí hay un archivo de configuración.json de ejemplo.
See Procesamiento de los datos de gráficos exportados de Neptune para entrenamiento para obtener más información.
-
Entrenamiento modelo
El siguiente paso es el entrenamiento automatizado del modelo GNN. El entrenamiento del modelo se realiza en dos etapas. La primera etapa utiliza un trabajo de procesamiento de SageMaker para generar una estrategia de capacitación modelo. Este es un conjunto de configuración que especifica qué tipo de modelo y los rangos de hiperparámetros del modelo se usarán para el entrenamiento del modelo.
Luego, se iniciará un trabajo de ajuste de hiperparámetros de SageMaker. los Trabajo de optimización de ajuste de hiperparámetros de SageMaker ejecuta un número predeterminado de pruebas de trabajo de entrenamiento de modelos en los datos procesados, prueba diferentes combinaciones de hiperparámetros de acuerdo con el model-hpo-configuration.json
y almacena los artefactos del modelo generados por el entrenamiento en la ubicación de salida de Amazon S3.
Para iniciar el paso de entrenamiento, puede utilizar el %neptune_ml training start
mando.
Una vez que se completan todos los trabajos de entrenamiento, el trabajo de ajuste de hiperparámetros guardará los artefactos del modelo con mejor rendimiento, que se usarán para la inferencia.
Al final del entrenamiento, Neptune ML indicará a SageMaker que guarde el modelo entrenado, las incrustaciones sin procesar calculadas para los nodos y los bordes, y la información de asignación entre las incrustaciones y los índices de los nodos.
See Entrenamiento de un modelo con Neptune ML para obtener más información.
-
Crear un punto de enlace de inferencia en Amazon SageMaker
Ahora que se aprende la representación gráfica, podemos implementar el modelo aprendido detrás de un punto final para realizar solicitudes de inferencia. La entrada del modelo será el Usuario para el que necesitamos generar recomendaciones de amigos, junto con el tipo de borde, y la salida será la lista de amigos recomendados probables para ese usuario.
Para implementar el modelo en la instancia de punto final de SageMaker, use el %neptune_ml endpoint create
mando.
-
Consulta el modelo de ML usando Gremlin
Una vez que el punto final está listo, podemos usarlo para consultas de inferencia de gráficos. Neptune ML admite consultas de inferencia de gráficos en Gremlin o SPARQL. En nuestro ejemplo, ahora podemos verificar la recomendación de amigos con Neptune ML en el usuario "Henry". Requiere casi la misma sintaxis para atravesar el borde y enumera los otros usuarios que están conectados a Henry a través de la conexión FRIEND.
Neptune#ml.prediction
devuelve la conexión determinada por las predicciones de Neptune ML mediante el uso del modelo que acabamos de entrenar en el gráfico social. Bill se devuelve al igual que nuestra expectativa.
Aquí hay otra consulta de predicción de muestra que se usa para predecir los ocho usuarios principales que tienen más probabilidades de conectarse con Henry:
Los resultados se clasifican de conexión más fuerte a más débil, donde enlace Henry — FRIEND — Colin and Henry — FRIEND — Terry
también se propone. Esta propuesta es a través de ML basado en gráficos donde se pueden explorar patrones de interacción complejos en el gráfico.
See Consultas de inferencia de Gremlin en Neptune ML para obtener más información.
Transformación del modelo o reentrenamiento cuando cambian los datos del gráfico
Otra pregunta que podrías hacerte es: ¿qué pasa si mi red social cambia, o si quiero hacer recomendaciones para usuarios recién agregados? En estos escenarios, donde tiene gráficos que cambian continuamente, es posible que deba actualizar las predicciones de ML con los datos de gráficos más recientes. Los artefactos del modelo generados después del entrenamiento están directamente vinculados al gráfico de entrenamiento. Esto significa que el punto final de inferencia debe actualizarse una vez que cambien las entidades en el gráfico de entrenamiento original.
Sin embargo, no necesita volver a entrenar todo el modelo para hacer predicciones en el gráfico actualizado. Con un flujo de trabajo de inferencia de modelo incremental, solo necesita exportar los datos de la base de datos de Neptune, realizar un preprocesamiento de datos incremental, ejecutar un trabajo de transformación por lotes de modelo y luego actualizar el punto final de inferencia. El paso de transformación del modelo toma el modelo entrenado del flujo de trabajo principal y los resultados del paso de preprocesamiento de datos incrementales como entradas. Luego genera un nuevo artefacto de modelo para usar en la inferencia. Este nuevo artefacto de modelo se crea a partir de los datos de gráficos actualizados.
Un enfoque especial aquí es para el comando de paso de transformación de modelo. Puede calcular artefactos del modelo en datos de gráficos que no se usaron para el entrenamiento del modelo. Las incorporaciones de nodos se vuelven a calcular y se anulan las incorporaciones de nodos existentes. Neptune ML aplica el codificador GNN aprendido del modelo entrenado anterior a los nuevos nodos de datos gráficos con sus nuevas funciones. Por lo tanto, los nuevos datos del gráfico deben procesarse utilizando las mismas codificaciones de características y deben cumplir con el mismo esquema de gráfico que los datos del gráfico original. Vea más detalles de implementación de Neptune ML en Generación de nuevos artefactos de modelo.
Además, puede volver a entrenar todo el modelo si el gráfico cambia drásticamente o si el modelo previamente entrenado ya no puede representar con precisión las interacciones subyacentes. En este caso, reutilizar los parámetros del modelo aprendido en un nuevo gráfico no puede garantizar un rendimiento del modelo similar. Debe volver a entrenar su modelo en el nuevo gráfico. Para acelerar la búsqueda de hiperparámetros, Neptune ML puede aprovechar la información de la tarea de entrenamiento del modelo anterior con un inicio en caliente: los resultados de los trabajos de entrenamiento anteriores se utilizan para seleccionar buenas combinaciones de hiperparámetros para buscar en el nuevo trabajo de ajuste.
See flujos de trabajo para manejar datos de gráficos en evolución para más información.
Conclusión
En esta publicación, ha visto cómo Neptune ML y GNN pueden ayudarlo a hacer recomendaciones sobre datos de gráficos mediante una tarea de predicción de enlaces mediante la combinación de información de los patrones de interacción complejos en el gráfico.
La predicción de enlaces es una forma de implementar un sistema de recomendación en un gráfico. Puede construir su recomendador de muchas otras maneras. Puede usar las incrustaciones aprendidas durante el entrenamiento de predicción de enlaces para agrupar los nodos en diferentes segmentos sin supervisión y recomendar elementos al que pertenece al mismo segmento. Además, puede obtener las incrustaciones e introducirlas en un sistema de recomendación basado en similitudes posteriores como característica de entrada. Ahora, esta característica de entrada adicional también codifica la información semántica derivada del gráfico y puede proporcionar mejoras significativas a la precisión general del sistema. Obtenga más información sobre Amazon Neptune ML visitando el página web del NDN Collective o no dude en hacer preguntas en los comentarios!
Acerca de los autores
Yanwei Cui, PhD, es un arquitecto de soluciones especializado en aprendizaje automático en AWS. Comenzó la investigación de aprendizaje automático en IRISA (Instituto de Investigación de Ciencias de la Computación y Sistemas Aleatorios) y tiene varios años de experiencia en la construcción de aplicaciones industriales impulsadas por inteligencia artificial en visión por computadora, procesamiento de lenguaje natural y predicción de comportamiento de usuarios en línea. En AWS, comparte la experiencia del dominio y ayuda a los clientes a desbloquear el potencial comercial y a generar resultados procesables con el aprendizaje automático a escala. Fuera del trabajo, le gusta leer y viajar.
Will Badr es un especialista principal en AI/ML SA que trabaja como parte del equipo global de Amazon Machine Learning. A Will le apasiona usar la tecnología de formas innovadoras para impactar positivamente en la comunidad. En su tiempo libre le gusta bucear, jugar fútbol y explorar las Islas del Pacífico.
- '
- "
- 100
- 2020
- 7
- Nuestra Empresa
- Conforme
- Mi Cuenta
- adición
- Adicionales
- algoritmo
- algoritmos
- Todos
- ya haya utilizado
- Amazon
- Aprendizaje automático de Amazon
- Amazon SageMaker
- APACHE
- aplicaciones
- artificial
- inteligencia artificial
- Artes
- Confirmación de Viaje
- AWS
- AWS re: Invent
- Comienzo
- MEJOR
- Bill
- mil millones
- Negro
- build
- Construir la
- cases
- retos
- clasificación
- código
- Algunos
- vibrante e inclusiva
- integraciones
- Calcular
- Ciencias de la Computación
- Visión por computador
- informática
- Configuración
- conexión
- Conexiones
- Consola
- contenido
- converger
- podría
- Clientes
- datos
- científico de datos
- almacenamiento de datos
- Base de datos
- acuerdo
- deep learning
- Developer
- una experiencia diferente
- descubrimiento
- distancia
- comercio electrónico
- Southern Implants
- Punto final
- Ingeniería
- certificados
- etc.
- ejemplo
- experience
- exploración
- exportar
- Extracción
- RÁPIDO
- Feature
- Caracteristicas
- Figura
- Nombre
- Focus
- formulario
- formato
- Marco conceptual
- Gratuito
- Amistad
- función
- Juegos
- generar
- Buscar
- candidato
- graficar redes neuronales
- maravillosa
- Manejo
- ayuda
- ayuda
- esta página
- Cómo
- Como Hacer
- HTTPS
- AMI
- Impacto
- implementación
- la mejora de
- Incluye
- aumente
- INSTRUMENTO individual
- industrial
- información
- originales
- Intelligence
- interacción
- intereses
- IT
- Trabajos
- Empleo
- idioma
- Idiomas
- APRENDE:
- aprendido
- aprendizaje
- Apalancamiento
- Biblioteca
- línea
- LINK
- Lista
- Listas
- Ubicación
- mirando
- búsqueda
- máquina de aprendizaje
- Miembros
- milisegundo
- ML
- modelo
- Música
- Lenguaje natural
- Procesamiento natural del lenguaje
- vecinos
- del sistema,
- telecomunicaciones
- Neural
- red neural
- redes neuronales
- Nuevas características
- nodos
- ordenadores portátiles
- en línea
- habiertos
- Otro
- Costa
- Papel
- Personas
- actuación
- fase
- Plataformas
- Jugar
- Precisión
- predicción
- Predicciones
- presente
- Director de la escuela
- Problema
- Productos
- Mi Perfil
- promover
- perfecta
- ofrece
- proporcionar
- proporciona un
- comprar
- Python
- pregunta
- distancia
- Crudo
- datos en bruto
- RE
- Reading
- regresión
- Relaciones
- reemplazar
- la investigación
- Resultados
- reentrenamiento
- devoluciones
- Ejecutar
- sabio
- Escala
- Ciencia:
- Buscar
- set
- Compartir
- Acciones
- similares
- sencillos
- chica
- Fútbol
- Social
- gráfico social
- redes sociales
- redes sociales
- Soluciones
- Espacio
- Deportes
- Etapa
- estándares de salud
- comienzo
- fundó
- STORAGE
- tiendas
- Estrategia
- complementar
- soportes
- Peritaje
- te
- Todas las funciones a su disposición
- Target
- Tecnologías
- Tecnología
- La gráfica
- A través de esta formación, el personal docente y administrativo de escuelas y universidades estará preparado para manejar los recursos disponibles que derivan de la diversidad cultural de sus estudiantes. Además, un mejor y mayor entendimiento sobre estas diferencias y similitudes culturales permitirá alcanzar los objetivos de inclusión previstos.
- equipo
- parte superior
- Formación
- Transformar
- Actualizar
- us
- usuarios
- propuesta de
- visión
- ¿
- QUIENES
- extensamente
- Wikipedia
- sin
- palabras
- Actividades:
- flujo de trabajo
- funciona
- se
- años
- Zoom