El auge de los LLM basados ​​en RAG en 2024 - DATAVERSITY

El auge de los LLM basados ​​en RAG en 2024 – DATAVERSITY

Nodo de origen: 3062317

A medida que nos acercamos al año 2024, una tendencia se destaca de manera destacada en el horizonte: el aumento de los modelos de generación aumentada de recuperación (RAG) en el ámbito de los modelos de lenguajes grandes (LLM). A raíz de los desafíos planteados por las alucinaciones y las limitaciones de la capacitación, los LLM basados ​​en RAG están surgiendo como una solución prometedora que podría remodelar la forma en que las empresas manejan los datos.

El aumento de popularidad de los LLM El año 2023 trajo consigo una ola de posibilidades transformadoras, pero no estuvo exenta de obstáculos. Las “alucinaciones” (casos en los que el modelo genera información inexacta o ficticia) y las limitaciones durante la fase de capacitación generaron preocupaciones, particularmente en las aplicaciones de datos empresariales. 

Sin embargo, la llegada de los modelos RAG promete mitigar estos desafíos, ofreciendo una solución sólida que podría revolucionar la accesibilidad a los datos dentro de las organizaciones.

Los modelos RAG ofrecen una solución para combatir los desafíos de las alucinaciones al proporcionar información auditable y actualizada. Estos modelos permiten el acceso a almacenes de datos externos, lo que garantiza que la información proporcionada no solo sea confiable sino también actualizada.

Para empresas que dependen de información basada en datos, adoptar LLM basados ​​​​en RAG podría cambiar las reglas del juego. Estos modelos mejoran la confiabilidad y relevancia de la información obtenida, proporcionando datos auditables y actualizados que son cruciales para la toma de decisiones informadas.

El quid de los modelos RAG radica en alojar la experiencia en la materia fuera del modelo, a menudo en bases de datos vectoriales, gráficos de conocimiento o tablas de datos estructurados. Esta configuración crea una capa intermedia sofisticada y de baja latencia entre los almacenes de datos y los usuarios finales. Sin embargo, también amplifica las consecuencias de los datos inexactos, lo que requiere un marco sólido de observabilidad de datos.

A medida que las empresas adoptan cada vez más modelos RAG en casos de uso de producción, la necesidad de observabilidad de los datos también se vuelve primordial. Las organizaciones necesitarán invertir más en procesos integrales de auditoría de datos para garantizar la confiabilidad de la información a la que hacen referencia los LLM basados ​​en RAG.

Uno de los líderes de la industria que hace una apuesta importante por los modelos RAG es Databricks. En una charla informal reciente en Money 2020, Ali Ghodsi, cofundador y director ejecutivo de Databricks, reveló que sus clientes están adoptando activamente los RAG, y que el 60 % de sus casos de uso que involucran LLM se basan en esta arquitectura. La compañía ve esta nueva tecnología como una piedra angular para futuros avances en la observabilidad de datos dentro de los LLM.

En 2024 y más allá, los LLM basados ​​en RAG se convertirán en una fuerza impulsora en la evolución del procesamiento y análisis de datos. Es imperativo que las empresas no solo adopten esta tecnología sino que también fortalezcan sus prácticas de observabilidad de datos para aprovechar el verdadero potencial de los LLM basados ​​en RAG en el panorama en constante expansión de la inteligencia artificial.

Sello de tiempo:

Mas de VERSIDAD DE DATOS