- Horas: 25
- Duración: 2 meses
– Identificar y explicar los componentes clave y la funcionalidad de los Modelos de Lenguaje de Gran Escala (LLMs) y la Recuperación de Información Generativa (RAG).
– Evaluar ejemplos de aplicaciones RAG y describir cómo se integran con LLMs para mejorar la recuperación de información.
– Aplicar técnicas de procesamiento para transformar datos no estructurados en formatos adecuados para el uso en LLMs.
– Desarrollar habilidades para implementar y utilizar Sentence Transformers en la creación de bases de datos vectoriales para aplicaciones RAG.
– Implementar y evaluar estrategias de búsqueda y recuperación utilizando consultas vectoriales y modelos LLM.
– Implementar y desplegar modelos LLM en entornos locales y en la nube, utilizando herramientas avanzadas para facilitar el acceso y la interacción.
– Utilizar frameworks de código abierto para desarrollar y desplegar aplicaciones RAG, demostrando comprensión y habilidad en la integración de estos componentes
Componentes clave de los modelos de lenguaje grande (LLMs)
¿Por qué son tan revolucionarios los Transformers?
Limitaciones de las redes neuronales clásicas
La revolución de los Transformers
¿Y a efectos prácticos, qué necesito tener para operar mi propio LLM?
Cargando un modelo de GPT2 en nuestro entorno de desarrollo
Las matemáticas muy resumidas detrás de los Transformers (solo para fans verdaderos)
Comparación de Transformers con CNNs y RNNs
Componentes clave de la recuperación de datos
Definición de datos no estructurados
Algunos tipos de datos no estructurados
¿Cómo se usan los datos no estructurados en RAG?
Preprocesamiento de Texto
Datos en ficheros
Importancia de procesar datos no estructurados para LLMs
¿Qué es exactamente la indexación de datos?
Procesamiento de datos multimedia
Procesar videos (extraer audio, transcribirlo y generar embeddings)
Bases de datos de vectores
Almacenamiento en bases de datos relacionales y NoSQL
Archivos binarios y almacenamiento en disco
Bases de datos vectoriales
Almacenamiento de embeddings en bases de datos vectoriales
Introducción a los Sentence Transformers
Flujo general de integración de datos procesados en LLMs
Siguientes pasos
¿Puedo alojar mi chatbot en Hugging Face?
Alojando el chatbot en tu propio servidor
Mantenimiento del chatbot
Evaluación de la recuperación de información
Métricas relevantes
Evaluando la efectividad del chatbot
Beneficios del despliegue local versus en la nube
Herramientas y entornos para despliegue local
Despliegue de LLMs en la nube
Optimización y mantenimiento de despliegues
Estrategias de actualización y mantenimiento de los modelos
Discusión sobre desafíos y soluciones en el uso práctico de LLMs