En la era de la inteligencia artificial, la capacidad de crear interacciones de texto inteligentes y contextualmente conscientes es fundamental. Los agentes conversacionales impulsados por Modelos de Lenguaje Grande (LLMs) están revolucionando la forma en que interactuamos con la tecnología y accedemos a la información. Este curso intensivo te guiará "de la A a la Z" en el desarrollo de agentes conversacionales de texto robustos y funcionales utilizando dos de las herramientas más potentes del ecosistema actual: LangChain y la API de OpenAI (se revisarán otros LLM también), todo ello programando en Python. A lo largo de 4 sesiones teórico-prácticas y una sesión final de taller intensivo, explorarás los conceptos clave detrás de los LLMs, comprenderás cómo LangChain simplifica la orquestación de componentes complejos (como memoria, cadenas y herramientas), e integrarás el poder de la API de OpenAI para dar vida a tus agentes. Aprenderás a dotar a tus agentes de la capacidad de recordar conversaciones pasadas, acceder a conocimiento externo (RAG - Retrieval Augmented Generation) y utilizar herramientas externas para realizar acciones. El curso es eminentemente práctico, con ejemplos de código y ejercicios diseñados para consolidar tu aprendizaje en cada etapa. Culminarás con un desafío de taller de 3 horas donde aplicarás todo lo aprendido para construir un agente conversacional completo bajo la guía del instructor. Certificado disponible para los asistentes que cumplan los diferentes desafíos incluyendo indicador de logro de 0 a 100 pts. Si eres desarrollador, científico de datos, o simplemente alguien interesado en construir aplicaciones inteligentes de texto con las herramientas más modernas, este curso te proporcionará las habilidades y el conocimiento práctico que necesitas.
Aprenderás qué son los agentes conversacionales, cómo interactúan usando lenguaje natural y cómo transforman la atención al usuario automatizando procesos y brindando respuestas rápidas.
Descubrirás qué es LangChain, sus principales componentes y cómo esta biblioteca en Python facilita integrar modelos de lenguaje y herramientas externas para crear agentes conversacionales potentes.
Explorarás cómo funciona la API de OpenAI, las capacidades de GPT para generación de texto, parámetros clave y cómo utilizarla para obtener respuestas inteligentes en tus aplicaciones.
Crearás paso a paso tu primer agente conversacional básico utilizando LangChain y la API de OpenAI, aprendiendo la estructura clave y cómo interactuar fácilmente con usuarios mediante texto.
Aprenderás técnicas esenciales para diseñar prompts efectivos, mejorando la precisión y calidad de las respuestas de tus agentes conversacionales mediante instrucciones claras y específicas.
Descubrirás cómo manejar contextos y memoria en LangChain, permitiendo que tu agente mantenga conversaciones coherentes y relevantes, recordando información clave a través de múltiples interacciones.
Explorarás cómo construir y conectar cadenas (Chains) en LangChain, encadenando múltiples componentes para realizar tareas complejas de manera estructurada, escalable y eficiente en tus agentes.
Conocerás el sistema de Tools de LangChain: cómo encapsular APIs, bases de datos o funciones de Python como acciones que el agente puede invocar dinámicamente, permitiéndole razonar y ejecutar tareas complejas.
Aprenderás a combinar embeddings, búsqueda semántica y generación de texto para implementar RAG: localizar fragmentos relevantes y fusionarlos con GPT, entregando respuestas precisas, citadas y actualizadas.
Profundizarás en ChromaDB: carga masiva, indexación vectorial, metadatos, filtros y modos persistentes. Configurarás colecciones eficientes para escalar consultas de millones de documentos en tus agentes.
Explorarás cómo inyectar ejemplos representativos en el prompt mediante Few-shot: selección dinámica de casos, control de estilo y guía de la salida del modelo con muy pocos datos de entrenamiento.
Aprenderás a usar OutputParser y StructuredOutputParser para transformar la respuesta libre de GPT en JSON, Pydantic u otros formatos, asegurando integraciones fiables, tipadas y fáciles de consumir.
Profundizarás en la generación y elección de embeddings, paramétricas del modelo (temperatura, top-p) y prompt-tuning iterativo para lograr respuestas más precisas, coherentes y controladas.
Revisarás patrones como agentes jerárquicos, routing, tool-calling automático, streaming, callbacks personalizados y manejo de errores, elevando la robustez y la capacidad de tus agentes.
Implementaremos diferentes LLMs, Mistral AI, Claude, Gemini, DeepSeek y Grok. Además, revisaremos como implementar Ollama para LLM locales.
Revisaremos las diferentes formas de monitoreo y Fine Tunning de nuestros agentes. Así como también, las mejores prácticas a la hora de testear.
Explicaremos las diferentes posibilidades de implementación, web, slack, whatsapp y Facebook Messenger. Además, conversaremos sobre las diferentes arquitecturas para disponibilizar los agentes a nivel productivo.
Copyright © 2024 IA Chile. Derechos Reservados