Curso de IA Generativa

Aprende a construir aplicaciones reales sobre modelos de lenguaje LLM usando Python como lenguaje
Inscripciones abiertas
Intermedio
5 Clases 9 h (aprox.)
89€
75€
Precio en promoción

Inicio del curso

Viernes 17 de abril

Añadir a Google Calendar

Hoy la IA nos ofrece una vía para crear funcionalidades en aplicaciones que hace años parecerían ciencia ficción o ámbitos ligados solo a empresas capaces de invertir millones de dólares en desarrollo. Sin embargo, este poder requiere de nosotros nuevos conocimientos para poder sacar partido a las herramientas actuales y ser capaces de resolver los nuevos retos que se plantean.

En este curso vamos a ofrecerte el conocimiento que necesitas para crear y llevar a producción aplicaciones en las que usaremos modelos de lenguaje (LLMs), estudiando la arquitectura necesaria para desarrollar aplicaciones con IA Generativa y cómo gestionar los diversos asuntos relacionados con estas tecnologías. Además veremos cómo llevar a producción las aplicaciones y desplegarlas en entornos basados en contenedores.

Un curso completo para aprender a crear aplicaciones con IA y entender los fundamentos del ecosistema de LLM, cubriendo todas las etapas del desarrollo y usando Python como lenguaje. 

Qué aprenderé en el Curso de IA Generativa

  • Cómo funcionan los LLMs por dentro: tokenización, ventanas de contexto y límites de los modelos - El ecosistema actual de proveedores (OpenAI, Anthropic, DeepSeek, modelos open-source) y frameworks (LangChain, LlamaIndex, Semantic Kernel)
  • Consumir APIs de LLMs y entender la compatibilidad entre proveedores
  • Diseñar sistemas de prompts estructurados que produzcan salidas consistentes y validables (JSON, formatos específicos)
  • Técnicas de Prompt Engineering avanzado: zero/few-shot, chain-of-thought, self-consistency
  • El patrón RAG (Retrieval-Augmented Generation): qué es, cuándo usarlo y cuándo no
  • Gestionar memoria y contexto en aplicaciones conversacionales multi-turno
  • Orquestación secuencial: encadenar llamadas LLM donde la salida de una alimenta la siguiente
  • Implementar streaming de respuestas para una experiencia de usuario en tiempo real
  • Construir pipelines de generación de contenido end-to-end con validación de output
  • Controlar el uso y los costos mediante rate limiting y gestión de tokens
  • Desplegar aplicaciones con LLM en producción: containerización, CI/CD y cloud

Objetivos del curso

En este curso vamos a aprender a construir aplicaciones reales sobre modelos de lenguaje (LLMs). El foco está en los patrones de arquitectura que hay detrás de cualquier aplicación de IA Generativa: cómo se comunican las aplicaciones con los modelos, cómo se diseñan sistemas de prompts, cómo se gestiona el contexto y la memoria en conversaciones, y cómo se orquestan múltiples llamadas para resolver tareas complejas.

A lo largo de 5 sesiones, el estudiante pasará de entender los fundamentos del ecosistema LLM a construir y desplegar una aplicación funcional que integre un modelo de lenguaje como motor de generación de contenido. El enfoque es práctico y orientado a producción: abordamos las decisiones reales que hay que tomar cuando se construye software con IA Generativa, desde la elección del proveedor y el diseño de prompts hasta el despliegue, el control de costos y la seguridad.

Por qué debes aprender Arquitectura de IA Generativa

La IA Generativa ha dejado de ser una novedad para convertirse en una capa fundamental del software moderno. Saber usar ChatGPT no es suficiente, las empresas necesitan desarrolladores que sepan integrar modelos de lenguaje dentro de aplicaciones reales, con arquitecturas robustas y preparadas para producción. Sin embargo, la mayoría de tutoriales se quedan en demos de notebook que no reflejan los desafíos reales: gestión de tokens, control de costos, manejo de errores en respuestas del modelo, o cómo estructurar prompts que funcionen de forma consistente.

Este curso llena ese hueco. Enseña los patrones de arquitectura que se usan hoy en aplicaciones reales con LLMs, con un enfoque agnóstico de proveedor que permite al estudiante adaptarse a un ecosistema que cambia rápidamente. Al terminar, el estudiante no solo entenderá cómo funcionan estas tecnologías, sino que habrá construido y desplegado una aplicación completa que las utiliza.

Qué tengo que saber

  • Programación en Python (nivel intermedio): funciones, clases, manejo de JSON, uso de librerías
  • Conocimientos básicos de desarrollo web: APIs REST, peticiones HTTP, cliente-servidor
  • Familiaridad con la terminal/línea de comandos
  • Deseable (no obligatorio): experiencia básica con Docker y algún servicio cloud (AWS, GCP o similar)

Clases y contenidos

Arquitectura IA Generativa y el Ecosistema LLM
  • Qué es la IA Generativa y los modelos fundacionales
  • Tokenización, ventanas de contexto y límites de los modelos
  • Panorama de proveedores: OpenAI, Anthropic, DeepSeek, modelos open-source (Llama, Mistral)
  • Frameworks del ecosistema: LangChain, LlamaIndex, Semantic Kernel, Haystack — qué resuelven y cuándo usarlos
  • Estructura de las APIs de chat completions, compatibilidad entre proveedores y SDKs
Añadir a Google Calendar
Prompt Engineering como Sistema
  • Técnicas de prompting: zero-shot, few-shot, chain-of-thought, self-consistency
  • Prompts de sistema vs prompts de usuario: roles y responsabilidades
  • Diseño de prompts estructurados para generar output en JSON con response_format
  • Manejo de truncamiento y validación de respuestas del modelo
  • Práctica: diseñar un sistema de prompts multi-etapa para generación de contenido
Añadir a Google Calendar
Patrones de Arquitectura con LLMs
  • RAG (Retrieval-Augmented Generation): concepto, bases de datos vectoriales, retrievers y cuándo aplicarlo
  • Chat multi-turno: gestión de memoria y contexto conversacional
  • Orquestación secuencial: encadenar llamadas LLM donde la salida de una alimenta la siguiente
  • Streaming de respuestas para experiencia en tiempo real
  • Gestión de tokens y límites: estrategias para no exceder la ventana de contexto
  • Comparativa de patrones: RAG vs contexto conversacional vs orquestación
Añadir a Google Calendar
Construcción de Aplicaciones LLM
  • Abstracción de proveedores: diseñar código agnóstico del modelo
  • Pipelines de generación: de la petición del usuario al contenido final
  • Validación y transformación de output generado (JSON a formatos consumibles)
  • Rate limiting y control de uso por usuario
  • Práctica: construir un pipeline de generación end-to-end
Añadir a Google Calendar
Despliegue y Producción
  • Containerización de aplicaciones con LLM
  • CI/CD y despliegue en cloud
  • Monitoreo, logging y evaluación de calidad de las respuestas
  • Seguridad: protección de API keys, prompt injection y buenas prácticas
  • Gestión de costos en producción
Añadir a Google Calendar
¿Conoces nuestra tarifa plana?

Toda la formación de EscuelaIT, con más de 200 cursos completos para aprender las más variadas tecnologías de programación, diseño y marketing online. Todo! con tu suscripción.

Suscríbete