©2026 Escuela Tecnologías de la Información S.L. Todos los derechos reservados.
Curso de IA Generativa
Aprende a construir aplicaciones reales sobre modelos de lenguaje LLM usando Python como lenguaje
Inscripciones abiertas
Inicio del curso
Hoy la IA nos ofrece una vía para crear funcionalidades en aplicaciones que hace años parecerían ciencia ficción o ámbitos ligados solo a empresas capaces de invertir millones de dólares en desarrollo. Sin embargo, este poder requiere de nosotros nuevos conocimientos para poder sacar partido a las herramientas actuales y ser capaces de resolver los nuevos retos que se plantean.
En este curso vamos a ofrecerte el conocimiento que necesitas para crear y llevar a producción aplicaciones en las que usaremos modelos de lenguaje (LLMs), estudiando la arquitectura necesaria para desarrollar aplicaciones con IA Generativa y cómo gestionar los diversos asuntos relacionados con estas tecnologías. Además veremos cómo llevar a producción las aplicaciones y desplegarlas en entornos basados en contenedores.
Un curso completo para aprender a crear aplicaciones con IA y entender los fundamentos del ecosistema de LLM, cubriendo todas las etapas del desarrollo y usando Python como lenguaje.
Qué aprenderé en el Curso de IA Generativa
Objetivos del curso
Por qué debes aprender Arquitectura de IA Generativa
Qué tengo que saber
- Programación en Python (nivel intermedio): funciones, clases, manejo de JSON, uso de librerías
- Conocimientos básicos de desarrollo web: APIs REST, peticiones HTTP, cliente-servidor
- Familiaridad con la terminal/línea de comandos
- Deseable (no obligatorio): experiencia básica con Docker y algún servicio cloud (AWS, GCP o similar)
Clases y contenidos
- Qué es la IA Generativa y los modelos fundacionales
- Tokenización, ventanas de contexto y límites de los modelos
- Panorama de proveedores: OpenAI, Anthropic, DeepSeek, modelos open-source (Llama, Mistral)
- Frameworks del ecosistema: LangChain, LlamaIndex, Semantic Kernel, Haystack — qué resuelven y cuándo usarlos
- Estructura de las APIs de chat completions, compatibilidad entre proveedores y SDKs
- Técnicas de prompting: zero-shot, few-shot, chain-of-thought, self-consistency
- Prompts de sistema vs prompts de usuario: roles y responsabilidades
- Diseño de prompts estructurados para generar output en JSON con response_format
- Manejo de truncamiento y validación de respuestas del modelo
- Práctica: diseñar un sistema de prompts multi-etapa para generación de contenido
- RAG (Retrieval-Augmented Generation): concepto, bases de datos vectoriales, retrievers y cuándo aplicarlo
- Chat multi-turno: gestión de memoria y contexto conversacional
- Orquestación secuencial: encadenar llamadas LLM donde la salida de una alimenta la siguiente
- Streaming de respuestas para experiencia en tiempo real
- Gestión de tokens y límites: estrategias para no exceder la ventana de contexto
- Comparativa de patrones: RAG vs contexto conversacional vs orquestación
- Abstracción de proveedores: diseñar código agnóstico del modelo
- Pipelines de generación: de la petición del usuario al contenido final
- Validación y transformación de output generado (JSON a formatos consumibles)
- Rate limiting y control de uso por usuario
- Práctica: construir un pipeline de generación end-to-end
- Containerización de aplicaciones con LLM
- CI/CD y despliegue en cloud
- Monitoreo, logging y evaluación de calidad de las respuestas
- Seguridad: protección de API keys, prompt injection y buenas prácticas
- Gestión de costos en producción
¿Conoces nuestra tarifa plana?
Toda la formación de EscuelaIT, con más de 200 cursos completos para aprender las más variadas tecnologías de programación, diseño y marketing online. Todo! con tu suscripción.