Aprende a implementar, optimizar y utilizar modelos de lenguaje grandes (LLMs) directamente en tu propia computadora, sin depender de servicios en la nube.

💡

¿Qué aprenderás?

Configurar entornos locales para correr LLMs.

Generar texto y personalizar resultados usando modelos preentrenados.

Optimizar el uso de LLMs en hardware limitado (CPU o GPU).

Construir un chatbot desde la terminal.

Aplicar modelos para tareas prácticas como clasificación de texto y resumen automático.

📚

Contenido del curso

Módulo Descripción
Módulo 1: Configuración Inicial
Aprenderás a preparar el entorno local y verificar que el modelo funcione correctamente con una generación de texto simple.
Módulo 2: Implementación Básica y Personalización
Explorarás cómo generar texto, ajustar parámetros de salida (como temperatura o top-p), optimizar el rendimiento en CPU/GPU y construir un chatbot interactivo en la terminal.
Módulo 3: Aplicaciones Avanzadas
Aplicarás LLMs para clasificación de sentimientos y generación de resúmenes personalizados a partir de texto, usando prompts diseñados por ti mismo.
📄

Descripción del Curso

Este curso práctico te enseña a correr modelos de lenguaje grandes (LLMs) en entornos locales, sin depender de la nube. A lo largo de sesiones interactivas, aprenderás a generar texto, construir chatbots en la terminal, optimizar el rendimiento para equipos con recursos limitados y aplicar los modelos a tareas como clasificación de texto y resumen automático. Todo el contenido se orienta a casos reales, asegurando que puedas adaptar lo aprendido a tus propios proyectos o necesidades profesionales.
🎒

¿Qué incluye el curso?

  • Guía de instalación paso a paso.
  • Código listo para usar y modificar (generación, chatbot, clasificación, resumen).
  • Ejercicios prácticos con prompts personalizados.
  • Acceso a modelos ligeros y eficientes para equipos con GPU o CPU.
👥

Público objetivo

  • Desarrolladores e ingenieros de software que buscan integrar LLMs en sus sistemas locales.
  • Profesionales de datos o IA interesados en independencia de la nube.
  • Entusiastas de la IA que quieren experimentar con modelos de lenguaje en sus propias máquinas.
  • Empresas o instituciones con restricciones de privacidad que requieren soluciones on-premise.