Aprende a implementar, optimizar y utilizar modelos de lenguaje grandes (LLMs) directamente en tu propia computadora, sin depender de servicios en la nube.
¿Qué aprenderás?
Configurar entornos locales para correr LLMs.
Generar texto y personalizar resultados usando modelos preentrenados.
Optimizar el uso de LLMs en hardware limitado (CPU o GPU).
Construir un chatbot desde la terminal.
Aplicar modelos para tareas prácticas como clasificación de texto y resumen automático.
Contenido del curso
Módulo | Descripción |
---|---|
Módulo 1: Configuración Inicial
|
Aprenderás a preparar el entorno local y verificar que el modelo funcione
correctamente con una generación de texto simple.
|
Módulo 2: Implementación Básica y Personalización
|
Explorarás cómo generar texto, ajustar parámetros de salida (como temperatura o
top-p), optimizar el rendimiento en CPU/GPU y construir un chatbot interactivo en la terminal.
|
Módulo 3: Aplicaciones Avanzadas
|
Aplicarás LLMs para clasificación de sentimientos y generación de resúmenes
personalizados a partir de texto, usando prompts diseñados por ti mismo.
|
Descripción del Curso
¿Qué incluye el curso?
- Guía de instalación paso a paso.
- Código listo para usar y modificar (generación, chatbot, clasificación, resumen).
- Ejercicios prácticos con prompts personalizados.
- Acceso a modelos ligeros y eficientes para equipos con GPU o CPU.
Público objetivo
- Desarrolladores e ingenieros de software que buscan integrar LLMs en sus sistemas locales.
- Profesionales de datos o IA interesados en independencia de la nube.
- Entusiastas de la IA que quieren experimentar con modelos de lenguaje en sus propias máquinas.
- Empresas o instituciones con restricciones de privacidad que requieren soluciones on-premise.