Cómo diseñamos nuestro propio sistema LLM: arquitectura, desafíos y aprendizajes

an artificial intelligence illustration on the wall

En este post quiero compartir el recorrido completo que nos llevó a construir un sistema modular de entrenamiento y despliegue de modelos de lenguaje (LLM). Desde el primer diagrama de carpetas hasta una arquitectura funcional con entrenamiento personalizado, inferencia vía API, cliente web y consola, y almacenamiento de feedback para reentrenamiento. Si estás pensando en armar tu propio proyecto LLM desde cero, este camino puede ayudarte a evitar varios tropiezos.

🧱 Planificación inicial: estructura de módulos

Desde el principio decidimos construir el sistema de forma modular y extensible. Definimos los siguientes componentes principales:

  • llm_trainer.py: se encarga del fine-tuning de modelos preentrenados a partir de datos locales.
  • llm_api.py: expone una API REST en FastAPI con endpoints para predicción y recepción de feedback.
  • llm_client.py: cliente web con interfaz HTML/JS que permite generar respuestas desde el modelo.
  • llm_client_line.py: cliente de línea de comandos ideal para testeo y scripts.
  • feedback.sqlite: base de datos local para almacenar respuestas que luego podemos reutilizar para reentrenar.

La estructura de carpetas inicial quedó así:

simpleIA_proyect/
├── app/
│ ├── llm_api.py
│ ├── llm_trainer.py
│ ├── llm_client.py
│ ├── llm_client_line.py
│ ├── templates/
│ └── static/
├── config/
│ └── config.json
├── model_llm/
├── trainer_llm/
│ ├── dialogue/
│ └── knowledge/
├── feedback/
│ └── feedback.sqlite
├── venv/
└── run_llm.sh

🧪 Entrenamiento con llm_trainer.py: dolor, café y ajustes

Uno de los mayores desafíos vino al entrenar modelos con hardware limitado (VPS de 4 GB de RAM sin GPU). Nuestro enfoque inicial se basó en usar modelos como flax-community/gpt-2-spanish y Hugging Face Trainer. Pero pronto nos topamos con errores por falta de memoria, incompatibilidades con el tokenizador y crashes provocados por el sistema operativo:

Killed python3 app/llm_trainer.py

Para solucionarlo:

  • Forzamos el uso de CPU con batch size 1 + gradient_accumulation_steps=4.
  • Desactivamos procesos paralelos en el DataLoader:pythondataloader_num_workers=0
  • Asignamos correctamente el token de padding:pythonif tokenizer.pad_token is None: tokenizer.pad_token = tokenizer.eos_token
  • Y generamos un data collator personalizado:pythonfrom transformers import DataCollatorForLanguageModeling data_collator = DataCollatorForLanguageModeling(tokenizer=tokenizer, mlm=False)

🔌 La API: llm_api.py

Nuestra API expone dos endpoints:

  • /predict — para solicitar predicciones (respuestas del modelo).
  • /feedback — para almacenar textos útiles para reentrenamiento.

Ejemplo de endpoint de predicción:

@app.post("/predict", response_model=PredictionResponse)
async def predict(request: PredictionRequest):
    return PredictionResponse(generated_text=modelo(request.prompt))

Además configuramos CORS, protección contra errores comunes y base de datos SQLite para almacenar feedback de usuarios.

🌐 Cliente web: llm_client.py con FastAPI y templates

La interfaz web permite al usuario ingresar un prompt y ver una respuesta generada. Conectamos el frontend con /predict a través de JavaScript:

fetch("http://nightslayer.com.ar:8000/predict", {
  method: "POST",
  headers: {
    "Content-Type": "application/json"
  },
  body: JSON.stringify({
    prompt: textoDelUsuario,
    max_length: 50,
    num_return_sequences: 1
  })
})

Y para almacenamiento de conversaciones:

fetch("/feedback", { ... })

🧠 Modelos usados

Estos fueron los modelos más útiles:

  • flax-community/gpt-2-spanish
  • datificate/gpt2-small-spanish
  • gpt2 y EleutherAI/gpt-neo-125M para pruebas en inglés

Todos compatibles con AutoTokenizer y AutoModelForCausalLM.

💡 Cosas que aprendimos en el camino

  • No subestimes el uso de memoria, incluso con inputs pequeños.
  • La modularidad en diseño salva tiempo a futuro.
  • Aunque el modelo sea grande, se pueden lograr resultados funcionales incluso en servidores básicos.

🚀 ¿Te gustaría colaborar?

Este proyecto está disponible en GitHub y estamos abiertos a issues, sugerencias, PRs y adaptaciones. Queremos que esta base sirva tanto para desarrolladores curiosos como para equipos que necesiten una infraestructura LLM funcional y personalizable.

👉 Visitar el repositorio

#IA #LLM #Python #FastAPI #HuggingFace #GPT2 #APIrest #NLP #DesarrolloWeb #InteligenciaArtificial #OpenSource #Tokenizers #FineTuning #Devlog

Solución a los errores “Out of Memory”: Creando un archivo swap en tu VPS

Durante mis recientes experimentos con un sistema LLM en Python, me encontré con un problema recurrente: el proceso de entrenamiento se terminaba abruptamente con un error de Out of Memory, y el sistema lo mataba automáticamente. La solución pasó por habilitar un archivo swap en mi VPS —algo que, por defecto, no estaba configurado— permitiéndome proporcionar un “colchón” de memoria y evitar esos infortunados kills.

En esta entrada te muestro mi solución a este inconveniente, presentándote un sencillo script en Bash que crea un archivo swap de forma automática. A continuación, te explico paso a paso cómo funciona y por qué puede marcar la diferencia en tus proyectos:

¿Por qué es importante el swap en un VPS?

Al trabajar en proyectos de inteligencia artificial, sobre todo durante el entrenamiento de modelos intensivos, es vital tener una gestión de memoria robusta. Sin un archivo swap, el sistema tiene un límite estricto de RAM, lo que puede provocar que procesos de alta demanda sean terminados súbitamente. Implementar un swap proporciona una extensión a la memoria física, dando tiempo extra a los procesos antes de que se alcance un fallo crítico.

El script paso a paso

A continuación, te dejo el script en Bash que puedes utilizar para crear y activar el archivo swap. La idea es asignar un tamaño definido (en este ejemplo, 2GB), configurarlo con los permisos correctos y activarlo:

#!/bin/bash
# Variables
SWAPFILE="/swapfile"
SIZE="2G"  # Puedes ajustar el tamaño según tus necesidades

echo "Creando un archivo swap de tamaño $SIZE en $SWAPFILE..."

# Crear el archivo swap usando fallocate
sudo fallocate -l $SIZE $SWAPFILE

# Configurar los permisos: solo root debe tener acceso
sudo chmod 600 $SWAPFILE

# Formatear el archivo como swap
sudo mkswap $SWAPFILE

# Activar el swap creado
sudo swapon $SWAPFILE

echo "¡Archivo swap creado y activado exitosamente!"

# Agregar la configuración al fstab para que se monte automáticamente en cada reinicio
echo "$SWAPFILE none swap sw 0 0" | sudo tee -a /etc/fstab

echo "Configuración añadida a /etc/fstab para persistencia."

¿Cómo utilizar el script?

  1. Copia el código en un archivo de tu VPS, por ejemplo crear_swap.sh.
  2. Asigna permisos de ejecución: chmod +x crear_swap.sh
  3. Ejecuta el script con privilegios de superusuario: sudo ./crear_swap.sh

Con estos simples pasos, tu VPS estará mejor preparado para manejar procesos intensivos sin riesgos inmediatos de quedarse sin memoria.

Implementar esta solución no solo te ayudará a evitar esos molestos kills del sistema, sino que además te permitirá centrarte en lo verdaderamente innovador: experimentar y mejorar tus modelos de LLM sin interrupciones inesperadas. ¿Te animas a probarlo en tu VPS? ¡Comparte tus experiencias!

Si te interesa conocer más sobre mejoras en la gestión de recursos en sistemas Linux o tienes alguna duda sobre el script, seguimos la conversación en los comentarios. Además, en próximos post profundizaré en otras técnicas de optimización para entrenamientos de LLMs y cómo integrar estas soluciones en flujos de trabajo automatizados.

¿Qué otros temas te gustaría ver? Estoy preparando contenido sobre Dockerización de ambientes de desarrollo y CI/CD en proyectos de IA. ¡Mantente atento!

Happy coding y a seguir optimizando tus proyectos.

#Linux #Bash #VPS #Script #Swap #InteligenciaArtificial #LLM #OutOfMemory #DesarrolloTech