¿Puedes confiar en que tu IA rinda igual mañana?
¿Han cambiado al cocinero y nadie te avisó?
¿Recuerdas aquella primera vez que tu modelo de IA favorito te dejó con la boca abierta? Yo sí. Escribí sobre Gemini 2.0 con el entusiasmo de quien descubre un restaurante que parece imposible que sea real. Unas semanas después volví a sentarme a la misma mesa, pedí lo mismo y algo no cuadraba. El plato llegó, sí, pero ya no sabía igual. Menos profundidad, respuestas más genéricas, como si la chispa se hubiera quedado en la cocina.
Pregunté al camarero. Me dijo que todo seguía igual.
Y ahí está lo inquietante: puede que ni él lo supiera.
Lo que me pasó se parece bastante a eso que podríamos llamar deriva del servicio. Un modelo de lenguaje no es una pieza inmóvil de software. Las empresas lo actualizan, lo ajustan, cambian versiones, retocan filtros de seguridad, optimizan costes y a veces redirigen una misma etiqueta a una versión distinta sin que el usuario vea con claridad qué ha cambiado. Tú repites el pedido. El plato ya no es exactamente el mismo.
Lo que dice la ciencia sobre la deriva
Un estudio publicado en PLOS One el 2 de febrero de 2026 siguió durante diez semanas tres grandes familias de modelos y encontró trayectorias muy distintas: una estable, otra en mejora y otra con degradación a mitad del estudio. Lo más revelador no fue que existieran cambios, sino que los investigadores podían medirlos sin poder atribuir con certeza su causa. Por eso reclamaban más transparencia en metadatos, versionado y condiciones de evaluación.
Ese es el problema de fondo para cualquiera que use estas herramientas de forma seria. No basta con que "funcionen". Importa que se comporten de manera razonablemente predecible en la tarea para la que las has incorporado a tu trabajo.
Y ahí aparece una asimetría incómoda. En consumo, estas plataformas suelen protegerse mucho mejor de lo que te protegen a ti: no prometen exactitud, ni continuidad de comportamiento, ni que el resultado siga teniendo mañana la misma calidad que tenía ayer. Y cuando sí existe un SLA, normalmente garantiza que el servicio esté disponible, no que siga razonando igual de bien para tu caso de uso. El restaurante puede estar abierto. Eso no significa que siga cocinando el mismo chef.
La pregunta, entonces, no es técnica. Es estratégica. ¿Tiene sentido construir procesos críticos sobre una herramienta cuyo rendimiento puede variar sin previo aviso y sin demasiada explicabilidad desde fuera?
Mi respuesta no es abandonar la nube. Es no depender solo de ella para lo importante.
Y aquí es donde los modelos pequeños en local dejan de ser una frikada simpática y empiezan a parecer una decisión prudente. No porque vayan a superar siempre a los grandes modelos remotos, no lo harán, sino porque te devuelven algo que en la nube escasea: control.
Si quieres explorar esa independencia, hoy ya hay opciones bastante maduras:
Tres herramientas para montar tu segunda cocina
LM Studio puede funcionar completamente offline y ofrece endpoints compatibles con OpenAI. Jan empuja la idea de privacidad por defecto y uso local. Ollama, por su parte, se ha convertido en la opción favorita para quien quiere conectar un modelo local a otras herramientas sin reinventar medio stack. Y si preferes probar en tu móvil Android, Google ha publicado Google AI Egde Gallery que te permite probar en tu dispositivo, sin conexión a Internet, sus modelos de la familia Gemma. Y atento a Gemma 4 que es un modelo recién salido que etá muy bien.
En resumen y traducido: ya puedes montar una segunda cocina en casa para tareas sensibles, repetitivas o críticas.
El restaurante en la nube seguirá siendo fantástico muchos días. Pero cuando una parte de tu trabajo depende de que el plato salga parecido cada vez, quizá ha llegado el momento de aprender a cocinar al menos un par de recetas en casa.

Comentarios
Publicar un comentario