Mientras la inteligencia artificial (IA) sigue expandiéndose, también crece la preocupación por su impacto ambiental. Los grandes modelos de lenguaje, como los que impulsan herramientas como ChatGPT o Google Gemini, requieren centros de datos que consumen enormes cantidades de energía. Se estima que para 2030, la demanda energética de estos centros aumentará un 165%, según Goldman Sachs.
Ante este panorama, los pequeños modelos de lenguaje (SLM) se presentan como una alternativa más eficiente. Estos sistemas pueden ejecutarse directamente en computadoras o incluso en teléfonos móviles, sin necesidad de conectarse a la nube. Esto reduce significativamente el consumo energético y mejora la privacidad de los usuarios, ya que los datos no salen del dispositivo.
Modelos como Mistral Small 3.1, TinyLlama 1.1B o el nuevo Gemma 3 1B de Google ya se pueden ejecutar en equipos con capacidades moderadas. Aunque estos modelos no alcanzan el nivel de precisión de los grandes, son adecuados para tareas como redacción de textos, traducción, resúmenes o lectura de escritura a mano en imágenes.
Verónica Bolón-Canedo, investigadora en IA, explica que estos modelos usan menos parámetros, lo que reduce el número de operaciones y el espacio necesario, haciendo su ejecución más ecológica. Además, al trabajar directamente en el dispositivo, se eliminan los costos energéticos del envío y procesamiento de datos en servidores remotos.
Empresas como Qualcomm están desarrollando procesadores especializados (NPU) que permiten ejecutar IA de forma eficiente y sin agotar la batería, tanto en móviles como en portátiles, con su línea Snapdragon X.
Aunque aún hay limitaciones —como la generación de imágenes o tareas de razonamiento más complejo—, el desarrollo avanza rápidamente. Los expertos coinciden en que el futuro será híbrido: los dispositivos ejecutarán tareas simples de forma local y acudirán a la nube solo cuando sea necesario, logrando un equilibrio entre rendimiento y sostenibilidad.