Por Nelson Hernández

La energía de inferencia es el «combustible» que alimenta las predicciones de un modelo de IA

Que es la Inteligencia Artificial (IA)?

La inteligencia artificial (IA) es un campo de la informática que se centra en la creación de sistemas capaces de realizar tareas que normalmente requieren de la inteligencia humana. Esto incluye, pero no se limita a: el aprendizaje, el razonamiento, la resolución de problemas, la percepción, el procesamiento del lenguaje natural y la capacidad de tomar decisiones.

Este campo de la informática ha evolucionado en los últimos 25 años de una manera exponencial,… sin conocer aun limitación para su evolución. Dentro de estos conceptos claves sobre la IA, están:

  • Aprendizaje Automático (Machine Learning): Es una rama de la IA que se basa en el desarrollo de algoritmos que permiten a las máquinas aprender de datos y mejorar su rendimiento con el tiempo sin ser programadas explícitamente para cada tarea.
  • Procesamiento del Lenguaje Natural (NLP): Se refiere a la capacidad de una IA para entender, interpretar y generar lenguaje humano de manera natural. Esto permite que las máquinas interactúen con los humanos a través del habla y el texto.
  • Visión por Computadora (Computer Vision): Permite a las máquinas interpretar y comprender el contenido visual del mundo, como imágenes y videos. Esto es fundamental para aplicaciones como el reconocimiento facial y la conducción autónoma.
  • Redes Neuronales Artificiales: Son modelos de IA inspirados en la estructura y funcionamiento del cerebro humano. Se utilizan para reconocer patrones complejos y realizar tareas como la clasificación de imágenes y el reconocimiento de voz.
  • Robótica: Implica el diseño y la construcción de robots capaces de realizar tareas físicas en el mundo real. Los robots pueden ser programados para llevar a cabo una amplia variedad de funciones, desde ensamblar productos hasta explorar el espacio.

La Inferencia Energetica

El uso del verbo «inferir» en el contexto de la energía de inferencia en IA proviene del proceso de inferencia, que es una parte esencial del funcionamiento de los modelos de inteligencia artificial.

En términos de IA, la inferencia se refiere a la etapa en la que un modelo de inteligencia artificial utiliza lo que ha aprendido durante su entrenamiento para hacer predicciones o tomar decisiones basadas en nuevos datos. Este proceso implica aplicar los conocimientos y patrones que el modelo ha adquirido previamente para «inferir» o generar respuestas a partir de datos no vistos.

Lógicamente,  para hacer esa inferencia es necesaria y vital disponer de energía en forma de electricidad, y si es generada con fuentes no emisoras de CO2 es mucho mejor. Al unir las palabras “inferir” y “energía”, surge un concepto como es la Energía de Inferencia.

Entonces, la energía de inferencia se refiere a la energía que se necesita para que el modelo de IA realice estas predicciones o deducciones en tiempo real. Dado que la inferencia es una tarea computacionalmente intensiva, requiere una cantidad significativa de energía para llevarse a cabo de manera eficiente.

Como funciona?

Imagínenos un robot muy inteligente que puede resolver rompecabezas. Primero, hay que enseñarle a resolver esos rompecabezas, y eso requiere mucha energía porque tiene que aprender de muchos ejemplos. Esta es la fase de entrenamiento, que consume mucha energía.

Una vez que el robot ya sabe cómo resolver los rompecabezas, se le daría un nuevo rompecabezas para que lo resuelva. Esta es la fase de inferencia. El robot utiliza el conocimiento que ya tiene para resolver el nuevo rompecabezas. Aunque no necesita tanta energía como en la fase de entrenamiento, todavía necesita algo de energía para pensar y dar la respuesta correcta. 

Resumiendo, la energía de inferencia es, la cantidad de recursos (como electricidad y potencia de procesamiento) que se necesita para que el robot (o en este caso, un modelo de IA) utilice su conocimiento y haga predicciones o decisiones basadas en datos nuevos.

Otro ejemplo, sería el  Asistente de Voz en un Teléfono Móvil

Imagina que tienes un asistente de voz en tu teléfono móvil (Siri, Google Assistant, etc.). Cuando dices: «¿Cuál es el clima de hoy?», el asistente de voz necesita hacer varias cosas para responder:

  1. Escuchar,  tu voz y convertir las ondas sonoras en texto.
  2. Analizar, el texto para entender que estás preguntando sobre el clima.
  3. Buscar, la información del clima en internet.
  4. Convertir, la información del clima en una respuesta comprensible.
  5. Hablar, en voz alta la respuesta para ti.

Todo este proceso desde que hablas hasta que recibes una respuesta es la inferencia. El asistente de voz utiliza su conocimiento (entrenamiento previo) para procesar tu solicitud y darte la información correcta. … y todo se realiza en un tiempo tan corto, que el solicitante de la información no lo percibe. Además, se utilizaron un conjunto de app para proporcionar la respuesta. Entre otras, hora, lugar, modelos de clima, etc.  

Que modifica a la energía de inferencia?

La energía de inferencia se ve modificada por un conjunto de factores. A saber:

  • Tamaño del Modelo de la IA: Modelos más grandes y complejos requieren más energía para hacer inferencias.
  • Hardware Utilizado: Usar una computadora potente (como una GPU) puede hacer que las inferencias sean más rápidas y eficientes, pero aún se requiere energía.
  • Cantidad de Datos: Procesar grandes cantidades de datos al mismo tiempo consume más energía.
  • Optimización del Modelo: Modelos que están bien diseñados y optimizados pueden hacer inferencias con menos energía.
  • Requisitos en Tiempo Real: Aplicaciones que necesitan respuestas rápidas (en tiempo real) pueden consumir más energía porque necesitan procesar los datos muy rápidamente.
  • Técnicas de Compresión: Algunas técnicas, como la cuantización y la poda, pueden reducir el tamaño del modelo y, por lo tanto, disminuir la energía necesaria para la inferencia.
  • Almacenamiento y Transferencia de Datos: La energía necesaria para mover datos desde y hacia la memoria y el almacenamiento también es un factor a considerar.

Cada uno de estos factores pueden ser ajustados y optimizados dependiendo de las necesidades específicas de la aplicación de IA en cuestión.

En resumen, la energía de inferencia es el «combustible» que alimenta las predicciones de un modelo de IA. Los factores que pueden influir en la cantidad de energía de inferencia necesaria incluyen el tamaño y la complejidad del modelo, el tipo de hardware utilizado (como CPUs, GPUs o TPUs), y la cantidad de datos que el modelo debe procesar en tiempo real.

Las IA más destacadas

A continuación un listado de algunas de las inteligencias artificiales más destacadas y sus especialidades:

  • Bing: Es un motor de búsqueda desarrollado por Microsoft. Ofrece una amplia gama de servicios de búsqueda, incluyendo web, video, imágenes y mapas. Bing también integra inteligencia artificial para proporcionar respuestas rápidas y confiables, así como contenido inspirador. Además, Bing tiene características como la búsqueda de imágenes de alta calidad y la personalización de la experiencia de búsqueda. También permite la creación de imágenes basadas en textos.
  • ChatGPT: Desarrollada por OpenAI. Es conocida por su capacidad para generar texto coherente y mantener conversaciones naturales. Es útil para redacción de contenido, asistencia en tareas de programación y generación de ideas creativas.
  • Copilot: Desarrollada por Microsoft que actúa como un asistente virtual para ayudar a los usuarios en diversas tareas: Asistente de escritura, generación de códigos, búsqueda y respuestas, asistente de productividad.
  • DeepSeek: Una IA avanzada que realiza tareas complejas como razonamiento lógico, programación y análisis de datos. Es conocida por su capacidad para procesar grandes volúmenes de información de manera rápida y precisa.
  • Gemini: es una aplicación de Google que actúa como un asistente de inteligencia artificial para potenciar tu creatividad y productividad. Con Gemini, puedes generar imágenes, obtener ayuda con la escritura, el aprendizaje, y mucho más. 
  • Google Bard: Una IA de Google que se especializa en la generación de texto y está conectada a internet para proporcionar información actualizada. También puede integrarse con otras aplicaciones y manejar imágenes dentro del chat.
  • Grammarly: Un asistente de escritura basado en IA que ayuda a mejorar la gramática, el estilo y el tono de los textos en inglés. Es muy útil para escribir de manera clara y profesional.
  • Grok: Es un chatbot avanzado desarrollado por xAI, la empresa de inteligencia artificial de Elon Musk. Grok se destaca por sus capacidades avanzadas en razonamiento, codificación y procesamiento visual. Está diseñado para proporcionar respuestas precisas y útiles, y puede generar imágenes a partir de descripciones textuales.
  • InVideo: Es una plataforma de edición de video en línea que utiliza inteligencia artificial para facilitar la creación de videos. Permite generar videos a partir de simples instrucciones de texto, agregar guiones, visuales generados por IA, voces en off, subtítulos y música. InVideo es ideal para crear contenido multimedia de alta calidad de manera rápida y eficiente.
  • Midjourney: Una IA especializada en la generación de imágenes a partir de descripciones textuales. Es ideal para crear contenido visual, como carteles publicitarios, fondos de pantalla y arte digital.
  • Synthesia: Una IA que permite crear videos profesionales a partir de texto. Es ideal para la creación de contenido multimedia de alta calidad en poco tiempo.
  • TextCortex: Una plataforma de IA diseñada para acelerar y mejorar la creación de contenidos de alta calidad, guiando a los usuarios desde la concepción de ideas hasta el perfeccionamiento final del texto.

Métricas de la Inferencia Energética

La gráfica a continuación muestra la energía media de inferencia por cada 1000 consultas para varios tipos de inferencia, expresada en kWh. 

En resumen, se ilustra cómo diferentes tipos de inferencias en IA requieren distintas cantidades de energía, destacando que las inferencias relacionadas con imágenes son las de mayor consumo con un valor de 2.91 kwh por cada 1000 requerimientos.

Por otra parte, la gráfica a continuación muestra la distribución de los costos para entrenamiento y experimentos para cuatro modelos diferentes: Gemini 1.0 Ultra, GPT-4, OPT-1 75B y GPT-3 175B. Los costos están divididos en cinco categorías: personal de I+D (incluido el personal), chip acelerador de IA, otros componentes del servidor, interconexión a nivel de clúster y energía.

Los porcentajes de cada categoría están dentro de las barras para cada modelo.  Se observa cómo la energía representa una pequeña proporción de los costos totales en comparación con otros componentes, aunque sigue siendo un requisito indispensable para el entrenamiento de modelos de IA.

Corolario

La inteligencia artificial (IA) crea sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, razonamiento, resolución de problemas, percepción, procesamiento de lenguaje natural y toma de decisiones.  Y para hacer esas tareas basadas en datos nuevos, requiere energía a la cual se le ha denominado Energía de Inferencia

Nelson Hernández es ingeniero energista @XXIenergía y académico de la Academia de Ingeniería y Hábitat de Venezuela