Olviden a GPT: El futuro de la IA generativa está en tu procesador

IA Generativa

No pasa un solo día en el que no escuchemos hablar de la Inteligencia Artificial. El término se ha apoderado de la mayoría de conversaciones desde que OpenAI sorprendió al mundo y con su modelo GPT desafió los usos que creíamos posibles para esta tecnología. Hoy estamos pensando en IA Generativa como una herramienta capaz de construir código, automatizar tareas o incluso imitar la voz de alguien. ¿Pero cuál es su futuro? La respuesta parece que es en los celulares que utilizamos.

La razón es bastante sencilla: si logramos que la IA generativa funcione bien en nuestros smartphones, significa que habremos resuelto varios de los problemas más importantes que tiene hoy.  En ENTER.CO hablamos con Amikam Yalovetzky. Sr. Manager Global Corporate Marketing para MediaTek, precisamente sobre el rol que tendrá la próxima generación de procesadores en cumplir esta meta de llevar la IA generativa a los celulares.

¿Por qué tenemos que llevar la IA generativa a los procesadores?

En estos momentos la mayoría de modelos de IA generativa funcionan en la nube. Esto significa que todo el procesamiento para generar imágenes, respuestas o videos no ocurre en tu computador. Aunque para tu CPU esto significa que puede ser un poco más ‘perezoso’, para la tecnología significan cinco problemas importantes.

La primera es que estos modelos son mucho más difíciles de escalar. Esto significa que a medidas que más funciones son agregadas, se preparan para recibir más usuarios o simplemente se ajustan para conectarse con más aplicaciones más complicado es ajustarlos para que crezca.

También hay ciertos problemas inherentes de seguridad con la IA generada en la nube, en especial con lo vulnerables que son estos modelos o sistemas a ataques más refinados y masivos. Tampoco ayuda que al ser un servicio que opera por fuera del software haya unos problemas de latencia importante (que cualquier puede notar durante los picos de popularidad de modelos como ChatGPT). Los costos de manejar todos estos modelos en la nube (en especial ahora que se están pensado para ser usados como herramientas de todos los días de la misma manera que vemos a WhatssApp) también representan un problema para muchas de las apps que quieren experimentar con la IA generativa.

¿Cuál es la mejor alternativa? Llevar la IA de la nube al hardware.

La respuesta actual para compañías como MediaTek está en llevar la IA generativa a los dispositivos, creando hardware y software que esté listo para ocupar este espacio que dejará la nube. La compañía (que en años recientes se ha hecho un renombre por tener sus procesadores en una cantidad impresionante de los smartphones que recibimos) lleva trabajando en el segmento de la inteligencia artificial desde 2014 con su MediaTek APU (Unidades de Procesamiento de Inteligencia Artificial) que hoy existen dentro de los procesadores de la compañía y que cumplen diferentes funciones como es servir de motores de aprendizaje, de motores de visualización, eficiencia energética y flexibilidad para tratar diferentes tipos de aplicaciones.

Y en este campo MediaTek que tiene bastante cancha y campo de experiencia. La compañía desde hace años adivinó que la IA era el futuro y trabajó en Neuropilot (el software de la compañía centrado en inteligencia artificial): el 2014 con interacción de voz, en el 2017 vimos interacción con imágenes y reconocimiento facial. En el 2020 se actualizó para la tendencia del momento que era videojuegos, luego en 2022 para el boom de la realidad virtual y realidad aumentada. Y desde 2023 el enfoque de NeuroPilot fue la Inteligencia Artificial Generativa.

¿Por qué es vital que la próxima generación de dispositivos tengan procesadores listos para trabajar con IA generativa?

De manera sencilla: al no tener ese hardware dedicado del que estamos hablando, pierdes eficiencia y pierdes batería. Los procesadores que no cuenten con unidades especializadas en IA van a comenzar a sentirse lentos a medida que utilicen apps o funciones de AI Generativa o nos vamos a encontrar con un escenario en el que el consumo de batería (y a largo plazo la vida útil de estos equipos) van a ser muchas más cortas.

Por otro lado, al implementar hardware dedicado podemos tener 27 veces mejor desempeño y hasta 15 veces mejor más eficiencia de consumo de batería. Es un salto importante y, viendo las maravillas que OpenAI está presentando y la aplicación actual que ya se está dando a modelos como ChatGPT significa solo una cosa: que en la próxima década la especificación más crítica que muchos deben revisar es si su procesador cuenta con la capacidad de manejar modelos IA desde el celular.

Imagen: Foto de Michael Dziedzic en Unsplash

Jeffrey Ramos González

Jeffrey Ramos González

Mi papá quería que fuera abogado o futbolista. Pero en vez de estudiar o salir a la cancha, me quedé en la casa viendo 'Dragon Ball Z', jugando 'Crash Bandicoot' y leyendo 'Harry Potter'. Así que ahora que toca ganarse la 'papita' me dedico a escribir de lo que sé y me gusta. Soy periodista graduado de la Javeriana, escritor de ficción. He publicado en El Tiempo, Mallpocket, entre otras revistas.

View all posts

Archivos