31.2 C
Buenos Aires
lunes, 13 enero, 2025
InicioTecnoLa dura advertencia de Elon Musk sobre la inteligencia artificial

La dura advertencia de Elon Musk sobre la inteligencia artificial

Elon Musk, el director general ejecutivo de empresas como X, Tesla y Space X, advirtió que el entrenamiento de modelos de inteligencia artificial (IA) con datos creados únicamente por humanos se está volviendo imposible.

Musk afirmó que hay una falta creciente de datos del mundo real para entrenar modelos de inteligencia artificial, incluido el chatbot Grok AI, desarrollado por X, la red social de microblogging antes conocida como Twitter.

«Ahora hemos agotado básicamente la suma acumulada del conocimiento humano… en el entrenamiento de IA, dijo Musk durante una entrevista en vivo realizada por el presidente de la empresa Stagwell, Mark Penn. «Eso sucedió básicamente el año pasado», señaló.

Los comentarios de Musk reflejan los del exinvestigador de la empresa OpenAI Ilya Sutskever, quien predijo en diciembre que las compañías desarrolladoras IA habían alcanzado «datos máximos». La propuesta de Musk para este problema son los datos sintéticos. Google, OpenAI, Anthropic y Meta aprovechan los datos sintéticos para entrenar sus modelos.

«La única forma de complementar (los datos del mundo real) es con datos sintéticos, donde la IA crea» datos de entrenamiento, dijo Musk. «Con datos sintéticos… (la IA) se calificará a sí misma y pasará por este proceso de autoaprendizaje», precisó.

Si bien el uso de datos sintéticos puede ofrecer ahorros de costos a las empresas, algunos estudios sugieren que la dependencia excesiva de los datos sintéticos puede conducir al colapso del modelo, donde las respuestas de la IA se vuelven menos creativas y más sesgadas con el tiempo, ya que se entrenan repetidamente con datos generados en forma recursiva.

La falta de datos derivados de humanos no impidió que X convierta su función Grok AI en su propia aplicación para iOS. El chatbot y el generador de imágenes, notables por su falta de propiedad intelectual o barreras de seguridad, solían estar disponibles solo para personas que desembolsaban 8 dólares al mes por una cuenta premium X. Sin embargo, la nueva aplicación es gratuita para que cualquiera la descargue.

Inteligencia artificial: los problemas de OpenAI

El CEO de OpenAI, Sam Altman, se mostró arrepentido con una de sus decisiones sobre ChatGPT: la plataforma Pro cuesta 200 dólares al mes para entregar mejores resultados de conversación y búsqueda y resolución, pero no fue lo esperado en ganancias para la compañía.

«Personalmente, elegí el precio», escribió Altman en una serie de publicaciones en la red social X, «y pensé que ganaríamos algo de dinero». «Una locura: ¡actualmente estamos perdiendo dinero con las suscripciones a OpenAI Pro! La gente lo usa mucho más de lo que esperábamos», reconoció Altman.

ChatGPT Pro, lanzado a fines del año pasado, otorga acceso a una versión mejorada del modelo de inteligencia artificial (IA) de «razonamiento» o1 de OpenAI, el modo o1 pro, y elimina los límites de velocidad en varias de las otras herramientas de la compañía, incluido su generador de video Sora.

En una entrevista reciente con la agencia Bloomberg, Altman dijo que el plan premium original para el chatbot impulsado por IA de OpenAI, ChatGPT, no tenía un estudio de precios. «Creo que probamos dos precios, 20 y 42 dólares», dijo.

«La gente pensaba que 42 dólares era demasiado. Estaban felices de pagar 20 dólares. Elegimos 20 dólares. Probablemente fue a finales de diciembre de 2022 o principios de enero. No se trataba de un riguroso ‘contrata a alguien y haz un estudio de precios'», admitió.

Aún así OpenAI proyecta con optimismo que sus ingresos alcanzarán los 11.600 millones de dólares este año y los 100.000 millones de dólares en 2029, igualando las ventas anuales actuales de Nestlé. Si bien no hay estadísticas oficiales sobre la cantidad de suscriptores, en agosto ChatGPT contaba con 200 millones de usuarios a nivel mundial, según datos del medio digital Axios.

El motivo detrás de esta pérdida de dinero son las demandas computacionales del servicio de inteligencia artificial, que superan en gran medida los ingresos de la firma. Una de las soluciones sería aumentar el valor de la suscripción, aunque OpenAI aún no tomó ninguna medida al respecto.

No se trata de la primera vez que la compañía experimenta esta crisis. En septiembre Altman confirmó a la cadena televisiva CNBC que OpenAI esperaba cerrar el año con pérdidas de 5 mil millones de dólares frente 3,7 mil millones de dólares de ganancias.

En este escenario, la compañía, que está respaldada por Microsoft, se puso en búsqueda de financiamiento y, en octubre logró cerrar una ronda de capitalización de 6.600 millones de dólares.

ChatGPT Pro y su alta demanda de energía

Esta versión fue diseñada para profesionales que necesitan IA con nivel de investigación a gran escala. Por esta razón, incluye acceso ilimitado a OpenAI o1, GPT-4o y funciones avanzadas de voz, según indica el sitio oficial de la compañía.

Además, con ChatGPT Pro los usuarios pueden utilizar una versión exclusiva de o1, el modelo de IA con capacidades de razonamiento que dedica «más tiempo a pensar antes de responder» para resolver tareas complejas y problemas más difíciles.

La cantidad de energía que demandan estas herramientas es un tema que enciende alarmas y los números así lo reflejan: las emisiones de carbono de Google aumentaron un 48% en cinco años debido al auge de la IA, informó el gigante estadounidense.

Algunos estudios señalan que una consulta a ChatGPT requiere de media 10 veces más energía que una simple consulta al motor de búsqueda de Google. Esto se debe a que modelos de lenguaje en los que se basan las IA generativas necesitan una capacidad de cálculo enorme para entrenarse utilizando miles de millones de datos, lo que requiere servidores potentes.

Luego, cada vez que un usuario envía una consulta a ChatGPT o a cualquier otra IA generativa, hace funcionar servidores situados en un centro de datos. Estos servidores consumen electricidad, se calientan y es necesario refrigerarlos con sistemas que a su vez requieren energía.

Mientras que los servidores con una potencia de cálculo media pueden colocarse en salas con sistemas de aire acondicionado, aquellos mucho más potentes necesarios para la IA tienden a calentarse más y requieren bombear agua directamente a los equipos para enfriarlos.

Más noticias
Noticias Relacionadas