Apple creó una fórmula que funciona que muchos la quieren copiar y es desarrollar el hardware correcto para su software y por eso OpenAI quiere diseñar procesadores para la IA. De momento no es más que un proceso de exploración, pero es uno de los objetivos en la hoja de ruta de los propietarios de ChatGPT, pudiendo incluso hacer una adquisición de un proyecto.
No es un capricho. La inteligencia artificial de OpenAI utiliza cierto tipo de chips que tienen alto rendimiento y son en los que se basa el desempeño de ChatGPT, pero hay un problema y es que la escasez, sumado a los altos costos, limita el desempeño de las operaciones de esta empresa. Es por ello que están pensando entrar en el negocio del hardware.
ChatGPT ya permite buscar en Internet sin pagar: esta es la verdadera revolución de la IA
Tienen tres opciones sobre la mesa, la primera es desarrollar su propio procesador para inteligencia artificial, una segunda alternativa y menos costosa, es una alianza con fabricantes para desarrollar chips bajo especificaciones, con marcas como Nvidia. La tercera alternativa podría ser crear un estándar y diversificar a los proveedores, incluyendo Nvidia.
Como de momento no es más que una discusión interna, no hay una posición de la empresa frente al tema. Sin embargo, es importante recordar que el propio Sam Altman, CEO de OpenAI, se ha quejado públicamente por la poca existencia de chips fabricados por Nvidia, que controla el 80 % del mercado global de estos procesadores.
No es secreto para nadie que OpenAI no está en su mejor momento económico, varios reportes señalaron que Altman está quemando dinero fresco para mantener a flote la empresa, mientras que las suscripciones de pago no crecen.
Pero existe un segmento en el que todavía tienen posibilidades de crecer y es en el que proveen de tecnología de IA a las empresas para desarrollar sus propios bots personalizados y de servicio, lo que implica una inversión para poder distribuir soluciones empaquetadas.
Además de ello, echar marcha adelante a ChatGPT resulta bastante caro para OpenAI, solamente en la supercomputadora creada por Microsoft con la que mueven el núcleo central de su IA, cuenta con más de 10.000 unidades de GPU desarrolladas por Nvidia.
En cálculos sobre los costos asociados, ChatGPT le cuesta a OpenAI cuatro céntimos de dólar por cada pregunta, ahora debemos multiplicar eso por los millones de preguntas que se hacen a diario al chatbot.
Por ello, es posible que OpenAI también tenga en la mira la necesidad de más chips en caso de que aumenten las consultas a partir del próximo año, aunque de momento todo se mantiene en planes sin ejecutar.
Vía: Reuters
ChatGPT presenta una versión para empresas
- Ver Comentarios