Sam Altman, director ejecutivo de OpenAI Inc., en la Cumbre de Impacto de la IA en Nueva Delhi, India, el jueves 19 de febrero de 2026.
Prakash Singh | Bloomberg | Getty Images
El CEO de OpenAI, Sam Altman, el viernes defendió las demandas de recursos de la inteligencia artificial, calificando las preocupaciones sobre el uso de agua en los centros de datos como “falsas” y comparando la energía utilizada por los sistemas de IA con la de los humanos.
Altman habló en el margen de la cumbre de Impacto de la IA en India en una entrevista con The Indian Express cuando le preguntaron sobre las críticas comunes a la IA, como su consumo de energía y agua.
El CEO respondió que las afirmaciones que circulan en línea de que ChatGPT usa galones de agua por consulta eran “totalmente falsas, completamente locas”, y que “no tienen ninguna relación con la realidad”.
Tradicionalmente, los centros de datos utilizan grandes cantidades de agua para enfriar componentes eléctricos y prevenir sobrecalentamientos. Aunque las tecnologías de enfriamiento de centros de datos han prometido reducir el consumo, algunos centros de datos más nuevos ya no dependen del agua en absoluto.
Aún así, incluso con una mayor eficiencia, un informe del mes pasado de la empresa de tecnología del agua Xylem y Global Water Intelligence proyectó que el agua utilizada para enfriar se triplicará más de tres veces en los próximos 25 años a medida que aumenta la demanda de computación, poniendo presión sobre los sistemas de agua.
Mientras descarta los temores sobre el uso de agua, Altman dijo que el consumo de energía sigue siendo una preocupación justa para la IA. “No por consulta, sino en total, porque el mundo está usando tanta IA… y necesitamos avanzar rápidamente hacia la energía nuclear o eólica y solar”, afirmó.
Preguntado por los comentarios previos del fundador de Microsoft, Bill Gates, quien ha sugerido que la eficiencia del cerebro humano demuestra que la IA puede evolucionar para ser también más eficiente en el uso de energía con el tiempo, Altman respondió con resistencia.
“Una de las cosas que siempre es injusta en esta comparación es que la gente habla de cuánta energía se necesita para entrenar un modelo de IA… Pero también se necesita mucha energía para entrenar a un humano”, dijo. “Se necesitan como 20 años de vida, y toda la comida que consumes antes de ese tiempo, antes de volverte inteligente.”
“La comparación justa es si le haces una pregunta a ChatGPT, cuánta energía se necesita una vez que un modelo está entrenado para responder esa pregunta, en comparación con un humano, y probablemente la IA ya ha alcanzado esa eficiencia en términos de energía, medido de esa manera”, añadió.
El proceso al que Altman se refiere se conoce como inferencia, que se refiere al uso de modelos de IA que ya han sido entrenados para crear nuevas salidas. La inferencia de IA suele consumir mucho menos energía que el entrenamiento en sí.
Los comentarios de Altman, en particular la comparación entre IA y humanos, han generado cierto debate en línea en medio de la creciente ansiedad sobre la capacidad de la IA para reemplazar el trabajo humano.
Sridhar Vembu, cofundador y científico principal de la empresa india de software Zoho Corporation, que estuvo presente en la cumbre, criticó la equivalencia entre humanos y IA. “No quiero ver un mundo donde equiparemos una pieza de tecnología con un ser humano”, dijo el multimillonario en una publicación en X.
El debate surge mientras gobiernos y empresas invierten miles de millones en nuevos centros de datos para apoyar las necesidades de computación de los sistemas de IA.
Según un informe de mayo del Fondo Monetario Internacional, el consumo de electricidad por parte de los centros de datos del mundo en 2023 ya había alcanzado niveles comparables a Alemania o Francia, poco después del lanzamiento del innovador modelo de IA ChatGPT de OpenAI.
En respuesta, algunos gobiernos han estado acelerando los procesos de aprobación para poner en línea nuevas energías baratas y renovables, aunque algunos ambientalistas advierten que tales movimientos podrían chocar con los objetivos globales de cero emisiones netas.
Algunas comunidades locales en países como EE. UU. también han rechazado proyectos de desarrollo por temor a que sobrecarguen las redes eléctricas y aumenten los costos de electricidad en general.
La semana pasada, el Ayuntamiento de San Marcos, Texas, rechazó un proyecto de centro de datos de 1.500 millones de dólares tras meses de oposición pública.
Ante tales resistencias, muchos líderes tecnológicos, incluido Altman de OpenAI, han argumentado que los centros de datos requerirán una mayor producción de energía proveniente de fuentes diversas, incluyendo energías renovables y nucleares.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Sam Altman defiende el uso de recursos de IA: Las preocupaciones por el agua son 'falsas', y 'los humanos también usan energía'
Sam Altman, director ejecutivo de OpenAI Inc., en la Cumbre de Impacto de la IA en Nueva Delhi, India, el jueves 19 de febrero de 2026.
Prakash Singh | Bloomberg | Getty Images
El CEO de OpenAI, Sam Altman, el viernes defendió las demandas de recursos de la inteligencia artificial, calificando las preocupaciones sobre el uso de agua en los centros de datos como “falsas” y comparando la energía utilizada por los sistemas de IA con la de los humanos.
Altman habló en el margen de la cumbre de Impacto de la IA en India en una entrevista con The Indian Express cuando le preguntaron sobre las críticas comunes a la IA, como su consumo de energía y agua.
El CEO respondió que las afirmaciones que circulan en línea de que ChatGPT usa galones de agua por consulta eran “totalmente falsas, completamente locas”, y que “no tienen ninguna relación con la realidad”.
Tradicionalmente, los centros de datos utilizan grandes cantidades de agua para enfriar componentes eléctricos y prevenir sobrecalentamientos. Aunque las tecnologías de enfriamiento de centros de datos han prometido reducir el consumo, algunos centros de datos más nuevos ya no dependen del agua en absoluto.
Aún así, incluso con una mayor eficiencia, un informe del mes pasado de la empresa de tecnología del agua Xylem y Global Water Intelligence proyectó que el agua utilizada para enfriar se triplicará más de tres veces en los próximos 25 años a medida que aumenta la demanda de computación, poniendo presión sobre los sistemas de agua.
Mientras descarta los temores sobre el uso de agua, Altman dijo que el consumo de energía sigue siendo una preocupación justa para la IA. “No por consulta, sino en total, porque el mundo está usando tanta IA… y necesitamos avanzar rápidamente hacia la energía nuclear o eólica y solar”, afirmó.
Preguntado por los comentarios previos del fundador de Microsoft, Bill Gates, quien ha sugerido que la eficiencia del cerebro humano demuestra que la IA puede evolucionar para ser también más eficiente en el uso de energía con el tiempo, Altman respondió con resistencia.
“Una de las cosas que siempre es injusta en esta comparación es que la gente habla de cuánta energía se necesita para entrenar un modelo de IA… Pero también se necesita mucha energía para entrenar a un humano”, dijo. “Se necesitan como 20 años de vida, y toda la comida que consumes antes de ese tiempo, antes de volverte inteligente.”
“La comparación justa es si le haces una pregunta a ChatGPT, cuánta energía se necesita una vez que un modelo está entrenado para responder esa pregunta, en comparación con un humano, y probablemente la IA ya ha alcanzado esa eficiencia en términos de energía, medido de esa manera”, añadió.
El proceso al que Altman se refiere se conoce como inferencia, que se refiere al uso de modelos de IA que ya han sido entrenados para crear nuevas salidas. La inferencia de IA suele consumir mucho menos energía que el entrenamiento en sí.
Los comentarios de Altman, en particular la comparación entre IA y humanos, han generado cierto debate en línea en medio de la creciente ansiedad sobre la capacidad de la IA para reemplazar el trabajo humano.
Sridhar Vembu, cofundador y científico principal de la empresa india de software Zoho Corporation, que estuvo presente en la cumbre, criticó la equivalencia entre humanos y IA. “No quiero ver un mundo donde equiparemos una pieza de tecnología con un ser humano”, dijo el multimillonario en una publicación en X.
El debate surge mientras gobiernos y empresas invierten miles de millones en nuevos centros de datos para apoyar las necesidades de computación de los sistemas de IA.
Según un informe de mayo del Fondo Monetario Internacional, el consumo de electricidad por parte de los centros de datos del mundo en 2023 ya había alcanzado niveles comparables a Alemania o Francia, poco después del lanzamiento del innovador modelo de IA ChatGPT de OpenAI.
En respuesta, algunos gobiernos han estado acelerando los procesos de aprobación para poner en línea nuevas energías baratas y renovables, aunque algunos ambientalistas advierten que tales movimientos podrían chocar con los objetivos globales de cero emisiones netas.
Algunas comunidades locales en países como EE. UU. también han rechazado proyectos de desarrollo por temor a que sobrecarguen las redes eléctricas y aumenten los costos de electricidad en general.
La semana pasada, el Ayuntamiento de San Marcos, Texas, rechazó un proyecto de centro de datos de 1.500 millones de dólares tras meses de oposición pública.
Ante tales resistencias, muchos líderes tecnológicos, incluido Altman de OpenAI, han argumentado que los centros de datos requerirán una mayor producción de energía proveniente de fuentes diversas, incluyendo energías renovables y nucleares.