Decirle "por favor" y "gracias" a ChatGPT le cuesta una millonada a OpenAI
Aunque a primera vista parezca una exageración, lo cierto es que cada palabra escrita e interpretada por ChatGPT tiene un costo energético asociado. ¿Varían las respuestas de la IA si le digo "por favor" y "gracias"?
Sam Altman, CEO de OpenAI, recientemente abordó un tema interesante relacionado con el uso de lenguaje en su inteligencia artificial, ChatGPT. En un intercambio en la red social X (anteriormente conocida como Twitter), un usuario hizo una pregunta que, aunque parecía sencilla, revelaba un trasfondo técnico significativo: "¿Cuánto dinero ha perdido OpenAI en electricidad por los mensajes de ‘por favor’ y ‘gracias’ a sus modelos?"
La respuesta de Altman fue clara y sorprendente: “Decenas de millones de dólares bien gastados. Nunca se sabe”. Esta afirmación, que podría parecer una exageración inicial, invita a profundizar en el contexto que la rodea. Cada interacción con ChatGPT, por sencilla que sea, conlleva un costo energético. Las palabras, incluso las más cortas y corteses, requieren de un proceso computacional que le permite a la inteligencia artificial analizar, interpretar y responder de manera adecuada.
Este proceso no es trivial. Cuando un usuario escribe "por favor" o "gracias", el modelo debe considerar el contexto de la conversación, lo que implica un significativo uso de recursos computacionales. Esta carga de trabajo no solo afecta la capacidad de procesamiento de los servidores, sino que también incrementa el consumo de energía eléctrica. Por ende, cada interacción, incluso las que parecen inofensivas, contribuye al costo operativo total de la empresa.
La revelación de Altman pone de manifiesto un aspecto crucial del desarrollo y mantenimiento de tecnologías avanzadas como ChatGPT. A medida que la inteligencia artificial se vuelve más integral en nuestras vidas diarias, surgen preguntas sobre la sostenibilidad de su funcionamiento y el impacto del uso cotidiano en la infraestructura que las soporta.
La IA consume más energía de lo que imaginas
Según datos de Goldman Sachs, una sola consulta a ChatGPT-4 puede requerir alrededor de 2,9 vatios-hora de electricidad, una cifra considerablemente superior a la de una búsqueda convencional en Google, que ronda los 0,3 vatios-hora. Teniendo en cuenta que OpenAI procesa más de mil millones de consultas diarias, se estima que el consumo energético diario podría superar los 2,9 millones de kilovatios-hora.
Este impacto no es menor si se considera que los centros de datos de inteligencia artificial ya representan cerca del 2 % del consumo eléctrico mundial, según la Agencia Internacional de Energía (AIE). La situación podría agravarse aún más: proyecciones del Instituto de Investigación de Energía Eléctrica (EPRI) indican que, para 2030, los centros de datos podrían consumir hasta el 9,1 % de la electricidad total en Estados Unidos.
Además, la AIE estima que los centros de datos serán responsables de más del 20 % del crecimiento de la demanda eléctrica en las economías desarrolladas en la próxima década, impulsados principalmente por la expansión de la IA y sus múltiples aplicaciones.
¿Varían las respuestas de ChatGPT si le digo por favor y gracias?
En un reciente estudio realizado en la Universidad de Cornell, Estados Unidos, se abordó un tema de creciente relevancia en el campo de la inteligencia artificial: la influencia de la cortesía en la interacción entre los humanos y la inteligencia artificial. Los hallazgos del estudio sugieren que la forma en que se estructuran las solicitudes puede tener un impacto significativo en la calidad de las respuestas generadas por la inteligencia artificial.
Los investigadores indicaron que el uso de un lenguaje cortés en las comunicaciones tiende a generar un mayor cumplimiento y efectividad en las respuestas, mientras que un enfoque descortés puede provocar aversión y, en consecuencia, limitar la calidad de la interacción. Este fenómeno no solo resalta la importancia de la cortesía en la comunicación humana, sino que también sugiere que los modelos de lenguaje de inteligencia artificial reflejan rasgos de esta interacción humana, adaptándose a normas sociales y culturales inherentes a los idiomas en los que operan.
El estudio se centró en evaluar el impacto de la cortesía en las instrucciones dadas a los modelos de lenguaje en tres idiomas: inglés, chino y japonés. Los resultados mostraron que las indicaciones que carecían de cortesía a menudo resultaban en un rendimiento inferior de los modelos. Sin embargo, se observó que un uso excesivo de la cortesía no siempre garantizaba mejores resultados, lo que añade una capa de complejidad a la interacción con la inteligencia artificial.
Particularmente, los hallazgos revelaron que el nivel de cortesía efectivo varía según el idioma. En inglés, los modelos parecían responder de manera óptima a un nivel de cortesía moderado, mientras que en japonés, un alto grado de cortesía resultó ser más beneficioso. Esto sugiere que los modelos de lenguaje han absorbido no solo patrones lingüísticos, sino también matices culturales a partir de los datos con los que han sido entrenados. Los investigadores subrayaron la importancia de considerar la cortesía en el procesamiento del lenguaje natural, especialmente en contextos interculturales.
A pesar de que se diseñaron diversas instrucciones para el estudio, los investigadores encontraron dificultades para equilibrar el nivel de cortesía con la variedad de las mismas. Crear instrucciones que fueran suficientemente diversas y que, al mismo tiempo, respetaran las sutilezas de cortesía y respeto fue identificado como un desafío considerable. Así, el estudio de la Universidad de Cornell no solo aporta evidencias sobre la relación entre la cortesía y el rendimiento de los modelos de lenguaje, sino que también abre la puerta a futuras investigaciones sobre la adaptación de la inteligencia artificial a las dinámicas sociales y culturales que caracterizan las interacciones humanas.