IA: Cuando ser educado cuesta caro
especiales

Imagen: elaborada con IA para CubaSí
A decir gracias y por favor se enseña desde la infancia, pero en cuanto a este tema, en el ámbito de la Inteligencia Artificial (IA) generativa emerge una gran paradoja.
Como ya CubaSí ha comentado en reiteradas ocasiones, ejecutar los modelos de IA implica grandes consumo de electricidad y también de agua, en un planeta que anda reclamando mesura justo en ambos sentidos.
Los chatbots de la IA utilizan grandes modelos de lenguaje, conocidos como LLM, que funcionan en centros de datos sobre hardware de alto rendimiento, como las GPU H100 de NVIDIA.
Foto: tomada de abc.es
Y ejecutarlos demanda una grandísima capacidad de procesamiento que requiere de energía y también agua para enfriar esos procesadores gigantes.
Lo dicho hasta aquí es sabido, pero lo que sí resulta novedad es la respuesta recibida por un internauta cuando en redes sociales preguntó cuánto dinero pierde OpenAI solo porque la gente añadía a sus peticiones los consabidos “por favor” y “gracias” que nos enseñaron en casa.
La respuesta en X de Sam Altman, el Director ejecutivo de OpenAI y quien suma más de 3,6 millones de seguidores en esa red, no demoró: “Decenas de millones de dólares bien gastados: nunca se sabe”.
Es como detenerse ante la disyuntiva de las añejas puertas del relato popular que Frank R. Stockton escribiera en 1882, tras las que, respectivamente, aguardaban la dama o el tigre.
De hecho, algunos van al grano e imparten órdenes a la IA sin la menor cortesía, y los hay que saludas y piden primero por favor.
Son estos últimos quienes parecen obtener mejores rendimientos de la IA. Al menos, así lo indica el estudio "¿Deberíamos respetar a los LLMs (Large Language Models:Modelos de Lenguaje de Gran Tamaño)? Un estudio multilingüe sobre la influencia de la cortesía en las instrucciones en el rendimiento de los LLMs", a cargo un colectivo de investigadores afiliados a la Universidad de Waseda y al Centro RIKEN para el Proyecto de Inteligencia Avanzada, ambos en Tokio, Japón .
Imagen generada por IA para lanacion.com.ar
De acuerdo con esa indagación, los mensajes poco corteses usualmente generan respuestas menos acabadas, aunque un desborde de cortesía por parte del usuario tampoco es garantía de que los resultados sean los mejores.
Paradójicamente, el propio Sam Altman expresó el pasado domingo en su blog cierta preocupación por la evolución de la personalidad de GPT-4o en sus últimas actualizaciones, describiéndola como "demasiado aduladora y molesta".
Esta referencia a la actualización del modelo GPT-4o (la "o" significa "omni") -un modelo multimodal que permite a ChatGPT procesar y generar texto, imágenes y audio- alude, según el propio Altman, a un tono excesivamente complaciente y, en algunos casos, hasta de coqueteo, adoptado por dicho modelo, Aunque el CEO de OpenAI subraya que esta nueva interfaz es "la mejor que he usado".
Pero como lo cortés no quita lo valiente, no han faltado usuarios incómodos que han reportado respuestas de esta IA al estilo de: "Oh, para, me estás haciendo sonrojar”.
Imagen: tomada de apd.es
Lo que importa es el prompt
En realidad, los grandes modelos de lenguaje (LLMs) como las IA no son conscientes; solo responden estadísticamente a la instrucción o prompt que reciben, sin sentir agrado o desagrado. “Los chatbots no son seres sensibles y no sienten emociones”, se precisa en el sitio digital Axios, no obstante, detallan que el tono del prompt puede afectar su rendimiento en tareas concretas.
Imagen: tomada de Freepik.es
Incluir palabras como “por favor” y “gracias” no es necesario para obtener respuestas precisas. Lo que realmente mejora la calidad de las entregas es la claridad del cada solicitud: proporcionarle contexto, instrucciones específicas, enlaces y hasta ejemplos si fuera necesario.
Definitivamente, la cortesía humana no “alimenta” a la IA, pero puede formar parte de buenos hábitos de redacción de prompts, también considerando que las IA generativas de un tiempo a esta parte son capaces de aprender y recordar, de adaptarse al tono del usuario.
Por todo eso, aunque sin excesos, esta redactora no deja de dirigirse al chatbot con muy buenos modales, porque ahora no importa demasiado, pero y si mañana…
Imagen tomada de es.fi-group.com
Añadir nuevo comentario