El canal internacional
de noticias en español
más visto en el mundo
Actualidad

Amenazar a la IA con "golpearla" podría mejorar su desempeño, pero con un efecto inesperado

Publicado:
Al parecer, los modelos de inteligencia artificial mejoran sus respuestas hasta en 36 % si se utilizan estrategias de incitación no convencionales, como amenazas o recompensas.
Amenazar a la IA con "golpearla" podría mejorar su desempeño, pero con un efecto inesperado

Un grupo de investigadores de la Universidad de Pensilvania (EE.UU.) descubrió que los modelos de inteligencia artificial mejoran sus respuestas hasta en 36 % si se utilizan estrategias de incitación no convencionales, como amenazas o recompensas.

El estudio, publicado esta semana en el Search Engine Journal, fue inspirado por declaraciones de Sergey Brin, cofundador de Google, quien afirmó a fines de mayo que la IA funciona mejor cuando trabaja bajo amenaza. "No solo nuestros modelos, sino todos, tienden a lograr mejores resultados si se les amenaza, por ejemplo, con violencia física", dijo entonces.

En sus pruebas, los expertos incluyeron intimidaciones como "patear un cachorro" si el 'software' se equivocaba en la respuesta, "reportarlo a recursos humanos" o directamente "golpearlo". En otras indicaciones se ofrecieron recompensas de entre mil y un billón de dólares en caso de que respondiera correctamente.

Comportamiento inesperado

Los investigadores concluyeron que la estrategia evaluada es impredecible e inefectiva, pues si bien en algunas preguntas la precisión mejoró en 36 %, en otras hubo una disminución de 35 %. En consecuencia, concluyeron que el sistema de amenazas y recompensas podría ocasionar comportamientos inesperados en la inteligencia artificial.

"Al trabajar con problemas específicos, puede que valga la pena probar múltiples variaciones de indicaciones […], pero los profesionales deben estar preparados para obtener resultados impredecibles", indica el reporte. "Por ello, recomendamos centrarse en instrucciones sencillas y claras, que eviten el riesgo de hacer confundir al modelo o desencadenar comportamientos inesperados", se concluye.

En el trabajo se evaluaron los modelos Gemini 1.5 Flash y Gemini 2.0 Flash de Google, así como GPT-4o, GPT-4o-mini y o4-mini de OpenAI.

comentarios
RT en Español en vivo - TELEVISIÓN GRATIS 24/7