Los errores humanos de ChatGPT

Emily Rich, Strategy Lead de Wavemaker Global

Emily Rich, Strategy Lead de Wavemaker Global
Emily Rich, Strategy Lead de Wavemaker Global

El otro día, le presenté ChatGPT a mi hija de 8 años. Después de agotar su creatividad con la creación de poemas, dirigió su atención hacia su obsesión actual, Keeper of the Lost Cities, una colección de diez libros que actualmente la tiene cautivada. Para darte una idea del argumento, involucra a duendes y primeros amores.

Interesada en saber qué pensaba Chat GPT sobre su saga favorita, preguntó: "¿Qué significa confiar en el empático (trust the empath)?", una frase que repite la protagonista. ChatGPT respondió con un párrafo bien escrito sobre cómo Sophie Foster (la protagonista de la serie) es empática, y que esta frase es "un recordatorio para confiar en su intuición y habilidades empáticas". Mi hija se quedó sin aliento, no se lo podía creer. "Sophie -exclamó- es telépata, no empática". Le mencioné este error monumental a ChatGPT, que inmediatamente respondió: “mis disculpas por el error. Tienes razón. Gracias por la aclaración".

Olvidé el asunto de la fiabilidad de ChatGPT hasta que recientemente me encontré con un artículo en The Guardian. En él, la autora Elif Batuman contó la intrigante historia de cómo, al pedirle a ChatGPT una cita medio recordada de En busca del tiempo perdido, de Proust, recibió información falsa, versos parafraseados e incluso invenciones.

ChatGPT: Pido disculpas por cualquier confusión anterior. Es posible que el pasaje que proporcioné no sea una cita exacta de "En busca del tiempo perdido". Mi respuesta anterior contenía un fragmento parafraseado que pretendía captar la esencia de los temas de Proust sobre la memoria y las relaciones amorosas. Es posible que mi respuesta no haya sido precisa con respecto al texto original".

Parece que no siempre podemos esperar que la IA, en este caso ChatGPT, proporcione información precisa. En ocasiones, se limita a parafrasear o inventar la información, lo cual es extraño, ya que normalmente asociamos estos errores y comportamientos con humanos, no con máquinas. Sin embargo, curiosamente, los errores que está cometiendo ChatGPT se sienten categóricamente diferentes a los humanos. Un humano experto en Proust sería capaz de recitar ese verso fácilmente y sin errores. Mi experta en KOTLC de 8 años ciertamente podría decirte que Sophie NO es empática. Los errores son diferentes, pero ¿también los resultados?

Quizás los errores de la IA digital no sean tan perdonables como los humanos. Quizás la diferencia fundamental entre los errores de la IA y los humanos radica en la naturaleza de las imperfecciones. Cualquiera interesado en los avances científicos sabe que el descubrimiento de la penicilina fue un hermoso error humano que consiguió mejorar la vida de las personas. Pero, ¿sabías que los Post-it también lo fueron? Y que el Slinky se creó cuando el ingeniero Richard James intentaba diseñar muelles estabilizadores para barcos de guerra, pero en su lugar ideó, accidentalmente, algo mucho más divertido. Las imperfecciones se han descrito, incongruentemente, como la perfección de los seres humanos.

Esta es también la razón por la que la IA es un arma de doble filo cuando se trata de evitar errores. A menudo asumimos que la automatización hace las cosas más seguras y eficientes, lo cual, generalmente, sucede. Pero, ¿podemos confiar siempre en la respuesta ofrecida por la IA?

Un artículo en The Conversation plantea posibles nuevas preocupaciones derivadas de la automatización de la IA. Por ejemplo, menciona que los pilotos de aerolíneas tienen actualmente menos horas de vuelo reales debido a la eficacia de los pilotos automáticos. Lo cual está bien hasta que el piloto automático falla y el piloto tiene menos experiencia para rectificar una situación potencialmente peligrosa. En la misma línea, la primera plataforma petrolífera de nueva generación (Sleipnir A) se hundió porque los ingenieros confiaron en los cálculos del software. De hecho, el modelo era erróneo, pero había "presentado los resultados de una manera tan convincente que parecían fiables". Estos casos ilustran cómo la IA, a pesar de su eficiencia en muchos aspectos, puede generar problemas graves cuando se trata de la toma de decisiones en entornos críticos. Si bien la historia está llena de ejemplos de errores humanos que resultaron en descubrimientos significativos, la inteligencia artificial, al carecer de la capacidad de aprendizaje experiencial y discernimiento emocional, tiende a cometer errores más predecibles y, a menudo, menos perdonables. Mientras que los fallos humanos pueden conducir a avances revolucionarios, los errores de la IA pueden tener consecuencias más graves, especialmente cuando se trata de situaciones críticas como la aviación o la ingeniería.

Wavemaker ya está profundamente involucrado en escalar los beneficios de la IA para nuestros clientes: impulsa nuestra herramienta única de planificación de canales y audiencias; permite que nuestra tecnología Co-Pilot encuentre ganancias de activación reales en los DSP; y se asienta detrás de nuestra tecnología de resultados y planificación predictiva. Todas estas aplicaciones reales de la IA que ya estamos desarrollando en las estrategias de medios de nuestros clientes tienen su implicación directa en su negocio y en su crecimiento en ventas. Pero debe estar siempre supervisada por el hombre.

En resumen, mientras contemplamos la capacidad transformadora de la inteligencia artificial, también debemos ser conscientes de sus limitaciones y reconocer que, a diferencia de los errores humanos que a veces conducen a descubrimientos inesperados, los errores de la IA pueden tener consecuencias más graves y requerir una gestión más cuidadosa en su implementación. La relación entre la confiabilidad y los fallos de la IA se convierte, así, en un desafío clave en nuestro viaje hacia una mayor automatización y digitalización.

Comentarios