Adi Insights

Los chatbots nos engañan

Sin duda alguna, este ha sido el año de la eclosión definitiva de los chatbots, sobre todo gracias a la aparición de las últimas versiones de ChatGPT, herramienta que parece, por fin, chatear realmente con el usuario como lo haría una persona al otro lado de la pantalla. 

El cambio de paradigma con estas nuevas tecnologías de inteligencia artificial aplicadas a la conversación vía chat, entre las que encontramos ChatGPT como la más popular. Es innegable que, a las clásicas ventajas de los chatbots aplicados en la relación con el cliente (disponibilidad 24/7, inmediatez en el acceso, escalabilidad, reducción de costes por cada interacción...), estas nuevas soluciones añaden una nueva dimensión, principalmente gracias a: 

  • Generación de texto de manera similar a como lo haría un humano, gracias a modelos de lenguaje avanzados que ofrecen respuestas más naturales y contextualmente coherentes.  
  • Aprendizaje continuo con cada interacción, basado en aprendizaje automático profundo, para mejorar el rendimiento gradualmente. 
  • Mayor flexibilidad y adaptabilidad al interlocutor gracias a una capacidad superior para manejar consultas más complejas y responder preguntas que no siguen un patrón predefinido. 

En resumen, las soluciones de IA generativa aplicadas a los clásicos chatbots han dado un paso grandísimo no solo en la viabilidad, sino en la adopción por parte de los usuarios de estos asistentes virtuales. 

Pero no es oro todo lo que reluce. 

ChatGPT es un mentiroso 

No son pocos los expertos tecnólogos que, pese a estar inmersos en proyectos para incorporar tecnologías de IA generativas como ChatGPT en su porfolio de soluciones, nos advierten que, de momento, debemos ser cautelosos. Así, por ejemplo, el CIO corporativo del Grupo Konecta, Jorge del Río, nos recordaba en su última conferencia en Expocontact que ChatGPT, en el fondo, era como un papagayo: es inteligente, sí, pero solo repite lo que escucha. ¿Qué sucede entonces si lo que repite no es verdad? 

Los expertos ya lo advierten: las IA's generadoras de texto no podrán dejar de inventarse cosas jamás. Y, además, parece que no tiene remedio. 

En las distintas entrevistas publicadas en el artículo de Associated Press “Los chatbots a veces se inventan cosas”, algunos de los principales expertos en el tema aseguran que los chatbots basados en inteligencia artificial generativa no pueden dejar de inventarse cosas, pues básicamente ese es su funcionamiento.  

“Incluso si se pueden ajustar para que tengan razón la mayor parte del tiempo, seguirán teniendo fallos, y es probable que esos fallos se den en los casos en los que es más difícil para una persona que lee el texto darse cuenta” declara Emily Bender, profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington. 

Estas “alucinaciones” de las inteligencias artificiales son claramente un reto. Mientras gurús de la tecnología como Bill Gates consideran que será posible entrenar a estas soluciones para distinguir los hechos de la ficción, otros como el propio CEO de OpenAI (la empresa tras ChatGPT) son, hoy por hoy, tajantes: “Probablemente confío menos en las respuestas que salen de ChatGPT que nadie en la Tierra” 

Esta frase de Sam Altman refleja una importante valoración sobre las limitaciones y el potencial de las tecnologías como ChatGPT, recordándonos que, si bien sus capacidades de generación de lenguaje natural son impresionantes, también existen desafíos y riesgos asociados a su uso. 

En resumen, debemos ser conscientes de la necesidad de mantener una actitud crítica y responsable al interactuar con las respuestas generadas por sistemas de IA como ChatGPT, siendo de vital importancia la supervisión humana para su correcto funcionamiento.