En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí

CLUB VIVAMOS
Suscríbete
Disfruta de los beneficios de El Tiempo
SUSCRÍBETE CLUB VIVAMOS

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. Verificar Correo

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión

Hola, bienvenido

¿Cual es la ciudad colombiana clasificada como la más peligrosa del mundo?
¿Cómo va el juicio al expresidente Álvaro Uribe?
¿Accidente de bus en Calarcá?
Frío inusual en Bogotá explicado por el Ideam

Miden con qué frecuencia mienten los chatbots al responder: este es el resultado

Los chatbots a veces inventan información. Expertos lo llaman “alucinación”.

NYT: Amr Awadallah, CEO de Vectara, halló que los chatbots inventan información con frecuencia.

NYT: Amr Awadallah, CEO de Vectara, halló que los chatbots inventan información con frecuencia. Foto: Cayce Clifford para The New York Times

Alt thumbnail

Actualizado:

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon
SAN FRANCISCO — Cuando OpenAI presentó su chatbot ChatGPT a fines del año pasado, millones quedaron impactados por la forma humana en que respondía preguntas, escribía poesía y hablaba de casi cualquier tema. Pero la mayoría de la gente tardó en darse cuenta de que este nuevo tipo de chatbot a menudo inventa cosas.
Cuando Google lanzó un chatbot varias semanas después, dijo tonterías sobre el telescopio James Webb. Al día siguiente, el nuevo chatbot Bing de Microsoft ofreció información falsa sobre la vida nocturna mexicana y la cantante Billie Eilish. Luego, en marzo, ChatGPT citó media docena de casos judiciales falsos mientras elaboraba un escrito legal de 10 páginas que un abogado presentó a un juez federal en Nueva York.
Ahora, una startup llamada Vectara, fundada por ex empleados de Google, está tratando de descubrir con qué frecuencia los chatbots se desvían de la verdad. La investigación de la compañía estima que incluso en situaciones diseñadas para evitarlo, los chatbots inventan información al menos el 3 por ciento de las veces —y tanto como un 27 por ciento. Los expertos llaman a esto “alucinación”.
Debido a que estos chatbots pueden responder a casi cualquier solicitud en un número ilimitado de formas, no hay forma de determinar definitivamente con qué frecuencia alucinan. “Habría que mirar toda la información del mundo”, dijo Simon Hughes, el investigador de Vectara que encabezó el proyecto.
Hughes y su equipo pidieron a estos sistemas que realizaran una tarea sencilla y fácilmente verificable: resumir artículos de noticias. Los chatbots persistentemente inventaban información.
“Le dimos al sistema entre 10 y 20 datos y solicitamos un resumen”, dijo Amr Awadallah, director ejecutivo de Vectara. “Que el sistema aún puede introducir errores es un problema fundamental”.
Los investigadores argumentan que cuando estos chatbots realizan tareas que van más allá del simple resumen, las tasas de alucinación pueden ser mayores.
En la investigación, las tecnologías de OpenAI tuvieron la tasa más baja de alucinación, alrededor del 3 por ciento. Los sistemas de Meta, propietaria de Facebook e Instagram, rondaron el 5 por ciento. El sistema Claude 2 de Anthropic, un rival de OpenAI con sede en San Francisco, superó el 8 por ciento. Un sistema de Google, Palm Chat, obtuvo la tasa más alta con un 27 por ciento.
Google se negó a comentar al respecto y OpenAI y Meta no respondieron a las solicitudes de comentarios.
Los investigadores esperan que sus métodos estimulen los esfuerzos en toda la industria para reducir las alucinaciones. OpenAI, Google y otros están trabajando para minimizar el problema mediante una variedad de técnicas, aunque no está claro si podrán eliminarlo.
Debido a que Internet está llena de información falsa, estos sistemas repiten las mismas falsedades. También se basan en probabilidades: ¿cuál es la probabilidad matemática de que la siguiente palabra sea “dramaturgo”? De vez en cuando adivinan incorrectamente.
Para determinar con qué frecuencia alucinaban los chatbots al resumir artículos de noticias, los investigadores de Vectara utilizaron otro modelo de lenguaje grande para verificar la precisión de cada resumen.
Pero James Zou, profesor de ciencias computacionales en la Universidad de Stanford, en California, dijo que el modelo de lenguaje que realiza la verificación también puede cometer errores.
“El detector de alucinaciones podría ser engañado —o alucinar él mismo”, dijo.
Por: CADE METZ

Sigue toda la información de Internacional en Facebook y X, o en nuestra newsletter semanal.

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon

Conforme a los criterios de

Logo Trust Project
Saber más
Sugerencias
Alt thumbnail

BOLETINES EL TIEMPO

Regístrate en nuestros boletines y recibe noticias en tu correo según tus intereses. Mantente informado con lo que realmente te importa.

Alt thumbnail

EL TIEMPO GOOGLE NEWS

Síguenos en GOOGLE NEWS. Mantente siempre actualizado con las últimas noticias coberturas historias y análisis directamente en Google News.

Alt thumbnail

EL TIEMPO WHATSAPP

Únete al canal de El Tiempo en WhatsApp para estar al día con las noticias más relevantes al momento.

Alt thumbnail

EL TIEMPO APP

Mantente informado con la app de EL TIEMPO. Recibe las últimas noticias coberturas historias y análisis directamente en tu dispositivo.

Alt thumbnail

SUSCRÍBETE AL DIGITAL

Información confiable para ti. Suscríbete a EL TIEMPO y consulta de forma ilimitada nuestros contenidos periodísticos.