Este mes, Jeremy Howard, un investigador de inteligencia artificial, le presentó un chatbot en línea llamado ChatGPT a su hija de 7 años. Había sido lanzado días antes por OpenAI, uno de los laboratorios de inteligencia artificial más ambiciosos del mundo.
Él le dijo que le preguntara al bot lo que se le ocurriera. Ella le preguntó para qué servía la trigonometría, de dónde procedían los agujeros negros y por qué las gallinas incubaban sus huevos. Cada vez, respondió en prosa clara y bien enunciada. Cuando ella le pidió un programa computacional que pudiera predecir la trayectoria de una pelota lanzada por el aire, también se lo dio.
En los siguientes días, Howard —un profesor cuya labor inspiró la creación de ChatGPT y tecnologías similares— llegó a ver el chatbot como una especie de tutor personal. Podría enseñarle a su hija matemáticas, ciencias e inglés, sin mencionar otras lecciones. Una importante: no creas todo lo que te dicen. “Es emocionante verla aprender así”, dijo. “Pero también le dije: no confíes en todo lo que te da. Puede cometer errores”.
OpenAI se encuentra entre las muchas empresas, laboratorios académicos e investigadores que trabajan para crear chatbots avanzados. Estos sistemas no pueden chatear precisamente como un humano, pero a menudo parecen hacerlo. Pueden ser considerados como asistentes digitales —como Siri o Alexa— que comprenden mejor lo que uno está buscando y dárselo.
Muchos expertos creen que estos nuevos chatbots se perfilan a reinventar o incluso reemplazar los motores de búsqueda de Internet como Google y Bing. Pueden ofrecer información en oraciones compactas, en lugar de largas listas de ligas azules. Explican conceptos de maneras que las personas pueden entender. Y pueden ofrecer datos, al tiempo que generan planes de negocios, temas para trabajos finales y otras ideas nuevas.
Sin embargo, los nuevos chatbots no siempre dicen la verdad. A veces, incluso fallan en aritmética simple. Y a medida que continúan mejorando, la gente podría usarlos para difundir mentiras.
Aaron Margolis, un científico de datos en Virginia, fue una de las pocas personas fuera de Google a las que se les permitió usar LaMDA, su chatbot experimental. Quedó asombrado ante su talento para la conversación abierta. Pero advirtió que podría ser un poco fabulista, como era de esperar de un sistema entrenado a partir de información publicada en Internet.
Recientemente le pidió a LaMDA y a ChatGPT que hablaran con él como si fuera Mark Twain. LaMDA describió una reunión entre Twain y Levi Strauss, y dijo que el escritor había trabajado para el magnate de los pantalones de mezclilla mientras vivía en San Francisco a mediados del siglo 19. Parecía cierto. Twain y Strauss vivieron en San Francisco al mismo tiempo, pero nunca trabajaron juntos.
Al igual que un buen cuentacuentos, los chatbots tienen la facilidad de tomar lo que han aprendido y transformarlo en algo nuevo —independientemente de la verdad.
Los expertos advierten que el destino de estas tecnologías no se puede controlar. ChatGPT y LaMDA se basan en ideas que han circulado libremente durante años. Las empresas no pueden impedir que las personas los utilicen para difundir información errónea.
“Se podrían programar a millones de estos bots para que parezcan humanos, teniendo conversaciones diseñadas para convencer a la gente de un punto de vista en particular”, dijo Howard. “Tengo años advirtiendo al respecto. Ahora es obvio que esto está a la espera de suceder”.
Por: CADE METZ
BBC-NEWS-SRC: http://www.nytsyn.com/subscribed/stories/6500867, IMPORTING DATE: 2022-12-19 21:40:05