En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí

Suscríbete
Disfruta de los beneficios de El Tiempo
SUSCRÍBETE CLUB VIVAMOS

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. Verificar Correo

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión

Hola, bienvenido

¿Cual es la ciudad colombiana clasificada como la más peligrosa del mundo?
¿Cómo va el juicio al expresidente Álvaro Uribe?
¿Accidente de bus en Calarcá?
Frío inusual en Bogotá explicado por el Ideam

Noticia

Trabajador de seguridad de OpenAI abandona la empresa por temor a que ChatGPT se salga de control

La renuncia se produce en un contexto de preocupaciones sobre los peligros potenciales de una IA superinteligente.

ChatGPT Enterprise ofrece una serie de beneficios clave para las empresas.

ChatGPT Enterprise ofrece una serie de beneficios clave para las empresas. Foto: iStock

Alt thumbnail

PERIODISTAActualizado:

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon

Daniel Kokotajlo, un investigador de seguridad de OpenAI, ha presentado su renuncia, argumentando que ha perdido la confianza en la capacidad de la empresa, liderada por Sam Altman, para actuar de manera responsable en el desarrollo de la inteligencia artificial (IA), especialmente en el contexto de alcanzar la Inteligencia Artificial General (AGI), un punto teórico en el que una IA puede superar a los humanos. 

Su decisión se hizo pública a través de un foro en línea llamado ‘LessWrong’y ha generado un intenso debate sobre los riesgos y responsabilidades éticas asociadas con la IA. Según ‘Business Insider’, Kokotajlo, quien estaba involucrado en el equipo de gobierno de OpenAI, explicó que su renuncia fue motivada por una creciente preocupación sobre la falta de una pausa en la investigación que podría conducir al establecimiento de AGI.
Hay expertos que especulan que ChatGPT podría acabar  con Google.

Hay expertos que especulan que ChatGPT podría acabar con Google. Foto:iStock

Vale la pena mencionar que este evento se produce en un contexto de preocupaciones cada vez mayores sobre los peligros potenciales de una IA superinteligente. Más de 1,100 expertos en inteligencia artificial, incluido Elon Musk, firmaron una carta abierta el año pasado pidiendo una moratoria de seis meses sobre los “experimentos de inteligencia artificial”.

"Creo que la mayoría de las personas que presionan por una pausa están tratando de presionar contra una 'pausa selectiva' y por una pausa real que se aplicaría a los grandes laboratorios que están a la vanguardia del progreso", escribió Kokotajlo.

(Lea también: Video: truco para que Instagram recomiende su cuenta a otras personas gratis y ganar seguidores). 

Sin embargo, argumentó que esa "pausa selectiva" terminaría no aplicándose a las "grandes corporaciones que más necesitan hacer una pausa"."Mi desilusión por esto es parte del motivo por el que dejé OpenAI", concluyó.
Según el mismo medio, la renuncia de Kokotajlo, junto con la de otros investigadores como William Saunders, resalta la complejidad y la sensibilidad de los debates en torno a la ética y seguridad en el desarrollo de la IA. Saunders, quien formaba parte del equipo Superalignment de OpenAI, renunció poco antes que Kokotajlo, lo que podría sugerir discrepancias internas sobre la capacidad de la empresa para controlar un eventual AGI.

Además, esta situación ha suscitado interrogantes sobre la dirección y la gestión de OpenAI. El despido y posterior recontratación del director ejecutivo Sam Altman el año pasado, en medio de desacuerdos sobre la seguridad de la IA, propone tensiones internas dentro de la empresa.

Aunque algunos expertos predicen que la AGI está a solo unos años de distancia, otros argumentan que alcanzar este nivel de inteligencia artificial sigue siendo una incógnita. Sin embargo, la posibilidad plantea interrogantes cruciales sobre cómo garantizar que los sistemas AGI no se vuelvan corruptos si son más capaces que los humanos. 
DANIELA LARRARTE ASAAD
REDACCIÓN ALCANCE DIGITAL
EL TIEMPO

Más noticias

Sigue toda la información de Tecnología en Facebook y X, o en nuestra newsletter semanal.

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon

Conforme a los criterios de

Logo Trust Project
Saber más
Sugerencias
Alt thumbnail

BOLETINES EL TIEMPO

Regístrate en nuestros boletines y recibe noticias en tu correo según tus intereses. Mantente informado con lo que realmente te importa.

Alt thumbnail

EL TIEMPO GOOGLE NEWS

Síguenos en GOOGLE NEWS. Mantente siempre actualizado con las últimas noticias coberturas historias y análisis directamente en Google News.

Alt thumbnail

EL TIEMPO WHATSAPP

Únete al canal de El Tiempo en WhatsApp para estar al día con las noticias más relevantes al momento.

Alt thumbnail

EL TIEMPO APP

Mantente informado con la app de EL TIEMPO. Recibe las últimas noticias coberturas historias y análisis directamente en tu dispositivo.

Alt thumbnail

SUSCRÍBETE AL DIGITAL

Información confiable para ti. Suscríbete a EL TIEMPO y consulta de forma ilimitada nuestros contenidos periodísticos.

Mis portales