En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información
aquí
Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
‘Necesitamos un código de ética para la tecnología’
Para el experto en IA David Bray, las naciones deciden entre seguridad, privacidad y transparencia.
David Bray se presentó en Bogotá el 5 de julio en el hotel Grand Hyatt en el marco del innovation Forum Bavaria Foto: Nestor Gómez / CEET
El desafío de evitar que las máquinas inteligentes resulten xenófobas, machistas o racistas es una de las principales preocupaciones de expertos en inteligencia artificial (IA) como David Bray, director ejecutivo de la Human Centered Internet Coalition, cofundada por el pionero de internet Vint Cerf.
Bray, quien ha sido un gestor del voluntariado y las comunidades, con roles como copresidente del comité de Inteligencia Artificial de la asociación mundial de ingenieros (IEEE) y presidente de Hu-manity.org, que se enfoca en el control de los s sobre sus datos personales, visitó Bogotá la semana pasada para presentarse en el Innovation Forum Bavaria.
En entrevista con EL TIEMPO, Bray habló sobre inteligencia artificial y sus desafíos.
David Bray, presidente ejecutivo de la Human Centered Internet Coalition, voluntario y consultor en políticas públicas y gobernanza digital. Foto:Héctor Fabio Zamora / CEET
¿Cómo ve el panorama de la tecnología en el futuro?
Soy un gran creyente de usar las herramientas no solo para impulsar a corporaciones e individuos sino también a comunidades. Debemos concentrar nuestra atención en ese aspecto para que las comunidades tomen decisiones basadas en sus propios contextos en vez de asumir que unos pocos tienen todas las respuestas.
Vivimos en un futuro aumentado, se trata de pensar globalmente. Durante décadas nos acostumbramos a pasar tiempo con un círculo social limitado a unas 50 personas. La cuestión es cómo la tecnología puede ayudarnos a impulsar a las comunidades al nivel local y al nivel global, entendiendo que hay 6,9 miles de millones de personas.
Hay quienes usan la IA para engañar. ¿Qué opina de los videos falsos realistas o deepfakes?
Estamos viviendo la tercera ola de la IA. Pasamos de emular, en los 60, la forma en que juegan los humanos a predecir tendencias siguiendo unas reglas determinadas en los 80. Ahora nos estamos enfocando en un machine learning más profundo de redes neurales, en el que no necesariamente se le enseñan a la máquina reglas específicas sino que se le expone a suficientes datos.
La cuestión es que se cumple el dicho “garbage in, garbage out” (“basura entra, basura sale”). Si los datos son malos, no sorprende un sistema sesgado y con conclusiones pobres. Es como criar a un niño de 5 años. No se le explica que para hablar debe usar un sujeto, verbo y predicado, sino que se les expone a suficiente lenguaje. Lo que diga está relacionado a lo que ha escuchado.
Los desafíos aparecen porque estamos alimentando los sistemas con información que no es representativa. Hay sistemas que no reconocen a poblaciones minoritarias, comunidades como los nativos americanos no son tenidos en cuenta y corren el riesgo de ser injustamente olvidados por la historia, hay aplicaciones de filtros, aparentemente inofensivos, que terminan aclarando el tono de la piel porque fueron desarrollados con muestras de personas blancas.
Creo que debemos hacer frente a estos desafíos logrando que la gente acceda a datos representativos y también habilitando que las personas puedan elegir si quieren que un sistema use o no su información.
Los deepfakes y otros desarrollos se tratan, lamentablemente, de algo que no se puede esconder en una caja y que se hará más parte de nuestra realidad. Es como el fuego: es genial para cocinar alimentos, pero también puede quemar a una persona. O como las rocas: pueden construir refugio y edificios para las personas o lastimarlas.
Las mismas tecnologías que utilizamos para mejorar a diario nuestra calidad de vida, o para reemplazar tareas repetitivas que nos permitan enfocarnos en el trabajo más creativo, también son fuerzas que pueden ser utilizadas para herir a otros.
Se está haciendo más difícil para las personas que hacen cosas buenas que sus desarrollos sean sacados de contexto y usados para hacer el mal
Existe tensión entre las necesidades de seguridad y de transparencia ¿Cómo equilibrarlas?
Vint Cerf suele decir que las personas aseguran querer seguridad, privacidad y transparencia, pero probablemente pueden recibir dos de las tres. Este es el tipo de conversaciones que necesitamos tener sobre qué queremos hacer en lo comunitario y luego en un entorno nacional.
Las naciones toman decisiones diferentes. En Asia, algunas poblaciones optan por la seguridad a cambio de vivir en un Estado de Vigilancia. En EE. UU., hay compañías que monetizan los datos de los s a cambio de servicios gratuitos, pero ¿realmente están las personas de acuerdo con ello o realmente entienden el valor de sus datos? Y en Europa, que con la llegada del Reglamento General de Protección de datos (GDPR) , tratan de enfocarse en la privacidad, pero tienen vagas definiciones que han dicho se resolverán con casos en la corte en los próximos 10 ó 15 años, lo que no permite mucha libertad para la innovación.
Mi preocupación personal es que no tenemos muchas narrativas esperanzadoras sobre cómo lucirá el siglo 23 ó 24. Nos sorprenden las cosas malas que ocurren en las distopías, pero si no estamos impulsando también perspectivas positivas del futuro no debería sorprendernos que alguien más se encargue de emular esas visiones.
Pero la ley es un martillo muy pesado para usar en este contexto.
Cuando la edad media terminó y las personas empezaron a salir de las ciudades en las que habían nacido, la pregunta era cómo saber que el recién llegado, que decía ser un doctor, un abogado o un académico, era efectivamente quien decía ser. Para resolverlo, las sociedades profesionales comenzaron a avalar a individuos en conocimiento y experiencia, pero también a imponer un código de ética. Llámese el juramento hipocrático o las leyes de los abogados, se trata de una manera de regularse a sí mismos.
Deberíamos pensar en códigos de ética para diferentes temáticas tecnológicas. La idea es que las personas que trabajan en el sector, como ocurre en la medicina o el derecho, tengan un código de ética independiente al que mantienen las organizaciones o empresas para que sin importar dónde se empleen, apliquen cosas como pedir permiso antes de usar los datos de algún o no usar la data para herir a alguien.
Los deepfakes son algo que no se puede esconder en una caja y que se hará más parte de nuestra realidad. Es como el fuego: es genial para cocinar alimentos, pero también puede quemar a una persona
El problema con los principios sería que los grupos realmente malvados van a ignorarlos... ¿no?
Sí, estoy 100 por ciento de acuerdo. El desafío es que cada vez es más sencillo que las personas hagan cosas hirientes con la tecnología sin ser detectados. Peor aún, se está haciendo más difícil para las personas que hacen cosas buenas que sus desarrollos sean sacados de contexto y usados para hacer el mal.
Lo que sabemos es que tenemos desafíos muy serios. Pero tenemos que pensar en momentos como la Segunda Guerra Mundial. Esos también eran unos desafíos muy serios y logramos lidiar con ellos. Creo que necesitamos más conversaciones en las que las personas se escuchen unas a otras.
Como dijo en alguna ocasión el presidente de LinkedIn en EE. UU. ‘Puede que no me agrade esa persona... debo conocerlo mejor’. ¿Cuántos de nosotros nos tomamos el tiempo para entender la perspectiva de alguien más?
Se cree que ser joven es sinónimo de saber de tecnología, pero usar redes sociales no es lo mismo que entender su uso responsable. ¿Cómo fomentar las discusiones sobre datos, privacidad o burbujas ideológicas?
Soy escéptico frente a los estereotipos de una u otra generación. Hay gente sabia en tecnología que nació en los 70. Lo que necesitamos son oportunidades para reflexionar sobre las consecuencias de las herramientas, pero -aún más importante- sobre las decisiones que tenemos en nuestras manos.
Frecuentemente, los problemas sociales son un problema que otros deben resolver, bien sea el Gobierno o las compañías. Necesitamos pensar en cuáles son nuestras obligaciones y con quiénes (clientes, ciudadanos, familia y amigos). Luego, identificar los posibles sesgos que poseemos y, después, articular las respuestas a esas obligaciones.
Si al menos pudiéramos comenzar a valorar el hecho de ser más sensatos y reflexivos tal vez dejemos de culpar a los sistemas por cómo se piensa en la sociedad y podamos darle mayor voz a la construcción comunitaria.