La semana pasada el Parlamento Europeo aprobó la primera ley que se expide en el mundo para regular la inteligencia artificial (IA). Para el año 2026 será una actividad controlada en los países , y seguramente el ejemplo será seguido por muchos otros países.
Ante la noticia, surgieron dos preguntas. La primera fue ¿para qué reglamentar, y tal vez torpedear, un desarrollo tecnológico tan útil? La segunda pregunta fue ¿por qué se reglamenta tan poco, dados los riesgos evidentes?
Las preguntas provienen de las dos posiciones extremas en la discusión que se desató en la sociedad con la oferta abierta de programas de IA al público. En un extremo están los apocalípticos. El más enfático entre ellos ha sido el investigador y desarrollador pionero de la IA Eliezer Yudkowsky, quien afirmó: “Si alguien construye una IA todopoderosa, en las presentes condiciones, yo esperaría que toda la especie humana y toda la vida biológica en la Tierra se extinguieran”.
Otros apoyaron su visión. Un filósofo, profesor en Oxford, utilizó un experimento mental para llegar a la conclusión de que una IA con poder de decisión necesariamente evolucionará hacia una “superinteligencia” que se protegería a sí misma guardando copias en la nube para nunca ser apagada. Como buen filósofo que piensa en forma global, y no le preocupan pequeños detalles, omitió que la nube no es un ente metafísico sino un montón de computadores que consumen cantidades de energía, suministrada por los humanos. Si estos se extinguen, la nube colapsará.
El otro extremo de la discusión está en los utopistas que plantean que este desarrollo causará una aceleración tal en la evolución humana que progresaremos en 10 años el equivalente a 10.000. Se resolverán todos los problemas: hambre, desigualdad, cambio climático y guerras. La humanidad conquistará la Tierra y se lanzará al espacio ‘expandiendo el virus de la vida por las estrellas del Universo’.
Probablemente lo que más se acerca a la realidad en esta discusión es algo en el medio. Sin duda hay riesgos, hace poco yo mencionaba en una columna los deepfakes, falsedades que podrían engañar a mucha gente. Pero hay un largo trecho entre los riesgos probables y la extinción total de la vida.
La ley europea asume la posición tranquila del medio. Reconoce los inmensos potenciales que tiene la IA, pero también sus riesgos. Según palabras del comisario europeo para el Comercio Interior, la ley “está regulando lo menos posible, pero todo lo necesario”. Busca garantizar el progreso de la investigación y el desarrollo en IA, pero es cuidadosa.
Por ejemplo, regula la utilización de sistemas biométricos para identificación y seguimiento de las personas. Le permite a la policía usar esta tecnología solo en casos excepcionales, explícitos, como la persecución de sospechosos de un crimen grave o de terrorismo. Para usarla en la búsqueda de personas secuestradas o desaparecidas y para casos de trata de personas deberá contar con la aprobación de un juez. Protege también los derechos de propiedad intelectual y la información transparente.
Como es de esperar en un caso con opiniones ciudadanas tan opuestas, muchos no quedaron satisfechos. Algunos creen que limita innecesariamente su desarrollo, y otros, que las disposiciones son insuficientes, fáciles de burlar y por su ambigüedad, o tibieza, poco efectivas. El problema sigue abierto, pero es un primer paso. Sin duda vendrán más legislaciones. Sería de poca inteligencia (artificial o natural) prohibir algo que es tan inevitable como un tsunami y que, además, tiene grandes potencialidades. Espero que nosotros no optemos, como en otros casos, por el camino muy imperfecto de la prohibición.
MOISÉS WASSERMAN