En una nueva demanda en Estados Unidos contra Meta, 41 estados y el Distrito de Columbia alegan que dos de los productos de redes sociales de la empresa —Instagram y Facebook— no solo son adictivos, sino perjudiciales para el bienestar de los niños. Se acusa a Meta de participar en un “plan para explotar a los jóvenes s con fines lucrativos”, entre otras cosas mostrando contenidos nocivos que los mantienen pegados a sus pantallas.
Según una encuesta reciente, los jóvenes estadounidenses de 17 años pasan 5,8 horas al día en las redes sociales. ¿Cómo se ha llegado a esta situación? La respuesta, en una palabra, es engagement (enganche).
El despliegue de algoritmos para maximizar el enganche de los s es la forma en que las grandes tecnológicas maximizan el valor para los accionistas, con beneficios a corto plazo que a menudo anulan los objetivos empresariales a más largo plazo, por no hablar de la salud de la sociedad.
Como dice el científico de datos Greg Linden, los algoritmos construidos sobre “malas métricas” fomentan “malos incentivos” y permiten “malos actores”.
Aunque Facebook empezó como un servicio básico que conectaba a amigos y conocidos en línea, su diseño evolucionó gradualmente no para satisfacer las necesidades y preferencias de los s, sino para mantenerlos en la plataforma y alejados de los demás. En pos de este objetivo, la empresa desatendió regularmente las preferencias explícitas de los consumidores sobre el tipo de contenidos que querían ver, su privacidad y el intercambio de datos.
Anteponer los beneficios inmediatos significa canalizar a los s hacia los clics, aunque este enfoque suele favorecer el material inferior y sensacionalista, en lugar de recompensar equitativamente a los participantes de un ecosistema más amplio de creadores de contenidos, s y anunciantes.
Llamamos a estos beneficios “rentas algorítmicas de la atención”, porque son generadas por la propiedad pasiva (como un arrendador) en lugar de serlo por la producción empresarial para satisfacer las necesidades de los consumidores.
Para determinar las rentas en la economía actual es necesario entender cómo las plataformas dominantes explotan su control algorítmico sobre los s.
Cuando un algoritmo degrada la calidad de los contenidos que promueve, está explotando la confianza de los s y la posición dominante que refuerzan los efectos de red.
En palabras del escritor tecnológico Cory Doctorow, la “enshittificación” de las plataformas “sale del barril de un algoritmo” (que, a su vez, puede basarse en prácticas ilegales de recopilación e intercambio de datos).
Por eso, Facebook, Twitter e Instagram pueden salirse con la suya atiborrando sus feeds de anuncios y contenidos adictivos “recomendados”. En palabras del escritor tecnológico Cory Doctorow, la “enshittificación” de las plataformas “sale del barril de un algoritmo” (que, a su vez, puede basarse en prácticas ilegales de recopilación e intercambio de datos).
En última instancia, la demanda de Meta se refiere a sus prácticas algorítmicas, cuidadosamente diseñadas para maximizar el “enganche” de los s, manteniéndolos en la plataforma durante más tiempo y provocando más comentarios, “me gusta” y “reposts”.
‘Scroll’ infinito
A menudo, una buena forma de conseguirlo es mostrar contenidos nocivos y al borde de la ilegalidad, y transformar el tiempo en la plataforma en una actividad compulsiva, con funciones como el “scroll infinito” y las notificaciones y alertas incesantes (muchas de las mismas técnicas son utilizadas, con gran efecto, por la industria del juego).
Ahora que los avances en inteligencia artificial ya potencian las recomendaciones algorítmicas, haciéndolas aún más adictivas, urgen nuevas estructuras de gobernanza orientadas al “bien común” (en lugar de una noción estrechamente concebida de “valor para el accionista”) y asociaciones simbióticas entre empresas, gobiernos y sociedad civil. Afortunadamente, los responsables políticos tienen la posibilidad de mejorar estos mercados.
En primer lugar, en lugar de confiar únicamente en la legislación sobre competencia y antimonopolio, los responsables políticos deberían adoptar herramientas tecnológicas para garantizar que las plataformas no puedan bloquear injustamente a s y desarrolladores. Una forma de evitar los “jardines amurallados” anticompetitivos es imponer la portabilidad de los datos y la interoperabilidad entre los servicios digitales, de modo que los s puedan pasar de una plataforma a otra sin problemas, en función de dónde se satisfagan mejor sus necesidades y preferencias.
En segundo lugar, la reforma de la gobernanza corporativa es esencial, ya que la maximización del valor para los accionistas es lo que empujó a las plataformas a explotar a sus s algorítmicamente en primer lugar.
Dados los conocidos costos sociales asociados a este modelo de negocio —optimizar los clics a menudo significa amplificar las estafas, la desinformación y el material políticamente polarizador—, la reforma de la gobernanza requiere una reforma algorítmica.
Dados los conocidos costos sociales asociados a este modelo de negocio —optimizar los clics a menudo significa amplificar las estafas, la desinformación y el material políticamente polarizador—, la reforma de la gobernanza requiere una reforma algorítmica.
Un primer paso hacia el establecimiento de una base más saludable es exigir a las plataformas que revelen (en los informes anuales 10-K presentados a la Comisión del Mercado de Valores de EE. UU.) qué optimizan sus algoritmos, junto con cómo se monetizan sus s. En un mundo en el que los ejecutivos tecnológicos acuden cada año a Davos para hablar de “propósito”, una información adecuada les obligará a hacer lo que dicen y ayudará a los responsables políticos, reguladores e inversores a distinguir entre beneficios obtenidos y rentas no obtenidas.
En tercer lugar, los s deberían poder influir más en la priorización algorítmica de la información que se les muestra. De lo contrario, los perjuicios derivados de ignorar las preferencias de los s seguirán aumentando a medida que los algoritmos creen sus propios circuitos de retroalimentación, empujando a los s a la manipulación del clickbait y luego deduciendo erróneamente que lo prefieren.
En cuarto lugar, la norma del sector de las “pruebas A/B” debería dar paso a evaluaciones de impacto a largo plazo más exhaustivas.
La ciencia de datos errónea conduce al cortoplacismo algorítmico. Por ejemplo, las pruebas A/B pueden mostrar que exhibir más anuncios en un feed tendrá un impacto positivo a corto plazo en los beneficios sin perjudicar demasiado la retención de s; pero esto ignora el impacto en la adquisición de nuevos s, por no mencionar la mayoría de los otros efectos potencialmente perjudiciales a largo plazo.
Menos intrusión
Una buena ciencia de datos demuestra que optimizar los sistemas de recomendación para obtener recompensas a largo plazo y en diferido (como la satisfacción del cliente, la retención y la adopción de nuevos s) es la mejor forma de que una empresa impulse el crecimiento y la rentabilidad a largo plazo, suponiendo que pueda dejar de centrarse principalmente en el próximo informe trimestral de beneficios.
En 2020, un equipo de Meta determinó que un menor número de notificaciones intrusivas sería mejor tanto para el uso de la aplicación como para la satisfacción del durante un periodo de tiempo más largo (un año). Los efectos a largo plazo diferían claramente de los efectos a corto plazo.
En quinto lugar, la IA pública debería utilizarse para evaluar la calidad de los resultados algorítmicos, en particular la publicidad. Dados los considerables perjuicios derivados de que las plataformas rebajen el nivel de los anuncios aceptables, el organismo de control de la publicidad del Reino Unido utilizará ahora herramientas de IA para examinar los anuncios e identificar los que hacen “afirmaciones dudosas”.
Otras autoridades deberían seguir su ejemplo. Y lo que es igualmente importante, los evaluadores de IA deberían formar parte de la apertura de las plataformas a la auditoría externa de los resultados algorítmicos.
Los algoritmos de IA influirán no solo en lo que consumimos, sino también en cómo producimos y creamos; no solo en lo que elegimos, sino también en lo que pensamos. No debemos equivocarnos.
Crear un entorno digital que recompense la creación de valor a partir de la innovación y castigue la extracción de valor a partir de las rentas (especialmente en los mercados digitales centrales) es el reto económico fundamental de nuestro tiempo.
Salvaguardar la salud de los s de Big Tech y de todo el ecosistema significa garantizar que los algoritmos no estén supeditados a los beneficios inmediatos de los accionistas. Si los líderes empresariales se toman en serio el valor de las partes interesadas, deben aceptar la necesidad de crear valor de una manera fundamentalmente diferente, basándose en los cinco principios anteriores.
El próximo juicio de Meta no puede deshacer los errores del pasado. Pero mientras nos preparamos para la próxima generación de productos de IA, debemos establecer una supervisión algorítmica adecuada. Los algoritmos de IA influirán no solo en lo que consumimos, sino también en cómo producimos y creamos; no solo en lo que elegimos, sino también en lo que pensamos. No debemos equivocarnos.
MARIANA MAZZUCATO (*) E ILAN STRAUSS (**)
© Project Syndicate - Londres
(*) Catedrática de Economía de la Innovación y Valor Público en el University College de Londres, es directora fundadora del Instituto de Innovación y Propósito Público de la UCL, presidenta del Consejo de Economía de la Salud para Todos de la Organización Mundial de la Salud y copresidenta de la Comisión Mundial sobre la Economía del Agua.
(**) Profesor asociado visitante en la Universidad de Johannesburgo (Sudáfrica), es investigador asociado principal en el Instituto de Innovación y Propósito Público de la UCL, donde dirige el equipo de investigación sobre economía digital.