La
inteligencia artificial tiene múltiples funciones que pueden ser útiles
si las usa adecuadamente y en páginas seguras, lo que puede comprobar leyendo los términos y condiciones. Sin embargo, no todos investigan sobre las páginas que visitan, por lo que sin darse cuenta obtienen sus datos privados.
Por esto, los investigadores de la Fundación Mozilla analizaron 11 ‘chatbots’ que se utilizaron durante el día de San Valentín y encontraron poco más de 24.353 rastreadores de datos al minuto de emplear estas plataformas virtuales. Además, descubrieron que una parte de esta información se dirigía a Facebook y otras empresas de publicidad.
Estas aplicaciones no explican de qué manera utilizan el contenido de las conversaciones ni cómo funcionan sus modelos de IA. Utilizan estrategias de marketing engañosas para posicionarse como herramientas de salud mental y bienestar, de acuerdo con el comunicado.
Las contradicciones de los ‘chatbots’ románticos
De acuerdo con la Fundación Mozilla, estas aplicaciones se promocionan para que los s crean que esta inteligencia artificial puede convertirse en un “amigo, amante o alma gemela”, por lo que están diseñadas para hacerle preguntas a quienes las utilicen.
Además, no se hacen responsables de lo que los ‘chatbots’ puedan sugerir o escribir a los internautas, como el caso de Talkie Soulful AI, que en sus términos y condiciones expresa lo siguiente: “Usted entiende y acepta expresamente que Talkie no será responsable de ningún daño indirecto, incidental o especial por pérdida de ganancias, incluyendo, pero no limitado a daños por pérdida de buena voluntad, uso, datos u otras pérdidas intangibles (incluso si la compañía ha sido informada de la posibilidad de tales daños)”.
“Ya sea basado en contrato, agravio, negligencia, responsabilidad estricta o de otra manera que resulten de: (1) el uso o la imposibilidad de utilizar el servicio”, finaliza el fragmento de los términos de empleo de Talkie.
En el caso de Romantic AI, le expresa a sus s que su función es para “mantener su salud mental”, pero en los términos se contradicen: “Romantic AI no es un proveedor de servicios médicos o de atención médica ni brinda servicio de salud mental u otro servicio profesional. Solo su médico, terapeuta o cualquier otro especialista puede hacerlo”.
“Romantic AI no hace reclamaciones, declaraciones ni garantías, o garantiza que el servicio proporciona una ayuda terapéutica, médica u otra ayuda profesional”, explican los términos y condiciones.
Estos son los nombres de los ‘chatbots’ que los investigadores de Mozilla encontraron como inseguros: Talkie Soulful AI, Chai Research Corp. Chai, iGirl: AI Girlfriend, Romantic AI, Anima: My Virtual AI Boyfriend, Replika: My AI Friend, Genesia AI Friend & Partner, Anima: AI Friend & Companion, Mimico: Tus amigos de la IA, EVA AI Chat Bot & Soulmate y CrushOn.AI.
¿Encontrar pareja con inteligencia artificial?
Más noticias en EL TIEMPO
LEIDY ESTEFANIA RICO ARBOLEDA
REDACCIÓN ALCANCE DIGITAL
EL TIEMPO