En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información
aquí
Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Alerta por peligrosa estafa con Inteligencia Artificial: no se salvan ni los famosos
MrBeast, Tom Hanks, Elon Musk y, hasta Mark Zuckerberg han sido víctimas de la estafa 'deepfake'.
El trabajo es clasificado como plagiado si la similitud de texto es mayor al 20% . Foto: iStock
El youtuber MrBeast, cuyo nombre real es Jimmy Donaldson y tiene casi 200 millones de seguidores, y el actor ganador de dos óscar Tom Hanks tienen algo en común: los dos han sido blanco este mes de estafas difundidas en las redes sociales que usan una inteligencia artificial (IA) generativa conocida como 'deepfake'.
En los 'deepfakes' se puede manipular el rostro de una persona para que actúe y diga lo que el creador quiera.
En el último año, esta tecnología se ha vuelto más popular y sofisticada, por lo que cada vez es más difícil detectar este tipo de manipulación audiovisual.
Si estás viendo este vídeo, eres una de las 10.000 personas afortunadas que recibirán un iPhone 15 Pro por sólo 2 dólares. Soy MrBeast y voy a realizar el sorteo de iPhone 15 más grande del mundo.
En el caso de Donaldson, youtuber de 25 años que es conocido por regalar a sus suscriptores casas, automóviles y dinero en general y es extremadamente popular entre los más jóvenes, la estafa usó 'deepfake' para crear un vídeo en el que el creador de contenido decía que regalaba el último modelo de iPhone por 2 dólares (8.396 pesos colombianos).
"Si estás viendo este vídeo, eres una de las 10.000 personas afortunadas que recibirán un iPhone 15 Pro por sólo 2 dólares. Soy MrBeast y voy a realizar el sorteo de iPhone 15 más grande del mundo. Haz clic en el enlace a continuación para reclamar el tuyo ahora", decía el 'deepfake' de Donaldson difundido en TikTok, en un vídeo que ya fue retirado de la plataforma.
Sin embargo, la letra pequeña de ese enlace indicaba que se trataba de un programa de inscripción automática mensual, en el que había un cargo inicial de 6,95 dólares (que se puede confundir con un gasto de envío) y luego un pago mensual indefinido de 139,67 dólares.
Alerta de estafas en redes sociales
"Mucha gente está recibiendo este anuncio fraudulento mío de 'deepfake'... ¿Están las plataformas de redes sociales preparadas para manejar el aumento de los 'deepfakes' de IA? Este es un problema grave", escribió en su cuenta de 'X' (antes Twitter) Donaldson.
El 'Deep Fake' de Mark Zuckerberg fue publicado en Instagram en el marco de una exposición de arte que juega con el concepto de la tecnología. Foto:Archivo
Según cuenta a EFE Satnam Narang, ingeniero principal de investigación de Tenable y conocido como el "susurrador de las estafas en redes sociales", el vídeo falso de Donaldson puede pasar por creíble si no se presta especial atención, pero no es perfecto.
"Si se mira su labio superior y su falta de movimiento, se nota que no es natural", relata el experto.
Hanks también alertó a sus seguidores en Instagram que él "no tenía nada que ver" con un vídeo "generado por IA" en el que "promociona un plan dental".
El protagonista de "Forrest Gump" ha expresado en varias ocasiones su preocupación por el uso de la IA en el cine y la televisión.
No obstante, se ha servido de esta tecnología en cintas como la película animada "The Polar Express", que en 2004 usó imágenes generadas por computadora (CGI) para crear su personaje, o su último trabajo más reciente, "A Man Called Otto ", para parecer más joven en algunas escenas.
Narang asegura que han sido muchos los famosos que han sido diana de esta manipulación este año, como fue el caso de Elon Musk, una de las personas más ricas del mundo, en un vídeo que promocionaba criptomonedas.
A look back: Artists created a 'deepfake' video of Facebook CEO Mark Zuckerberg pic.twitter.com/5LwMRuffNi
Precaución: las estafas de la IA no se pueden identificar
La mayoría de las redes sociales establecen en su reglamento que el contenido sintético o manipulado que se publique debe ser etiquetado como tal, pero no siempre son capaces de detectar y eliminar las publicaciones que se saltan estas normas.
Lo más complejo de la situación es que no existen máquinas que sean capaces de señalar rápidamente y a ciencia cierta que un contenido (ya sea un texto, una foto o un vídeo) haya sido generado con IA.
Lo cual es peligroso no solo por las posibles estafas, sino también por sus efectos sobre la desinformación en general, sobre todo si se trata de conflictos bélicos o elecciones.
En tanto, según Narang, lo mejor es que los s de redes siempre desconfíen, investiguen el perfil que publica la información -incluso si tienen el símbolo de cuenta verificada- y lean siempre la letra pequeña.