En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí

CLUB VIVAMOS
Suscríbete
Disfruta de los beneficios de El Tiempo
SUSCRÍBETE CLUB VIVAMOS

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. Verificar Correo

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión

Hola, bienvenido

¿Cual es la ciudad colombiana clasificada como la más peligrosa del mundo?
¿Cómo va el juicio al expresidente Álvaro Uribe?
¿Accidente de bus en Calarcá?
Frío inusual en Bogotá explicado por el Ideam

Noticia

Alertan sobre modalidad de estafa con voces generadas con inteligencia artificial en llamadas, ¿cómo lo hacen?

Ciberdelincuentes interceptan llamadas y se hacen pasar por las víctimas para engañar familiares o amigos y pedirles dinero. 

Se han conocido casos en los que estafadores han usado la IA para suplantar identidades y engañar.

Se han conocido casos en los que estafadores han usado la IA para suplantar identidades y engañar. Foto: iStock

Alt thumbnail

PERIODISTAActualizado:

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon
La inteligencia artificial ha estado avanzando en los últimos años y se ha presentado como una herramienta que puede facilitarles a las personas la realización de varias tareas en su día a día. Sin embargo, también se han conocido casos en los que estafadores han usado la IA para suplantar identidades y engañar. Ya se han conocido varios casos al rededor del mundo y algunos expertos de han referido al tema. 
En un artículo del 2023, el periódico estadounidense The Washington Post dio a conocer los casos de varias personas que habían sido víctimas de esta modalidad de estafa. Por ejemplo, Ruth Card –una anciana de 73 años- estaba segura de que su nieto Brandom la había llamado para informarle que estaba en la cárcel y necesitaba dinero para pagar la fianza.
La mujer se apresuró para sacar del banco una gran suma de dinero, convencida de que su nieto necesitaba ayuda. Al ver esto, el gerente del banco le recordó que otra familia había recibido una llamada similar, con una voz “inquietantemente precisa” a la de su familiar, por lo que concluyó que la persona con la que Card habló muy probablemente no era su nieto y que, incluso, podía ser una voz simulada con inteligencia artificial.
Una estafa se produjo gracias a la Inteligencia Artificial

Una estafa se produjo gracias a la Inteligencia Artificial Foto:Istock

El ‘deepfake’ como modalidad para estafar usando IA

Este tipo de estafa parece estar haciéndose cada vez más común, no solo en Estados Unidos sino en otras partes del mundo. El ‘deepfake’ también ha generado preocupación en China, donde se han registrado casos en los que se suplanta no solo la voz de la persona sino su rostro en una videollamada, convenciendo a las víctimas de que están comunicándose con su familiar o amigo.
Mediante distintas aplicaciones de IA, se han podido clonar voces e imágenes de personas. Incluso, pueden interceptar varias llamadas de las víctimas para identificar acentos, expresiones y palabras clave para convencer que se trata de determinada persona.
Recientemente, sobre el tema se refirió Juan Manuel Mesa, gerente general de IBM, en Caracol Radio. Mesa señalo que los ciberdelincuentes pueden tomar imágenes y contenido de voz de las redes sociales para duplicarlas y así cometer estafas.
Por esta razón, recomendó tener cuidado con el tipo de contenido que se comparte sobre uno mismo en internet, para evitar ser víctima, por ejemplo, del ‘deepfake’.
De igual modo, se refirió al secuestro de llamadas telefónicas, en las cuales los ciberdelincuentes interceptan una llamada de la víctima y se hacen pasar por esta para engañar al familiar o amigo, usando la voz falsa generada por IA. Así, le piden a la persona que realice consignaciones o transferencias de dinero.
La inteligencia artificial se aplica en la medicina, el transporte, la ingeniería, la educación, entre otros campos y saberes.

Mesa señalo que los ciberdelincuentes pueden tomar imágenes y contenido de voz de las redes sociales para duplicarlas y así cometer estafas. Foto:iStock

“Una de las recomendaciones que tenemos es solo exponerse en las redes cuando sea necesario. Así como exponer niños, fotos y más porque puede ser un riesgo muy alto debido a que hoy la inteligencia artificial se está utilizando de mala manera”, agregó Mesa en la entrevista. 

Nuevo caso registrado en Texas: llamaron a una mujer y se hicieron pasar por su hija

En el estado de Texas, Estados Unidos, se registró un nuevo caso de estafa mediante inteligencia artificial. Según relataron medios de comunicación, Amanda Murphy, recibió una llamada de un número desconocido y al contestar le habló supuestamente su hija pidiéndole ayuda mientras gritaba y lloraba.
Inteligencia Artificial.

Inteligencia Artificial. Foto:iStock

“Pensé que tal vez había tenido un pequeño accidente. Estaba en estado de shock”, indicó la mujer. Luego, apareció la voz de un tercero en la llamada, quien amenazó a la madre con “vender a su hija, ya que él era traficante, y que jamás la volvería a ver”, relató La Nación. El sujeto le pidió transferir una suma de 3.000 dólares mediante la aplicación Walmart Money Services.
Por fortuna, los empleados de Walmart identificaron la posible estafa y ayudaron a la preocupada madre a comunicarse con su hija desde otro número, quien se encontraba sana y salva en su trabajo.
“Ahora se puede utilizar la IA para encontrar vulnerabilidades que se puedan explotar, para escribir códigos que exploten esas vulnerabilidades y para llevar a cabo campañas de phishing más sofisticadas (…) También nos preocupa que la IA mejore cosas como los secuestros virtuales, en los que los padres reciben una llamada y creen que han secuestrado a su hijo, pero ahora la IA puede imitar la voz de su hijo para que suene aún más creíble”, dijo sobre el caso Christopher Wray, director del FBI, quienes adelantan la investigación.
Sin embargo, también aceptan que identificar a estos ciberdelincuentes es complicado, dado que por lo general se encuentran fuera del país donde delinquen. La falta de legislación sobre el tema -dado que es una tecnología que ha avanzado mucho en poco tiempo- también preocupa a las autoridades. 
ELIM J ALONSO
REDACCIÓN ÚLTIMAS NOTICIAS

Sigue toda la información de Tecnología en Facebook y X, o en nuestra newsletter semanal.

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon

Conforme a los criterios de

Logo Trust Project
Saber más
Sugerencias
Alt thumbnail

BOLETINES EL TIEMPO

Regístrate en nuestros boletines y recibe noticias en tu correo según tus intereses. Mantente informado con lo que realmente te importa.

Alt thumbnail

EL TIEMPO GOOGLE NEWS

Síguenos en GOOGLE NEWS. Mantente siempre actualizado con las últimas noticias coberturas historias y análisis directamente en Google News.

Alt thumbnail

EL TIEMPO WHATSAPP

Únete al canal de El Tiempo en WhatsApp para estar al día con las noticias más relevantes al momento.

Alt thumbnail

EL TIEMPO APP

Mantente informado con la app de EL TIEMPO. Recibe las últimas noticias coberturas historias y análisis directamente en tu dispositivo.

Alt thumbnail

SUSCRÍBETE AL DIGITAL

Información confiable para ti. Suscríbete a EL TIEMPO y consulta de forma ilimitada nuestros contenidos periodísticos.