En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información
aquí
Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Noticia
Alertan sobre modalidad de estafa con voces generadas con inteligencia artificial en llamadas, ¿cómo lo hacen?
Ciberdelincuentes interceptan llamadas y se hacen pasar por las víctimas para engañar familiares o amigos y pedirles dinero.
Se han conocido casos en los que estafadores han usado la IA para suplantar identidades y engañar. Foto: iStock
La inteligencia artificial ha estado avanzando en los últimos años y se ha presentado como una herramienta que puede facilitarles a las personas la realización de varias tareas en su día a día. Sin embargo, también se han conocido casos en los que estafadores han usado la IA para suplantar identidades y engañar. Ya se han conocido varios casos al rededor del mundo y algunos expertos de han referido al tema.
En un artículo del 2023, el periódico estadounidense The Washington Post dio a conocer los casos de varias personas que habían sido víctimas de esta modalidad de estafa. Por ejemplo, Ruth Card –una anciana de 73 años- estaba segura de que su nieto Brandom la había llamado para informarle que estaba en la cárcel y necesitaba dinero para pagar la fianza.
La mujer se apresuró para sacar del banco una gran suma de dinero, convencida de que su nieto necesitaba ayuda. Al ver esto, el gerente del banco le recordó que otra familia había recibido una llamada similar, con una voz “inquietantemente precisa” a la de su familiar, por lo que concluyó que la persona con la que Card habló muy probablemente no era su nieto y que, incluso, podía ser una voz simulada con inteligencia artificial.
Una estafa se produjo gracias a la Inteligencia Artificial Foto:Istock
El ‘deepfake’ como modalidad para estafar usando IA
Este tipo de estafa parece estar haciéndose cada vez más común, no solo en Estados Unidos sino en otras partes del mundo. El ‘deepfake’ también ha generado preocupación en China, donde se han registrado casos en los que se suplanta no solo la voz de la persona sino su rostro en una videollamada, convenciendo a las víctimas de que están comunicándose con su familiar o amigo.
Mediante distintas aplicaciones de IA, se han podido clonar voces e imágenes de personas. Incluso, pueden interceptar varias llamadas de las víctimas para identificar acentos, expresiones y palabras clave para convencer que se trata de determinada persona.
Recientemente, sobre el tema se refirió Juan Manuel Mesa, gerente general de IBM, en Caracol Radio. Mesa señalo que los ciberdelincuentes pueden tomar imágenes y contenido de voz de las redes sociales para duplicarlas y así cometer estafas.
Por esta razón, recomendó tener cuidado con el tipo de contenido que se comparte sobre uno mismo en internet, para evitar ser víctima, por ejemplo, del ‘deepfake’.
De igual modo, se refirió al secuestro de llamadas telefónicas, en las cuales los ciberdelincuentes interceptan una llamada de la víctima y se hacen pasar por esta para engañar al familiar o amigo, usando la voz falsa generada por IA. Así, le piden a la persona que realice consignaciones o transferencias de dinero.
Mesa señalo que los ciberdelincuentes pueden tomar imágenes y contenido de voz de las redes sociales para duplicarlas y así cometer estafas. Foto:iStock
“Una de las recomendaciones que tenemos es solo exponerse en las redes cuando sea necesario. Así como exponer niños, fotos y más porque puede ser un riesgo muy alto debido a que hoy la inteligencia artificial se está utilizando de mala manera”, agregó Mesa en la entrevista.
Nuevo caso registrado en Texas: llamaron a una mujer y se hicieron pasar por su hija
En el estado de Texas, Estados Unidos, se registró un nuevo caso de estafa mediante inteligencia artificial. Según relataron medios de comunicación, Amanda Murphy, recibió una llamada de un número desconocido y al contestar le habló supuestamente su hija pidiéndole ayuda mientras gritaba y lloraba.
Inteligencia Artificial. Foto:iStock
“Pensé que tal vez había tenido un pequeño accidente. Estaba en estado de shock”, indicó la mujer. Luego, apareció la voz de un tercero en la llamada, quien amenazó a la madre con “vender a su hija, ya que él era traficante, y que jamás la volvería a ver”, relató La Nación. El sujeto le pidió transferir una suma de 3.000 dólares mediante la aplicación Walmart Money Services.
Por fortuna, los empleados de Walmart identificaron la posible estafa y ayudaron a la preocupada madre a comunicarse con su hija desde otro número, quien se encontraba sana y salva en su trabajo.
“Ahora se puede utilizar la IA para encontrar vulnerabilidades que se puedan explotar, para escribir códigos que exploten esas vulnerabilidades y para llevar a cabo campañas de phishing más sofisticadas (…) También nos preocupa que la IA mejore cosas como los secuestros virtuales, en los que los padres reciben una llamada y creen que han secuestrado a su hijo, pero ahora la IA puede imitar la voz de su hijo para que suene aún más creíble”, dijo sobre el caso Christopher Wray, director del FBI, quienes adelantan la investigación.
Sin embargo, también aceptan que identificar a estos ciberdelincuentes es complicado, dado que por lo general se encuentran fuera del país donde delinquen. La falta de legislación sobre el tema -dado que es una tecnología que ha avanzado mucho en poco tiempo- también preocupa a las autoridades.