En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí

CLUB VIVAMOS
Suscríbete
Disfruta de los beneficios de El Tiempo
SUSCRÍBETE CLUB VIVAMOS

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. Verificar Correo

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión

Hola, bienvenido

¿Cual es la ciudad colombiana clasificada como la más peligrosa del mundo?
¿Cómo va el juicio al expresidente Álvaro Uribe?
¿Accidente de bus en Calarcá?
Frío inusual en Bogotá explicado por el Ideam

Noticia

Están clonando las voces de familiares con IA para estafar: así opera el nuevo engaño de los ciberdelincuentes en Colombia

Otros países ya han reportado este tipo de modalidad de estafa. Le contamos cómo evitar caer en el engaño.

Anuncios fraudulentos que usan ‘deepfakes’ en la voz tienen el potencial de llegar a 100.000 personas.

Anuncios fraudulentos que usan ‘deepfakes’ en la voz tienen el potencial de llegar a 100.000 personas. Foto: iStock

Alt thumbnail

PERIODISTAActualizado:

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon
Un modelo de estafa que ha estado causando preocupación en el mundo en los últimos meses, también se ha trasladado a Colombia. La Fiscalía General de la Nación ya lanzó una advertencia sobre estafas utilizando esta tecnología.
Según señaló el ente, los delincuentes se están valiendo de la inteligencia artificial para clonar las voces de familiares, amigos e, incluso, empleados de instituciones financieras, esto con el fin de hacer creer a las víctimas que se están comunicando con alguien de confianza.
Este modelo sofisticado de estafa, que le está dando dolores de cabeza a más de un país, también se ha estado presentando en Colombia y la Fiscalía reportó un aumento de casos de este tipo.
En los casos, los estafadores presentan situaciones de extrema urgencia a sus víctimas, para que estas cedan ante la presión y entreguen datos personales, entregue claves de a las cuentas bancarias o realicen transferencias de dinero.
ChatGPT ocupó el primer lugar en las dos clasificaciones.

ChatGPT ocupó el primer lugar en las dos clasificaciones. Foto:iStock

¿Qué hacer para no caer en estas estafas?

Entre las recomendaciones de las autoridades, se encuentra no confiar en llamadas inesperadas y sospechar cuando le están pidiendo claves de o datos bancarios. Lo recomendable es colgar y comunicarse directamente con la persona que supuestamente le pide esta información.
Tenga una protección extra en sus cuentas mediante la verificación de dos factores en correos, cuentas en redes sociales y cuentas bancarias.
Mantenga contraseñas seguras y procure cambiarlas frecuentemente para proteger su seguridad.
Infórmese sobre las nuevas modalidades de estafa como esta para disminuir el riesgo de caer en el engaño.

El ‘deepfake’ como modalidad para estafar usando IA

Este tipo de estafa parece estar haciéndose cada vez más común, incluso en países como Estados Unidos. Se han registrado casos en los que se suplanta no solo la voz de la persona sino su rostro en una videollamada, convenciendo a las víctimas de que están comunicándose con su familiar o amigo.
HJN

Deepfake. Foto:iStock.

Mediante distintas aplicaciones de IA, los ciberdelincuentes han podido clonar voces e imágenes de personas. Incluso, pueden interceptar varias llamadas de las víctimas para identificar acentos, expresiones y palabras clave para convencer que se trata de determinada persona.
Sobre el tema se han referido expertos como Juan Manuel Mesa, gerente general de IBM, en Caracol Radio. Mesa señalo que los ciberdelincuentes pueden tomar imágenes y contenido de voz de las redes sociales para duplicarlas y así cometer estafas.
Por esta razón, recomendó tener cuidado con el tipo de contenido que se comparte sobre uno mismo en internet, para evitar ser víctima, por ejemplo, del ‘deepfake’.
De igual modo, se refirió al secuestro de llamadas telefónicas, en las cuales los ciberdelincuentes interceptan una llamada de la víctima y se hacen pasar por esta para engañar al familiar o amigo, usando la voz falsa generada por IA. Así, le piden a la persona que realice consignaciones o transferencias de dinero.
“Una de las recomendaciones que tenemos es solo exponerse en las redes cuando sea necesario. Así como exponer niños, fotos y más porque puede ser un riesgo muy alto debido a que hoy la inteligencia artificial se está utilizando de mala manera”, agregó Mesa en la entrevista.
REDACCIÓN ÚLTIMAS NOTICIAS

Sigue toda la información de Tecnología en Facebook y X, o en nuestra newsletter semanal.

00:00
00:00

Comentar

Whatsapp iconFacebook iconX iconlinkeIn iconTelegram iconThreads iconemail iconiconicon

Conforme a los criterios de

Logo Trust Project
Saber más
Sugerencias
Alt thumbnail

BOLETINES EL TIEMPO

Regístrate en nuestros boletines y recibe noticias en tu correo según tus intereses. Mantente informado con lo que realmente te importa.

Alt thumbnail

EL TIEMPO GOOGLE NEWS

Síguenos en GOOGLE NEWS. Mantente siempre actualizado con las últimas noticias coberturas historias y análisis directamente en Google News.

Alt thumbnail

EL TIEMPO WHATSAPP

Únete al canal de El Tiempo en WhatsApp para estar al día con las noticias más relevantes al momento.

Alt thumbnail

EL TIEMPO APP

Mantente informado con la app de EL TIEMPO. Recibe las últimas noticias coberturas historias y análisis directamente en tu dispositivo.

Alt thumbnail

SUSCRÍBETE AL DIGITAL

Información confiable para ti. Suscríbete a EL TIEMPO y consulta de forma ilimitada nuestros contenidos periodísticos.