En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información
aquí
Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Noticia
Están clonando las voces de familiares con IA para estafar: así opera el nuevo engaño de los ciberdelincuentes en Colombia
Otros países ya han reportado este tipo de modalidad de estafa. Le contamos cómo evitar caer en el engaño.
Anuncios fraudulentos que usan ‘deepfakes’ en la voz tienen el potencial de llegar a 100.000 personas. Foto: iStock
Un modelo de estafa que ha estado causando preocupación en el mundo en los últimos meses, también se ha trasladado a Colombia. La Fiscalía General de la Nación ya lanzó una advertencia sobre estafas utilizando esta tecnología.
Según señaló el ente, los delincuentes se están valiendo de la inteligencia artificial para clonar las voces de familiares, amigos e, incluso, empleados de instituciones financieras, esto con el fin de hacer creer a las víctimas que se están comunicando con alguien de confianza.
Este modelo sofisticado de estafa, que le está dando dolores de cabeza a más de un país, también se ha estado presentando en Colombia y la Fiscalía reportó un aumento de casos de este tipo.
En los casos, los estafadores presentan situaciones de extrema urgencia a sus víctimas, para que estas cedan ante la presión y entreguen datos personales, entregue claves de a las cuentas bancarias o realicen transferencias de dinero.
ChatGPT ocupó el primer lugar en las dos clasificaciones. Foto:iStock
¿Qué hacer para no caer en estas estafas?
Entre las recomendaciones de las autoridades, se encuentra no confiar en llamadas inesperadas y sospechar cuando le están pidiendo claves de o datos bancarios. Lo recomendable es colgar y comunicarse directamente con la persona que supuestamente le pide esta información.
Tenga una protección extra en sus cuentas mediante la verificación de dos factores en correos, cuentas en redes sociales y cuentas bancarias.
Mantenga contraseñas seguras y procure cambiarlas frecuentemente para proteger su seguridad.
Infórmese sobre las nuevas modalidades de estafa como esta para disminuir el riesgo de caer en el engaño.
El ‘deepfake’ como modalidad para estafar usando IA
Este tipo de estafa parece estar haciéndose cada vez más común, incluso en países como Estados Unidos. Se han registrado casos en los que se suplanta no solo la voz de la persona sino su rostro en una videollamada, convenciendo a las víctimas de que están comunicándose con su familiar o amigo.
Deepfake. Foto:iStock.
Mediante distintas aplicaciones de IA, los ciberdelincuentes han podido clonar voces e imágenes de personas. Incluso, pueden interceptar varias llamadas de las víctimas para identificar acentos, expresiones y palabras clave para convencer que se trata de determinada persona.
Sobre el tema se han referido expertos como Juan Manuel Mesa, gerente general de IBM, en Caracol Radio. Mesa señalo que los ciberdelincuentes pueden tomar imágenes y contenido de voz de las redes sociales para duplicarlas y así cometer estafas.
Por esta razón, recomendó tener cuidado con el tipo de contenido que se comparte sobre uno mismo en internet, para evitar ser víctima, por ejemplo, del ‘deepfake’.
De igual modo, se refirió al secuestro de llamadas telefónicas, en las cuales los ciberdelincuentes interceptan una llamada de la víctima y se hacen pasar por esta para engañar al familiar o amigo, usando la voz falsa generada por IA. Así, le piden a la persona que realice consignaciones o transferencias de dinero.
“Una de las recomendaciones que tenemos es solo exponerse en las redes cuando sea necesario. Así como exponer niños, fotos y más porque puede ser un riesgo muy alto debido a que hoy la inteligencia artificial se está utilizando de mala manera”, agregó Mesa en la entrevista.