En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información
aquí
Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Estafas: podrían clonar su voz con inteligencia artificial: ¿cómo prevenirlo?
La tecnología mal utilizada se puede convertir en un arma de doble filo.
La IA utiliza algoritmos de búsqueda avanzados con bases de datos jurídicas y fuentes en línea para
facilitar el encuentro de reseñas, casos similares a los que se estén litigando, con resultados más
precisos, más exactos y confiables en un tiempo récord. Foto: ISTOCK
Los delincuentes - estafadores y extorsionistas - cada día se inventan modalidades para hacer caer a sus víctimas.
Desde la falsa encomienda, los falsos servicios o el 'tío-tió me capturaron', los delincuentes se aprovechan de la buena fe de las personas y hoy, hasta de la tecnología, en este caso la inteligencia artificial.
La inteligencia artificial ha permitido avances muy importantes pero paralelo a ellos, los delincuentes han sabido utilizar esta herramienta para sofisticarse en estafas y modalidades de hurto.
De acuerdo con la Policía Nacional enviar mensajes de voz a través de redes sociales abre una "posibilidad" a que ese mensaje salga de la esfera de la persona a quien va diriguido y llegue a terceros que puedan hacer mal uso del mismo.
"Las plataformas sociales son accesibles a personas con conocimientos en tecnología y hackers que aprovechan la información que se publica - fotos, historias, videos, mensajes de voz - para hacer lo que llamamos ingenieria o perfilamiento social", dijo a EL TIEMPO un oficial de telemática.
"Copiar y lograr reproducir el tono de voz de una persona no es tan fácil y para lograrlo se necesitan varios espacios para abtener los vibratos y modismos que marcan el tono", dijo el oficial, quien añadió que la inteligencia artificial necesita varias horas de grabación para aproximar una voz.
Pero, señaló que con el tiempo y los avances de la tecnología el proceso será más fácil.
"Hoy clonan la voz de una persona grabando las llamadas telefónicas, el decir sí abre un sinnúmero de posibilidades a compras con tarjeta. Queda la aprobación", explicó.
El funcionario señaló que se debe tener mucho "cuidado" con la información que se pública en redes y frente a la posibilidad de clonar la voz dio las siguientes recomendaciones.
Inteligencia artificial en Europa. Foto:Archivo Particular
Recomendaciones
El oficial afirmó que hasta el momento en Colombia no se han recibido denuncias de este tipo, que la voz haya sido clonada para aprobar compras u otro tipo de situaciones.
Pero afirmó, que es importante no enviar mensajes de voz por redes abiertas - en especial de mensajería por plataforma - ya que los hackers pueden acceder fácilmente a ellas.
A lo que se suma, que los mensajes de voz solo se deben enviar a personas conocidas.
"Evitar que tengan una duración larga, porque así la inteligencia artificial ( a futuro) tendría un espectro más amplio para obtener tonos y medir las emociones que marcan cada tono", puntualizó.