En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información
aquí
Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Retiran base de datos para entrenar IA por contener material de abuso sexual infantil
Los investigadores de Stanford Internet Observatory revelan las implicaciones de esta decisión.
Un revuelo en la comunidad de inteligencia artificial se ha desatado después de que investigadores de Stanford Internet Observatory descubrieran la presencia de material de abuso sexual infantil (CSAM, por sus siglas en inglés) en una base de datos utilizada para entrenar modelos de Inteligencia Artificial generativa de imágenes.
Este hallazgo ha llevado a la retirada inmediata de la base de datos en cuestión.
La base de datos, conocida como LAION-5B, contiene la cifra de 5.850 millones de pares de texto e imagen, y ha sido ampliamente utilizada en la industria para entrenar sistemas de IA generativos dedicados a la creación de imágenes.
Según se describe en la página web de LAION, su objetivo principal era "democratizar la investigación y la experimentación en el entrenamiento de modelos multimodales a gran escala".
La IA facilita la creación de efectos especiales personalizados, desde filtros visuales hasta escenas complejas. Foto:iStock
Sin embargo, LAION advierte desde el principio que esta base de datos no está curada y que la "naturaleza no seleccionada del conjunto de datos" podría dar lugar a "contenido muy incómodo y perturbador". A pesar de esta advertencia, la presencia de material de abuso sexual infantil ha sorprendido a la comunidad de investigación.
Un equipo de investigadores liderado por Jeffrey Hancock, de Stanford Internet Observatory, se embarcó en una misión para determinar en qué medida el material de abuso sexual infantil había sido utilizado en el entrenamiento de modelos de IA generativa de imágenes.
Estos modelos, conocidos por su capacidad para generar contenidos explícitos para adultos, también se sospechaba que podían generar contenido inapropiado relacionado con el abuso infantil.
Para llevar a cabo su investigación, el equipo de Hancock empleó una combinación de técnicas, incluyendo la coincidencia de hash perceptual de PhotoDNA, la coincidencia de hash criptográfica, consultas de vecinos más cercanos y clasificadores de aprendizaje automático, como se detalla en el resumen de su estudio.
Los resultados de su investigación revelaron una cantidad significativa de "cientos de casos de CSAM conocidos en el conjunto de capacitación, así como muchos candidatos nuevos que posteriormente fueron verificados por partes externas".
Ante esta alarmante situación, LAION tomó la decisión de retirar temporalmente la base de datos, como confirmaron a '404 Media', un portal especializado en tecnología. La medida fue tomada para asegurarse de que los conjuntos de datos estén "seguros antes de volver a publicarlos", según declararon representantes de LAION.
*Este contenido fue reescrito con la asistencia de una inteligencia artificial, basado en la información publicada por Europa Press, y contó con la revisión del periodista y un editor.