Investigadores de inteligencia artificial recientemente hicieron titulares tras admitir que descubrieron más de 2,000 enlaces web a imágenes de abuso sexual infantil sospechosas en un conjunto de datos utilizado para entrenar herramientas populares de generación de imágenes de inteligencia artificial. Este dataset, conocido como LAION, ha sido un recurso crucial para los principales creadores de imágenes de inteligencia artificial como Stable Diffusion y Midjourney. Sin embargo, surgieron preocupaciones luego de un informe del Observatorio de Internet de Stanford el año pasado, que reveló la presencia de imágenes sexualmente explícitas de niños dentro del dataset.
Estos hallazgos resaltaron el papel que juegan dichos datasets en facilitar la creación de deepfakes fotorrealistas que representan a niños. En respuesta a los descubrimientos alarmantes, LAION, que significa la Red Abierta de Inteligencia Artificial a Gran Escala sin fines de lucro, tomó medidas inmediatas al eliminar el dataset de circulación. Durante los siguientes ocho meses, LAION colaboró con el grupo de vigilancia de la Universidad de Stanford y organizaciones contra el abuso en Canadá y el Reino Unido para abordar el problema. El resultado fue una versión limpia del dataset diseñada para salvaguardar la integridad de futuras investigaciones de inteligencia artificial.
La limpieza del dataset LAION se produce en un momento en el que los gobiernos de todo el mundo están intensificando su escrutinio de las herramientas tecnológicas que facilitan la creación o distribución de imágenes ilegales de niños. Un ejemplo de esto es la reciente demanda del fiscal de la ciudad de San Francisco para cerrar sitios web que permiten la creación de desnudos generados por IA de mujeres y niñas. Además, las autoridades francesas recientemente presentaron cargos contra Pavel Durov, el fundador y CEO de la aplicación de mensajería Telegram, por la presunta distribución de imágenes de abuso sexual infantil. El arresto de Durov señala un cambio significativo en la industria tecnológica, con la posibilidad de que los fundadores de tales plataformas sean considerados personalmente responsables de actividades ilegales.
Deja una respuesta