Descubre kilómetros de imágenes de abusos sexuales a menores en las publicaciones con la ayuda de inteligencias artificiales

Actualizado

LION-5B, un catálogo de imágenes utilizado por Stable Diffusion contiene 1.000 imágenes de abuso sexual a bajo coste

Campus de la Universidad de Stanford, autor del estudio.ben margotPENSILVANIA.
  • Inteligencia artificial Google admite que los vídeos de Gemini, con su nueva IA, están editados

Un enorme catálogo de datos utilizados para adquirir inteligencias artificiales generativas (motores capaces de crear imágenes a partir de una descripción textual) contiene al menos 1.008 imágenes de abuso sexual infantil, signo un informe del Observatorio de Internet de la Universidad Stanford.

Se trata del Logotipo del catálogo LAION-5B, una base de datos con más de 5.000 millones de imágenes extradas de forma automática de rojo y que fue creada por la entidad sin ningún beneficio alemán LAION. Esto permite que inteligencias artificiales entren en esta colección de imágenes capaces de generar escenas similares si no implementan barreras que prohíban el uso de determinadas letras.

Inteligencia artificial generativa capacidad de crear imágenes, como Losa oh A mitad de camino, Puedes «aprender» a imaginar diferentes objetos y escenas llegando a millones de ellos de antemano.

El análisis se realiza en profundidad para aprender a reconocer los diferentes elementos. Para aprender a dibujar un caballo, por ejemplo, la modelo se propuso aprender la forma y los diferentes estilos y posiciones en cualquiera que represente al animal y no sólo en un pequeño conjunto de fotografías, sino a lo largo de siglos. Por cuantos ejemplos hemos visto, los resultados son mejores.

Para adquirir esta inteligencia artificial generativa, sobre toda la información de uso general, empleas por tanto enormes colecciones de fotos e ilustraciones con miles de millones de imágenes que se encuentran parcialmente catalogadas. Las compaas con más recursos vuelven al menú de colecciones desarrolladas y catalogadas a nivel internacional. Otros utilizan colecciones públicas que han sido compiladas por universidades u organizaciones independientes.

LION-5B es uno de los modelos abiertos, ampliados y completos, y se utiliza en motores muy populares, como difusión estable, creado por compaa britnica Estabilidad IA.

En el caso de Difusión estable, la IA de estabilidad incluye controles y listas de palabras prohibidas para evitar que el motor se utilice para crear imágenes que deban representar escenas de abuso sexual de menores. La compañía también explica que en las últimas versiones ha utilizado parte de las imágenes del logotipo LAION-5B durante el entrenamiento.

La colección LAION-5B es muy extensa y no permite revisar sus imágenes. Se copió automáticamente, utilizando rutinas que escanean la Web en busca de imágenes con descripciones. LAION, en cualquier caso, dispone de varias herramientas que permiten denunciar contenidos ilícitos.

Para detectar las imágenes, investigadores del Observatorio de Internet de la Universidad de Stanford estudiaron FotoADN, una herramienta creada por Microsoft que permite analizar el contenido de una imagen asignándole un valor numérico (cortar) indica el contenido que estás presentando.

Diversas agencias de seguridad mantienen listas de valores numéricos de imágenes de abuso sexual hasta menores conocidos que circulan por rojo. Comparando los valores presentados en el catálogo LAION-5B con esta lista, es posible encontrar, según los investigadores, 1.008 coincidencias directas, aunque es probable que el mar mayor Nmero. Desde el Observatorio de Stanford también hemos alertado de que cada día nos encontramos con imágenes en rojo de abusos sexuales a pequeña escala generadas por inteligencia artificial.

Luego de conocer los resultados de la investigación de LAION, la circulación fue eliminada temporalmente de nuestros catálogos de imágenes.