Fiscales de EU ven una alarmante amenaza en imágenes de abuso sexual infantil generadas por IA​

Forbes México.
Fiscales de EU ven una alarmante amenaza en imágenes de abuso sexual infantil generadas por IA

Los fiscales federales de EU están intensificando su búsqueda de sospechosos que utilizan herramientas de inteligencia artificial (IA) para manipular o crear imágenes de abuso sexual infantil, ya que las fuerzas del orden temen que la tecnología pueda provocar una avalancha de material ilícito.

El Departamento de Justicia de EU ha presentó dos casos penales este año contra acusados ​​de utilizar sistemas de IA generativa, que crean texto o imágenes en respuesta a las indicaciones del usuario, para producir imágenes explícitas de niños.

“Hay más por venir”, dijo James Silver, el jefe de la Sección de Delitos Informáticos y Propiedad Intelectual del Departamento de Justicia, prediciendo más casos similares.

“Lo que nos preocupa es la normalización de esto”, señaló Silver en una entrevista. “La IA facilita la generación de este tipo de imágenes, y cuanto más haya, más normalizado se vuelve esto. Eso es algo que realmente queremos bloquear y adelantar”.

El auge de la IA generativa ha suscitado preocupaciones en el Departamento de Justicia de que esta tecnología, que avanza rápidamente, se utilizará para llevar a cabo ciberataques, aumentar la sofisticación de los estafadores de criptomonedas y socavar la seguridad electoral.

Los casos de abuso sexual infantil marcan algunas de las primeras ocasiones en que los fiscales intentan aplicar las leyes estadounidenses existentes a presuntos delitos que involucran IA, e incluso las condenas exitosas podrían enfrentar apelaciones mientras los tribunales evalúan cómo la nueva tecnología puede alterar el panorama legal en torno a la explotación infantil.

Los fiscales y los defensores de la seguridad infantil dicen que los sistemas de IA generativa pueden permitir a los delincuentes transformar y sexualizar fotos comunes de niños y advierten que una proliferación de material producido por IA dificultará que las fuerzas del orden identifiquen y localicen a las víctimas reales de abuso.

El Centro Nacional para Niños Desaparecidos y Explotados, un grupo sin fines de lucro que recopila pistas sobre la explotación infantil en línea, recibe un promedio de alrededor de 450 informes cada mes relacionados con la IA generativa, según Yiota Souras, directora jurídica del grupo.

Eso es una fracción del promedio de 3 millones de informes mensuales de explotación infantil en línea que recibió el grupo el año pasado.

Te interesa: X de Musk pagará multa de 418,000 dólares tras una investigación sobre abuso infantil

Autoridades buscan regular modelos de IA para no ser entrenados con imágenes de abuso infantil

Es probable que los casos que involucran imágenes de abuso sexual generadas por IA pisen nuevos terrenos legales, en particular cuando no se muestra a un niño identificable.

Silver dijo que en esos casos, los fiscales pueden presentar cargos por delitos de obscenidad cuando las leyes de pornografía infantil no se aplican.

Los fiscales acusaron en mayo a Steven Anderegg, un ingeniero de software de Wisconsin, por cargos que incluyen la transferencia de material obsceno. Anderegg está acusado de usar Stable Diffusion, un popular modelo de IA de texto a imagen, para generar imágenes de niños pequeños involucrados en una conducta sexualmente explícita y compartir algunas de esas imágenes con un niño de 15 años, según documentos judiciales.

Anderegg se declaró inocente y busca desestimar los cargos argumentando que violan sus derechos bajo la Constitución de los Estados Unidos.

Fue puesto en libertad mientras espera el juicio. Su abogado no estaba disponible para hacer comentarios.

Stability AI, el fabricante de Stable Diffusion, dijo que el caso involucraba una versión del modelo de IA que se lanzó antes de que la compañía se hiciera cargo del desarrollo de Stable Diffusion. La compañía aseguró que ha realizado inversiones para prevenir “el uso indebido de la IA para la producción de contenido dañino”.

Los fiscales federales también acusaron a un soldado del ejército de EU de delitos de pornografía infantil en parte por supuestamente usar chatbots de IA para modificar fotos inocentes de niños que conocía para generar imágenes de abuso sexual violento, según muestran los documentos judiciales.

El acusado, Seth Herrera, se declaró inocente y se le ordenó permanecer en prisión a la espera de juicio. El abogado de Herrera no respondió a una solicitud de comentarios.

Los expertos legales dijeron que, si bien las representaciones sexualmente explícitas de niños reales están cubiertas por las leyes de pornografía infantil, el panorama en torno a la obscenidad y las imágenes generadas puramente por IA es menos claro.

En 2002, la Corte Suprema de Estados Unidos declaró inconstitucional una ley federal que penalizaba cualquier representación, incluidas las imágenes generadas por computadora, que pareciera mostrar a menores participando en actividades sexuales.

“Estos procesos serán difíciles si el gobierno se basa únicamente en la repulsividad moral para salir airoso”, dijo Jane Bambauer, profesora de derecho en la Universidad de Florida que estudia la inteligencia artificial y su impacto en la privacidad y la aplicación de la ley.

En los últimos años, los fiscales federales lograron condenas contra acusados ​​que poseían imágenes sexualmente explícitas de niños que también calificaban como obscenas según la ley.

Los defensores también se están centrando en evitar que los sistemas de inteligencia artificial generen material abusivo.

Dos grupos de defensa sin fines de lucro, Thorn y All Tech Is Human, consiguieron en abril el compromiso de algunos de los principales actores de la IA, entre ellos Meta, Google, Amazon, Facebook e Instagram, OpenAI y Stability AI, de evitar entrenar sus modelos con imágenes de abuso sexual infantil y de vigilar sus plataformas para evitar su creación y difusión.

“No quiero pintar esto como un problema futuro, porque no lo es. Está sucediendo ahora”, dijo Rebecca Portnoff, vicepresidenta de ciencia de datos de Thorn.

“En cuanto a si es un problema futuro que se saldrá completamente de control, todavía tengo la esperanza de que podamos actuar en esta ventana de oportunidad para evitarlo”.

Con información de Reuters

Síguenos en Google Noticias para mantenerte siempre informado

Fiscales de EU ven una alarmante amenaza en imágenes de abuso sexual infantil generadas por IA
Forbes Staff

  Tecnología, abuso infantil, imágenes IA  Leer más 


Descubre más desde Noticias al Momento

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario