Saltar al contenido

Noticias al Momento

Noticias al Momento

Menú
  • Publicidad para Negocios
  • Siguenos en Youtube
  • Siguenos en Twitter X
  • Siguenos en Facebook
  • Siguenos en Whatsapp
Menú

Advierten que modelos de IA generativa entrenados por otras IA podrían arrojar resultados sin sentido​

Publicado el julio 24, 2024

​

Forbes México.
Advierten que modelos de IA generativa entrenados por otras IA podrían arrojar resultados sin sentido

Las inteligencias artificiales generativas que son entrenadas por otras inteligencias artificiales (IA) pueden acabar provocando defectos irreversibles y contaminar los resultados con contenidos sin sentido.

Un artículo que publica hoy Nature pone énfasis en la importancia de utilizar datos fiables para entrenar los modelos de IA, pues el uso de la misma IA para ese cometido puede provocar en pocas generaciones que el contenido original sea sustituido por “tonterías sin relación” con el original.

El uso de conjuntos de datos generados por IA para entrenar futuras generaciones de modelos de aprendizaje automático puede contaminar sus resultados, un concepto conocido como ‘colapso del modelo’, indica el estudio encabezado por la Universidad de Oxford.

El trabajo define el ‘colapso del modelo’ como un proceso degenerativo que afecta a generaciones de modelos de IA, en el que sus datos sesgados acaban contaminando a la generación siguiente. Al haber sido entrenados con datos contaminados, estos perciben erróneamente la realidad.

Uno de los ejemplos que muestra el estudio es una prueba con un texto sobre arquitectura medieval como entrada original. En la novena generación de IA, el resultado fue una lista de liebres norteamericanas.

Los autores proponen que el ‘colapso del modelo’ es un resultado inevitable de los modelos de IA que utilizan conjuntos de datos de entrenamiento creados por generaciones anteriores.

Las herramientas de IA generativa, como los grandes modelos lingüísticos (LLM), han ganado popularidad y se han entrenado principalmente utilizando entradas generadas por humanos.

Sin embargo, a medida que estos modelos siguen proliferando en internet, los contenidos generados por ordenador pueden utilizarse para preparar otros modelos de IA -o a sí mismos- en un bucle recursivo.

“Comprobamos que el uso indiscriminado de contenidos generados por modelos en el entrenamiento provoca defectos irreversibles en los modelos resultantes, en los que desaparecen las colas de la distribución original de contenidos”, indica el estudio

El equipo demostró que una IA puede pasar por alto ciertos resultados en los datos de entrenamiento, lo que hace que aprenda solo de una parte del conjunto de datos.

Te puede interesar: Inteligencia artificial y la defensa de la gastronomía a través de la experiencia

Advierten que modelos de IA generativa entrenados por otras IA podrían arrojar resultados sin sentido

Además, alimentar un modelo con datos generados por IA hace que las generaciones siguientes degraden su capacidad de aprendizaje, lo que acaba provocando el colapso del modelo.

Entrenar una IA con datos generados por otra IA no es imposible, pero “hay que tomarse en serio el filtrado de esos datos”.

A pesar de ello, las empresas tecnológicas que confían en los contenidos generados por humanos pueden ser capaces de entrenar modelos de IA más eficaces que sus competidores, agregan.

Comentando los resultados del estudio, en el que no participó, el catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco, Víctor Etxebarria, este califica la investigación de “excelente”.

Las IA son entrenadas con enormes cantidades de datos presentes en internet, producidos por personas que tienen derechos legales de autoría de su material. Para evitar demandas o ahorrar costes las empresas tecnológicas utilizan datos generados por sus propias IA para seguir entrenando sus máquinas.

“Este procedimiento cada vez más generalizado hace que las IA no sirvan para ninguna función realmente fiable -indicó Etxebarria-. Ello transforma las IA en herramientas no solo inútiles para ayudarnos a solucionar nuestros problemas, sino que pueden ser nocivas, si basamos nuestras decisiones en información incorrecta”.

El efecto que los autores proponen llamar ‘colapso del modelo’ es cierto: los modelos de lenguaje de gran tamaño realmente colapsan (dejan de funcionar, responden mal, dan información incorrecta). Se trata de un efecto estadístico perfectamente demostrado en el artículo”, explicó Etxebarria citado por Science Media Centre, una plataforma de recursos científicos para periodistas.

El estudio es “muy interesante, de buena calidad, pero su valor es sobre todo a nivel teórico”, dijo, por su parte Andreas Kaltenbrunner, de la Universitat Oberta de Catalunya.

“Sus conclusiones parten de la asunción de que en futuros entrenamientos únicamente se usan datos generados por modelos de IA”, pero en un escenario real siempre habrá también una parte de datos generados por humanos.

El investigador consideró que “no está claro cuál sería el resultado” si se mezclan datos generados por humanos con otros hechos por IA y todavía menos qué pasaría si además se añaden datos (cada vez más frecuentes) generados de forma híbrida entre IA y humanos. 

Con información de EFE.

Suscríbete a nuestro canal de YouTube y no te pierdas de nuestro contenido

Advierten que modelos de IA generativa entrenados por otras IA podrían arrojar resultados sin sentido
Forbes Staff

  IA, AI inteligencia artificial  Leer más 

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

©2025 Noticias al Momento | Diseño: Tema de WordPress Newspaperly
Menú
  • Publicidad para Negocios
  • Siguenos en Youtube
  • Siguenos en Twitter X
  • Siguenos en Facebook
  • Siguenos en Whatsapp
Gestionar consentimiento
Para ofrecer las mejores experiencias, utilizamos tecnologías como las cookies para almacenar y/o acceder a la información del dispositivo. El consentimiento de estas tecnologías nos permitirá procesar datos como el comportamiento de navegación o las identificaciones únicas en este sitio. No consentir o retirar el consentimiento, puede afectar negativamente a ciertas características y funciones.
Funcional Siempre activo
El almacenamiento o acceso técnico es estrictamente necesario para el propósito legítimo de permitir el uso de un servicio específico explícitamente solicitado por el abonado o usuario, o con el único propósito de llevar a cabo la transmisión de una comunicación a través de una red de comunicaciones electrónicas.
Preferencias
El almacenamiento o acceso técnico es necesario para la finalidad legítima de almacenar preferencias no solicitadas por el abonado o usuario.
Estadísticas
El almacenamiento o acceso técnico que es utilizado exclusivamente con fines estadísticos. El almacenamiento o acceso técnico que se utiliza exclusivamente con fines estadísticos anónimos. Sin un requerimiento, el cumplimiento voluntario por parte de tu proveedor de servicios de Internet, o los registros adicionales de un tercero, la información almacenada o recuperada sólo para este propósito no se puede utilizar para identificarte.
Marketing
El almacenamiento o acceso técnico es necesario para crear perfiles de usuario para enviar publicidad, o para rastrear al usuario en una web o en varias web con fines de marketing similares.
Administrar opciones Gestionar los servicios Gestionar {vendor_count} proveedores Leer más sobre estos propósitos
Ver preferencias
{title} {title} {title}