El uso de inteligencia artificial (IA) para generar contenido visual o escrito ha revolucionado diversos campos, pero un reciente estudio alerta sobre los peligros de entrenar a estas máquinas con datos artificiales. Según la investigación, cuando múltiples modelos de IA se entrenan sucesivamente con información generada por otros modelos, pueden colapsar y perder la percepción de la realidad.

Los expertos explican que este fenómeno ocurre porque las máquinas tienden a sesgar sus resultados hacia las tendencias dominantes en los datos con los que se entrenan, obviando la diversidad. Esto puede llevar a que la IA genere respuestas incorrectas y distorsionadas, basadas en errores introducidos por sus predecesoras.

Además, se ha observado que al utilizar datos sintéticos (generados por máquinas en lugar de humanos) para entrenar a los modelos de IA, se corre el riesgo de degradar la calidad del contenido, introducir sesgos y contaminación en los datos, lo que afecta su fiabilidad y precisión en la toma de decisiones.

Ilia Shumailov, coautor del estudio y experto de la Universidad de Oxford, advierte que las IA pueden perder información crucial al ser entrenadas con datos sesgados, lo que afecta su capacidad para interpretar la realidad de manera precisa.

En la actualidad, es común que las empresas tecnológicas utilicen datos generados por sus propias IA para entrenar nuevos modelos, con el objetivo de evitar reclamos de derechos de autor y reducir costos. Sin embargo, esta práctica puede llevar a que las IA se vuelvan inútiles e incluso perjudiciales si perpetúan información errónea.

Los investigadores proponen la implementación de medidas de control para prevenir el colapso de los modelos de IA, como el uso de marcas de agua y listas de verificación para diferenciar entre datos generados por humanos y por máquinas.

Entrenamiento de un modelo de inteligencia artificial con imágenes generadas con sus propios resultados, según el News&views de Nature de la autora Emily Wenger, profesora de Ingeniería Eléctrica e Informática de la Universidad de Duke, en Carolina del Norte.
Entrenamiento de un modelo de inteligencia artificial con imágenes generadas con sus propios resultados, según el News&views de Nature de la autora Emily Wenger, profesora de Ingeniería Eléctrica e Informática de la Universidad de Duke, en Carolina del Norte.Nature

Ante esta problemática, es fundamental que se establezcan regulaciones que garanticen la revisión y verificación de los datos utilizados en el entrenamiento de la IA. Aunque el uso de datos generados por IA ofrece ventajas en términos de eficiencia y escalabilidad, es necesario asegurar que estos no comprometan la calidad y la fiabilidad de los modelos desarrollados.

En resumen, si bien el entrenamiento de IA con datos artificiales puede potenciar su capacidad de aprendizaje y adaptación, es crucial mantener un equilibrio entre la innovación y la calidad de los datos para garantizar que estas tecnologías sigan siendo herramientas útiles y confiables en el futuro.

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.