La combinación entre filosofía, ética y tecnología está reinventándose, y su relevancia nunca ha sido tan crítica. Justo Hidalgo, un madrileño con 51 años de experiencia en innovación, es director de inteligencia artificial (IA) y vicepresidente de la Asociación Española de la Economía Digital (Adigital), que representa a unas 500 empresas, incluidas muchas líderes en el ámbito tecnológico. Este año, lanza su tercer libro, Patterns of Emergence: How Complexity Drives Artificial Intelligence, donde explora cómo los sistemas complejos producen “habilidades emergentes” con consecuencias inesperadas, lo que, para algunos expertos, podría suponer un riesgo para la humanidad.
La realidad de los patrones emergentes
¿Qué son los patrones emergentes?
Son fenómenos que encontramos en la naturaleza, la sociedad y la IA. Este concepto se manifiesta a través de elementos simples —como células, hormigas o nodos en una red— que, cuando alcanzan un grado de complejidad determinado, desarrollan características fascinantes. Por ejemplo, las células que se agrupan para formar tejidos, creando funciones que los componentes individuales no poseen. En el ámbito de la inteligencia artificial, modelos avanzados de lenguaje, que operan con cientos de miles de parámetros, han demostrado propiedades emergentes. Un caso ilustrativo es la traducción de idiomas: un sistema entrenado en inglés y español puede comprender otros idiomas a través de unos pocos ejemplos, gracias a su comprensión más amplia.
Desafíos y riesgos en la IA
Peligros de lo desconocido
Stuart Russell, profesor en la Universidad de California (UC Berkeley), advierte acerca de “sistemas inseguros y opacos” que pueden ser más poderosos que nosotros sin entender cómo operan. Hidalgo señala que aunque estos patrones emergentes son impredecibles, es crucial que los modelos de IA sean controlados y comprendidos. “No podemos conformarnos con que pasen algunas pruebas. Debemos desarrollar métodos para medir comportamientos nuevos que puedan surgir”, enfatiza.
La “naturaleza de caja negra” de muchos sistemas plantea un reto significativo. Por ejemplo, si le preguntas a un coche autónomo por qué tomó una determinada decisión, los miles de nodos involucrados pueden ser incomprensibles para nosotros. Por ello, es fundamental que los desarrolladores se enfoquen en hacer que estos sistemas sean más transparentes.
La cuestión de la autorreplicación
Hasta ahora, no se ha documentado que las máquinas puedan autorreplicarse, aunque se han observado pequeños ejemplos en investigación. Hidalgo sugiere que, aunque este aspecto aún es lejano, el avance hacia la superinteligencia —un sistema que pueda superar la inteligencia humana— es donde se concentran los esfuerzos futuros.
La alineación del comportamiento IA-usuario
Uno de los mayores desafíos es asegurar que el comportamiento de la inteligencia artificial esté alineado con las expectativas de los humanos. La falta de control en la IA podría dar lugar a resultados imprevistos si no se actúa con precaución. Hidalgo se muestra optimista pero realista, indicando que la transformación del rol de los usuarios hacia gestores de agentes automatizados podría disminuir el control humano que se necesita.
El futuro de la inteligencia artificial
¿Estamos cerca de la superinteligencia?
Hidalgo considera que aún estamos lejos de alcanzar una superinteligencia perfecta. Los modelos actuales de IA tienen sus limitaciones, y aunque hay investigaciones prometedoras en marcha —como el aprendizaje por refuerzo— hace falta un mayor avance para que la IA pueda ser verdaderamente inteligente.
¿Es posible que la IA adquiera conciencia?
Las teorías actuales sugieren que una expansión en la capacidad de información podría llevar a una percepción similar a la conciencia. Sin embargo, la posibilidad de que una inteligencia artificial desarrolle valores morales o éticos humanos es incierta. Hidalgó alerta sobre el potencial de que una nueva forma de conciencia no comparta nuestros valores, lo que podría llevar a consecuencias éticamente complicadas.
Desarrollo de una inteligencia artificial ética
En Adigital, se ha creado un parlamento de gobernanza conformado por agentes especializados, incluida una entidad dedicada a la ética. “Las empresas necesitan contar con un enfoque ético, igual que tienen abogados”, subraya Hidalgo. Este modelo busca impulsar la responsabilidad en el uso de herramientas de IA e integrar perspectivas filosóficas en los procesos tecnológicos.
Regulación de la inteligencia artificial
Finalmente, Hidalgo se manifiesta favorable a la regulación de la inteligencia artificial, siempre que se implemente de manera balanceada para evitar la sobrerregulación que limite los avances. La clave está en fomentar un marco regulatorio que permita la innovación sin comprometer la seguridad y la ética en la sociedad.
En resumen, el futuro de la inteligencia artificial nos desafía a reflexionar sobre sus implicaciones éticas, como nunca antes. En un mundo donde la tecnología avanza a pasos agigantados, es esencial que la filosofía y la moral se sumen a la conversación para garantizar un desarrollo equitativo y seguro.
