En la era de la inteligencia artificial, surge una pregunta fundamental: ¿cómo enseñar ética a las máquinas? Expertos en el campo coinciden en que la clave está en traducir conceptos éticos y deontológicos a números y funciones matemáticas para que las máquinas puedan comprender y aplicar principios morales en su toma de decisiones.

Al igual que las personas, las máquinas necesitan entender el valor de ciertas acciones y cumplir normas establecidas para garantizar un comportamiento ético. Maite López-Sánchez, investigadora en inteligencia artificial de la Universitat de Barcelona, destaca la importancia de este enfoque ético, especialmente en el desarrollo de sistemas como los coches autónomos, donde las decisiones de las máquinas impactan directamente en la sociedad.

En este sentido, la ética en las inteligencias artificiales busca también garantizar un tratamiento igualitario en la toma de decisiones, evitando sesgos algorítmicos que puedan perjudicar a ciertos grupos de personas. Casos recientes de sesgos algorítmicos en selección de personal y atención médica han puesto de manifiesto la importancia de introducir principios éticos en el diseño de sistemas de inteligencia artificial.

Para abordar este desafío, investigadores como Ana Cuevas, de la Universidad de Salamanca, abogan por la implementación de autolimitaciones en el diseño de algoritmos, con el objetivo de prevenir resultados indeseables. Este enfoque proactivo busca anticiparse a posibles problemas éticos, en lugar de corregir desviaciones una vez que los sistemas estén en funcionamiento.

Ética en el lenguaje de las máquinas

La introducción de un corpus ético en las máquinas es un campo relativamente nuevo, en el que la comunidad científica está trabajando desde una perspectiva teórica y experimental. En el grupo de investigación WAI de la Universitat de Barcelona, se exploran las posibilidades de concretar valores éticos en cifras y enseñanzas morales en ingeniería.

Los investigadores vinculan los conceptos de valor y acción en el diseño de los sistemas, utilizando funciones matemáticas para determinar la evaluación ética de las acciones de las máquinas. Este enfoque, que incluye la ponderación de conflictos de valores y la retroalimentación como mecanismo de aprendizaje, representa un paso crucial en la enseñanza de la ética a las inteligencias artificiales.

Además, se recurre al refuerzo positivo y negativo, mediante la asignación de números para premiar o castigar las acciones de las máquinas, de manera análoga al aprendizaje humano. Este enfoque educativo busca incentivar comportamientos éticos y desalentar conductas contrarias a los principios morales.

En última instancia, la incorporación de principios éticos en las inteligencias artificiales es un desafío multidisciplinario que requiere el consenso global en torno a valores comunes, al tiempo que respeta las diferencias culturales y regulatorias. El objetivo es claro: máquinas que actúen de manera ética y responsable, contribuyendo positivamente a la sociedad.

_

Mantente actualizado de las noticias en nuestro Twitter e Instagram