Margaret Mitchell, natural de Los Ángeles, prefiere no decir la edad que tiene. No queda claro si es por coquetería o pues candela por la privacidad y el buen uso de los datos. Podría ser esto último, ya que es una de las mayores especialistas en moral aplicada en la tecnología, y ha dedicado su carrera a reducir los cortes de los algoritmos. Fundó y dirigió el departamento de moral de la inteligencia artificial (IA) en Google al lado de Timnit Gebru, hasta el momento en que las dos fueron despedidas con poquitos meses de diferencia hace 3 años. Ahora inspecciona el departamento de moral en Hugging Face, es una de las cien personas más influyentes de dos mil veintitres según la gaceta Time, y fue una de las conferenciantes más aguardadas en la Smart City Expo festejada en las instalaciones de Fira de Barcelona.

Pregunta. ¿De qué manera reaccionan las tecnológicas cuando se advierte sobre inconvenientes éticos?

Respuesta. A las personas con las que trabajaba en Google verdaderamente les apasionaba. Quizá en un nivel más elevado de la compañía no estaba clarísimo que lo que hacíamos era esencial, quizás no lo comprendían.

P. ¿Por qué la despidieron?

R. No fue pues alguien creyera que nuestros trabajos sobre moral no eran convenientes. Estuvo más relacionado con diferencias de poder, y sobre todo pues se trató a mi colíder [Timnit Gebru] tal y como si fuera menos que sus compañeros, por racismo. No podía hacer como que no lo había visto o que no afirmaría nada. Fue una parte de una discusión más larga sobre poder y discriminación sistémica.

P. ¿A los desarrolladores de IA les importa la moral?

R. Depende de quién. He trabajado con muchos que siempre y en toda circunstancia están atentos a hacer las cosas bien. Pero la cultura del planeta del desarrollo tecnológico y la ingeniería tiende a favorecer un comportamiento alfa, donde deseas ser el primero en sacar algo o con mejor resultado. Esto puede desincentivar el trabajar en consideraciones morales.

Las perspectivas marginadas no se tratan como igualmente esenciales en el desarrollo de las tecnologías

P. ¿De qué manera marchan la discriminación y los cortes en los algoritmos?

R. Empieza desde el principio: si las resoluciones no las toma un conjunto inclusivo de personas diferentes, no vas a ser capaz de añadir diversidad de pensamiento en el desarrollo de tu producto. Si no se invita a la mesa a personas marginadas, los datos y la forma en que se compendiarán reflejarán la perspectiva de los que tienen poder. En las compañías tecnológicas, tienden a ser, de forma muy desmedida, hombres blancos y asiáticos. Y no se percatan de que los datos que manejan no son completos, pues reflejan su visión. Así, si las perspectivas marginadas no son tratadas como igualmente esenciales en el desarrollo de la IA, se van a crear tecnologías que no van a funcionar para personas marginadas, o hasta les van a hacer daño. Por ejemplo, coches autónomos que no advierten a los niños, pues los datos que controlan no tienen presente sus comportamientos más anárquicos o errantes. Esto ya ocurría con los airbags, que hacían más daño a las mujeres, pues habían sido diseñados sin tener en consideración que hay personas con pechos. Hay que prestar atención a las peculiaridades marginadas o que son tratadas como menores.

Margaret Mitchell
Margaret Mitchell, retratada tras su conferencia en el salón Smart City Expo, en Barcelona.Albert Garcia

P. ¿Cuáles son los conjuntos más discriminados en las IA?

R. Las mujeres negras, personas no binarias, gente de la comunidad LGTBIQ+ y personas latinas. Esto lo ves asimismo en quién trabaja en las compañías tecnológicas y quién no.

P. ¿De qué manera se puede asegurar que la tecnología respetará los valores éticos?

Las compañías deben descubrir los detalles básicos de sus datos de adiestramiento para la inteligencia artificial

P. ¿Falta regulación y trasparencia?

R. Las compañías deben descubrir los detalles básicos de sus datos de adiestramiento para las IA. Quizá no hacerlos públicos para todos, mas sí probar a auditores independientes que hay equidad en sus datos y que utilizan un contexto real, no estereotipado.

P. ¿Qué piensa de los que solicitaban una pausa en el desarrollo de IA?

R. Fue algo extraño. Resultó que venía de un conjunto que alertaba sobre los peligros, mas lo que deseaba era tener más poder influenciando a los políticos. No iba de hacer las cosas bien, iba de tener poder. Decían que se ha llegado a un punto en el que la IA es ventajosa, así que había que parar antes que dañara a la gente. Pero la verdad es que ya hay gente que es dañada, poblaciones no consideradas por , y esto me hizo sentir asco. Claro está, ahora ellos tienen un lugar en la mesa para discutir sobre regulaciones.

P. ¿Es optimista sobre el futuro de la IA?

R. No lo soy, no. Porque creo que la gente que más seguramente se va a ver perjudicada por la tecnología no está en los puestos donde se habla de regulaciones, ni toma resoluciones en las grandes tecnológicas. Hay cosas que se mueven, hace 4 años absolutamente nadie charlaba de moral, mas esto no quiere decir que de acá a diez años estemos mejor. Hay muchos caminos ventajosos para la humanidad y no son los que se siguen.

_

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.