En el ámbito médico, la inteligencia artificial (IA) está siendo cada vez más utilizada en pruebas de diagnóstico por imagen y programación, lo que ayuda a agilizar el trabajo de los profesionales de la salud y mejorar la precisión de los diagnósticos. Sin embargo, se ha evidenciado que la IA puede caer en sesgos que generan diferencias en la atención médica en función del género, el grupo étnico o el demográfico, lo que plantea un desafío importante para eliminar estos sesgos y garantizar un uso ético y preciso de la tecnología.
Una historia reciente publicada por Diane Camacho en las redes sociales puso de relieve la disparidad en los diagnósticos proporcionados por un chatbot de IA. Cuando reportó sus síntomas a la IA, se le diagnosticó ansiedad, pero al repetir el proceso para un hombre con los mismos síntomas, la IA sugirió la posibilidad de embolia pulmonar, síndrome coronario agudo o cardiomiopatía, sin mencionar la ansiedad. Este ejemplo ilustra cómo los sesgos pueden impactar en los diagnósticos médicos basados en IA.
La combinación de grandes cantidades de datos con algoritmos en la IA puede llevar a la generación de respuestas sesgadas si los datos no son representativos o están incompletos. Frente a este problema, la reciente ley europea de inteligencia artificial prioriza el desarrollo de la IA con criterios éticos, transparentes y libres de sesgos, especialmente en el caso de dispositivos médicos considerados de alto riesgo. Estos dispositivos deben cumplir con requisitos estrictos, incluida la utilización de datos de alta calidad, la documentación detallada del sistema, la implementación de medidas de supervisión humana y un alto nivel de robustez, seguridad y precisión.
La importancia de eliminar sesgos en la inteligencia artificial
Los sesgos pueden introducir diferencias significativas en la precisión de los diagnósticos médicos basados en IA, como en el caso de las radiografías de tórax, donde los algoritmos han mostrado una menor precisión en el diagnóstico en mujeres. Estos sesgos están relacionados con las bases de datos históricas utilizadas para entrenar los algoritmos, lo que influye en las respuestas generadas.
Para abordar estos desafíos, empresas como Vincer.Ai se dedican a auditar a compañías para garantizar que cumplan con las condiciones europeas en el desarrollo de IA. Además, proponen la implementación de un sistema de gestión de calidad de algoritmos, modelos y sistemas de inteligencia artificial, así como la inclusión de un descargo de responsabilidad en caso de modelos sesgados.
Los expertos señalan la importancia de entrenar de nuevo las bases de datos para evitar sesgos, como se hizo en un caso de detección de COVID-19 en Europa, donde se utilizó un algoritmo desarrollado con población china y posteriormente se agregaron imágenes de población europea para corregir los sesgos. También destacan la necesidad de fomentar la conciencia sobre los sesgos en IA, promover el uso del pensamiento crítico y exigir transparencia a las empresas y validación de las fuentes. Aunque la IA puede ser útil en ciertos casos médicos, es fundamental que no sustituya la labor de un médico, y que los profesionales de la salud estén capacitados en el uso de esta tecnología.
Mantente actualizado de las noticias en nuestro Twitter e Instagram.
Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica.
Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales, es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.