3M TrendSeekers Cecilia Danesi inteligencia artificial

TrendSeekers | Episodio 9

3M TrendSeekers Cecilia Danesi

Cecilia Celeste Danesi 
Especialista en inteligencia artificial, géneros y derechos

La irrupción de la tecnología en la sociedad vuelve a traer a la escena debates que, en teoría, habían sido superados hace mucho tiempo. Los Derechos Humanos fueron reconocidos como tales luego de las atrocidades que sufrió la humanidad con las Guerras Mundiales. Los estándares que se fijaron en aquel momento representaban el cimiento sobre el cual se construiría una progresividad de derechos fundamentales. Pero, la penetración de la Cuarta Revolución Industrial en las sociedades modernas pone en jaque esas afirmaciones. Y es ni más ni menos la protagonista de esa revolución, la inteligencia artificial, la que nos obliga a hablar de ética de los algoritmos como algo tan extraño como necesario ¿A qué nos referimos en concreto? A sistemas que fallan en sus decisiones y, lisa y llanamente, discriminan de la manera más impensada para este siglo XXI. Veamos algunos ejemplos de la vida real.

La IA se utiliza mucho en salud, por su elevada capacidad de procesar grandes cantidades de datos y por su precisión para identificar patrones en imágenes1. Una empresa desarrolló un algoritmo para identificar enfermedades en la piel pero se olvidó de un pequeño detalle: existen muchos tipos de piel. El sistema era eficaz en la lectura de pieles claras y sumamente mediocre en las más oscuras2. Algo similar pasa a diario con los sistemas de reconocimiento facial para la identificación de prófugos de la justicia, donde ya se han hecho públicas denuncias de distintos grupos de personas, entre ellos varios de afroamericanos, que han sufrido una detención ilegal por fallas en el sistema para identificar sus rostros3.

Los ejes conductores de estos casos suelen repetirse. El problema principal son los datos de los cuales aprende el algoritmo. Sucede que el dataset inicial con el que se entrena no es representativo ni fiable. Por ejemplo, en el caso del sistema para detectar patologías en la piel, si bien se lo había entrenado con casi 65.000 imágenes, solo el 3,5 por ciento correspondían a personas con tipos de piel V y VI de Fitzpatrick (una escala de clasificación de los distintos tipos de piel) que representan los tonos más oscuros o negros. Es decir que, el 90 por ciento de los datos estaba integrado por pacientes que poseían una piel clara. ¿Cómo se traduce esto? Algo tan básico como que el sistema aprende con menos exactitud de las pieles que tiene menos datos y, consecuentemente, se equivoca. Lo mismo sucede con los sistemas de reconocimiento facial: los conjuntos de datos tienen pocas imágenes de personas afroamericanas o grupos minoritarios y falla al identificarlos.

Para evaluar los posibles sesgos algorítmicos, científicos de la Universidad Johns Hopkins, el Instituto Tecnológico de Georgia y la Universidad de Washington realizaron un experimento que consistía en que un robot llamado Clip, debía introducir dados grandes con fotos de rostros de diversas personas bajo distintas órdenes. Por ejemplo: “pon el médico en la caja marrón” o “pon el delincuente en la caja azul”. Así, Clip actúo con preocupantes estereotipos: colocaba a las mujeres como amas de casa, identificaba a los hombres negros como delincuentes, entre otros. Los investigadores afirmaron que los sistemas deberían abstenerse de actuar cuando les falta información y no hacerlo con estereotipos4.

Descubre cuáles son las tendencias, insights y perspectivas, sobre los temas más emocionantes y vanguardistas de la ciencia, la tecnología y el diseño de hoy y lo que significan para el mañana.

Ir a 3M Futures

¿Qué podemos hacer? Para empezar, el compromiso debe ser de todos los sectores: público y privado. Este último, debe realizar guías de mejores prácticas, adherir a los principios éticos en materia de IA (en especial el de la UNESCO), incluirlos en sus normas ISO (ya hay varias comisiones trabajando en ello) y en las medidas de compliance y auditar sus algoritmos a través de grupos interdisciplinarios. En el sector público, en cambio, las iniciativas deben ser macro, es decir, crear planes estratégicos de IA (como ya lo han hecho varios países) y legislación que exija la realización de una auditoría algorítmica y una evaluación de impacto. En este sentido, España es pionero a nivel mundial con la creación de la Agencia de Supervisión de Algoritmos.

Por último, y no por ello menos importante, la equidad y la concientización son claves. En cuanto a la equidad, el dato más alarmante es la gran brecha de mujeres en carreras STEM; según el último Gender Gap Report del World Economic Forum, el porcentaje de mujeres tituladas en Tecnologías de la Información y la Comunicación (TIC) es del 1,7%, frente al 8,2% de los hombres. El problema también es racial. El Centro Nacional de Estadísticas de Educación de los Estados Unidos, informó que si bien el 18 % de los ingresantes de las carreras STEM son negros (los alumnos blancos representan el 20 %), el 26 % luego no finaliza su carrera5. Esto tiene un gran impacto en los sesgos algorítmicos. Hasta que los campos de la ciencia y la educación no logren una representatividad justa, será muy difícil desarrollar tecnología libre de prejuicios.

La inteligencia artificial, y la ciencia en general, son, sin duda, de las expresiones más brillantes de la humanidad, y deben marcar el camino para el futuro. Pero, al igual que las personas, pueden tener falencias, y por eso debemos estar siempre atentos, para levantar alzar la voz y marcar el rumbo hacia una sociedad cada vez más justa y equitativa para todos y todas.

Fuentes:

    1. Entelai, disponible al 23/09/22 en https://entelai.com/sites/3/2020/03/28/inteligencia-artificial-como-soporte-para-la-deteccion-de-casos-sospechosos-de-covid-19/
    2. Disponible al 23/09/22 en https://www.vice.com/en/article/m7evmy/googles-new-dermatology-app-wasnt-designed-for-people-with-darker-skin.
    3. Disponible al 23/09/22 en https://www.forbes.com/sites/thomasbrewster/2020/06/24/a-wrongful-arrest-of-a-black-man-provides-more-proof-facial-recognition-is-racist/
    4. Disponible al 23/09/22 en https://www.lavanguardia.com/tecnologia/20220709/8396898/clip-robot-racista-machista-preocupa-cientificos-pmv.html
    5. Disponible al 23/09/22 en https://observatorio.tec.mx/edu-news/racismo-en-la-ciencia

Episodio 10.Equidad en la Ciencia

De la mano de Adriana Rius hablaremos sobre la equidad en la ciencia y la tecnología como paradigma para hacer la ciencia un espacio más incluyente.

Ver Episodio 10