David Frazee es vicepresidente del grupo de CRSL (Corporate Research Systems Lab) de 3M, que desde hace tiempo es la organización de 3M que trabaja en la vanguardia de la tecnología de la IA, incluyendo el aprendizaje automático, los datos, la analítica, la nube y las muchas áreas del futuro de la IA. El laboratorio de IA de CRSL es un punto de encuentro de nuevos talentos para 3M, a través de la contratación y las prácticas, y las tecnologías que componen la IA.

Hablamos con David sobre las formas en que la ética y la IA se relacionan.

¿Qué deben saber las personas sobre la ética y la IA? ¿Cómo se relacionan?

El diálogo sobre el uso ético de la IA es cada vez mayor, y con razón. Con la gran cantidad de datos que describen tanto al mundo como a las personas del mundo, que se crean o analizan continuamente, la mayoría cree que alguna forma de consentimiento es razonable cuando dicho análisis incluye datos que son o pueden ser personales.

El espectro puede ir desde la simple información de localización captada al utilizar mapas, hasta la información médica detallada o los datos financieros individuales.

La ética es algo más que obtener el consentimiento para la recopilación y el uso de datos personales; la ética del uso de los datos a nivel corporativo o gubernamental/estatal requerirá cada vez más claridad sobre el valor y el propósito.

Las preocupaciones podrían incluir el uso de la IA para influir en las elecciones, que la IA sólo esté disponible para los adinerados (naciones o personas), la IA para la investigación médica mal gestionada, la IA para degradar la seguridad de la información, etc.

¿Cuáles son las principales preocupaciones éticas en torno a la IA? (¿Privacidad? ¿Datos de los usuarios? ¿Otros?)

La ubicuidad de los servicios en la nube, la computación y el almacenamiento de bajo costo, además de las capacidades y la accesibilidad de la IA y el aprendizaje automático, han facilitado en gran medida que otros realicen análisis sofisticados con fines que van desde lo admirable hasta lo potencialmente delictivo.

Los usos admirables de la IA incluyen el desarrollo de vacunas, el análisis de riesgos para las finanzas o el transporte, y el contenido personalizado para Spotify, Netflix y el comercio electrónico, por ejemplo.

El objetivo final de estas aplicaciones es hacer progresar una solución o servicio médico, para que se adapte mejor a las necesidades de la sociedad o del cliente.

Otros usos no tan admirables podrían ser el análisis de las redes de una empresa para explotar (hackear) a una organización o individuo, el uso de la información médica de los pacientes para negarles atención o tratamiento, el uso de las ventajas de los grandes datos y la IA para controlar los medios de comunicación o crear o permitir la desinformación.

Lo anterior se convierte en usos nefastos diseñados para causar daño o manipular resultados con los datos.

Tampoco es siempre blanco o negro, por lo que una conversación más amplia sobre el papel de la IA en manos de cualquier usuario requiere una mayor comprensión de sus capacidades y su ética.

¿Qué consideraciones éticas debe tener en cuenta una empresa al utilizar la IA? ¿Cómo deben decidir las empresas cuándo y por qué utilizar la IA?

Muchas empresas cuentan desde hace tiempo con comités de ética o IRB (Junta de Revisión Institucional) para considerar nuevos productos, tratamientos y estudios de productos o procedimientos sanitarios. Las empresas tendrán que evolucionar para manejar la complejidad y la velocidad de los parámetros éticos del uso de los datos y la IA de una manera ética y con principios.

Los órganos de gobierno para el uso ético de los datos tendrán que entender los datos, la amplitud y la profundidad, los usos potenciales, ahora y en el futuro, las compensaciones entre los posibles beneficios muy elevados a un costo del uso de los datos sin control.

Comprender los pormenores de la IA será probablemente muy importante en algunos casos y menos en muchos otros. Puede que a uno no le importe mucho por qué apareció la siguiente canción de la lista de reproducción, pero sí puede importarle mucho por qué se eligió un determinado medicamento para el tratamiento.

¿Qué tipo de supervisión mantendrá a la IA bajo control?

No todo parte del centro ni todo depende del individuo. Se trata de un equilibrio basado en una política sólida, pero con flexibilidad y adaptabilidad para cumplirla. Esto no significa que sea aceptable eludir una política o un requisito. Exigir que una única herramienta cubra toda la supervisión podría ser restrictivo. Una combinación de herramientas y procesos puede ser la forma de gobernar esta materia.

¿Cómo aborda 3M la IA desde un punto de vista ético? ¿Cuál es la línea que separa lo lógico de lo ético?

Vemos la IA como una tecnología notable que puede hacer evolucionar la ciencia y la humanidad, pero creemos que sus vastas aplicaciones e implicaciones hacen que sea importante analizarla.

3M tiene un modelo de integridad y valores que aplicamos a todo lo que hacemos. Nos hemos ganado nuestra reputación de integridad a lo largo de muchas décadas, y cada decisión que tomamos debe estar guiada por nuestro Código de Conducta.

La IA es una tecnología única que tiene muchos usos, pero también plantea cuestiones más amplias. La lógica y la legalidad son necesarias pero nunca suficientes a la hora de ver su amplia aplicación.

Hay cuestiones éticas sobre el uso de estos datos que requieren conversaciones importantes sobre las aplicaciones prácticas, la privacidad personal, la representación y los datos que superan con creces cualquier “uso lógico” de la IA, por ejemplo.

¿En qué aspectos éticos cree 3M con respecto a la IA?

La IA es una tecnología increíblemente emocionante. Pero creemos que todas las empresas que utilizan la IA deben tener valores fuertes, transparencia y modelos de integridad, en torno a su aplicación.

También creemos que es importante que los clientes y otras partes interesadas sean conscientes del poder de la IA y de sus datos, que forman parte de la misma conversación.

Aunque ahora mismo la mayoría se autogestiona, creemos que a través de las colaboraciones probablemente podamos obtener grandes ideas y avances que beneficien a todas las partes en la conversación sobre la ética.

A medida que la IA se hace más omnipresente, es importante que todos entendamos su papel en sentido amplio. Queremos proteger a las personas creando un modelo ético de uso, acceso y aplicación.

Explora las Megatendencias:

Inicio
El Nuevo Paradigma
Materiales Sustentables
AR | VR
Inteligencia Artificial
Equidad
Inicio
El Nuevo Paradigma
Materiales Sustentables
AR / VR
Inteligencia Artificial
Equidad