David Frazee é vice-presidente do grupo CRSL da 3M, que é a organização da 3M que trabalha na vanguarda da tecnologia da IA, incluindo o aprendizado de máquinas, dados, análises, nuvem e as muitas áreas do futuro da IA. O Laboratório de IA do CRSL é um ponto de encontro de novos talentos para a 3M, através de recrutamento e estágios, e as tecnologias que compõem a IA.

Falamos com David sobre as formas pelas quais a ética e a IA se relacionam.

O que as pessoas precisam saber sobre ética e IA, e como se relacionam?

O diálogo sobre o uso ético da IA está crescendo, e com razão. Com a vasta quantidade de dados descrevendo o mundo e as pessoas no mundo sendo criadas ou analisadas o tempo todo, a maioria acredita que alguma forma de consentimento é razoável quando tal análise inclui dados que são ou podem ser pessoais.

O espectro pode variar desde simples informações de localização capturadas usando mapas até informações médicas detalhadas ou dados financeiros individuais.

A ética é mais do que obter consentimento para a coleta e uso de dados pessoais; a ética do uso de dados em nível corporativo ou governamental/estatal exigirá cada vez mais clareza sobre valor e finalidade.

As preocupações poderiam incluir o uso de IA para influenciar eleições, IA somente disponível para os ricos (nações ou indivíduos), IA para pesquisas médicas mal administradas, IA para degradar a segurança da informação etc.

Quais são as principais preocupações éticas em torno da IA? (Privacidade? dados do usuário? outros?)

A onipresença dos serviços de nuvem, computação e armazenamento de baixo custo, além das capacidades e acessibilidade da IA e do aprendizado de máquinas, tornaram muito mais fácil realizar análises sofisticadas para fins que vão desde o admirável até o potencialmente criminoso.

Os usos admiráveis da IA incluem desde o desenvolvimento de vacinas, a análise de risco para financiamento ou transporte, e até o conteúdo personalizado para Spotify, Netflix e comércio eletrônico, por exemplo.

O objetivo final dessas aplicações é avançar uma solução ou serviço médico para melhor atender às necessidades da sociedade ou do cliente.

Outros usos não tão amigáveis poderiam ser analisar as redes de uma empresa para explorar (hackear) uma organização ou indivíduo, usando as informações médicas dos pacientes para lhes negar cuidados ou tratamento, usando os benefícios de grandes dados e IA para controlar a mídia ou criar ou permitir informações errôneas.

Os usos acima se tornam nefastos, destinados a causar danos ou manipular resultados com dados.

Também nem sempre a questão é dualista, binária, claramente distinguível. Portanto, uma conversa mais ampla sobre o papel da IA nas mãos de qualquer usuário requer uma maior compreensão de suas capacidades e ética.

Que considerações éticas uma empresa deve levar em conta ao usar a IA / Como as empresas devem decidir quando e por que usar a IA?

Muitas empresas há muito tempo têm comitês de ética ou IRBs (conselhos de ética institucional) para considerar novos produtos, tratamentos e estudos de produtos ou procedimentos de saúde. As empresas precisarão evoluir para lidar com a complexidade e velocidade dos parâmetros éticos do uso de dados e IA de uma forma ética e baseada em princípios.

Os órgãos de governança para uso de dados éticos precisarão compreender os dados, a amplitude e profundidade, os usos potenciais, agora e no futuro, os benefícios potenciais muito altos a um custo de uso não controlado dos dados.

A compreensão dos aspectos internos e externos da IA provavelmente será muito importante em alguns casos e menos em muitos outros. Pode ser que não nos importemos muito com o porquê da próxima música da playlist, mas podemos nos importar muito com o porquê de um determinado medicamento ter sido escolhido para tratamento.

Que tipo de supervisão manterá a IA sob controle?

Nem tudo começa do centro e nem tudo depende do indivíduo. É um equilíbrio baseado em uma política sólida, mas com flexibilidade e adaptabilidade para cumprir com ela. Isto não significa que é aceitável contornar uma política ou uma exigência. Exigir uma única ferramenta para cobrir todo o monitoramento pode ser restritivo. Uma combinação de ferramentas e processos pode ser a maneira de administrar este desafio.

Como a 3M aborda a IA de um ponto de vista ético – qual é a linha entre o que é lógico e o que é ético?

Vemos a IA como uma tecnologia notável que pode desenvolver a ciência e a humanidade, mas acreditamos que suas vastas aplicações e implicações fazem com que seja importante analisá-la.

A 3M tem um modelo de integridade e valores que aplicamos a tudo o que fazemos. Temos conquistado nossa reputação de integridade ao longo de muitas décadas, e cada decisão que tomamos deve ser guiada por nosso Código de Conduta.

A IA é uma tecnologia única que tem muitos usos, mas que também levanta questões mais amplas. A lógica e a legalidade são necessárias, mas nunca suficientes quando se olha para sua aplicação mais ampla.

Há questões éticas sobre o uso desses dados que exigem conversas importantes sobre aplicações práticas, privacidade pessoal, representação e dados que superam de longe qualquer “uso lógico” da IA, por exemplo.

Em que questões éticas a 3M acredita em relação à IA?

A IA é uma tecnologia incrivelmente emocionante. Mas acreditamos que todas as empresas que utilizam a IA devem ter valores fortes, transparência e modelos de integridade em torno de sua aplicação.

Também acreditamos ser importante que os clientes e outras partes interessadas estejam cientes do poder da IA e de seus dados, o que faz parte da mesma conversa.

Embora a maior parte seja autogerida neste momento, acreditamos que através de colaborações, podemos provavelmente obter grandes ideias e avanços que beneficiam todas as partes na conversa ética.

À medida que a IA se torna mais difundida, é importante que todos nós compreendamos seu papel em um sentido amplo. Queremos proteger as pessoas, criando um modelo ético de uso, acesso e aplicação.

Explore todas as tendências

Começo
O Novo Paradigma
Materiais Sustentáveis
RA | RV
Inteligência Artificial
Equidade
Começo
O Novo Paradigma
Materiais Sustentáveis
RA / RV
Inteligência Artificial
Equidade