Home  >  Carreira

Reconciliando crenças políticas com ambições de carreira

Os profissionais de dados enfrentam dilemas pessoais à medida que a IA contribui para questões éticas, como privacidade, vieses e usos militares

James Kobielus, InfoWorld

11/12/2020 às 8h00

Foto: Adobe Stock

O ambiente político de hoje é cada vez mais hostil ao gerenciamento de dados como profissão. Se você fez sua carreira em aprendizado de máquina, mineração de dados, modelagem preditiva ou áreas relacionadas, essas controvérsias podem fazer você questionar sua decisão de seguir esta linha de trabalho. Os principais pontos críticos centram-se em questões de privacidade de dados, viés algorítmico e armamento de IA. 

Priorizando a privacidade sobre o marketing baseado em dados 

Profissionais de gerenciamento de dados enfrentam crescente escrutínio sobre violações de privacidade, vigilância e outros impactos intrusivos dos aplicativos que são responsáveis por construir e gerenciar. 

Um dos novos temas mais perturbadores é o enquadramento ideológico de como a tecnologia permite o "capitalismo de vigilância". Este termo, cunhado pela professora da Harvard Business School Shoshana Zuboff, essencialmente estigmatiza a coleta, propriedade, processamento e uso de PII (sigla em inglês para “informações de identificação pessoal”) dos clientes.

Essa noção considera qualquer uso empresarial de PII do cliente - como microssegmentação, segmentação de oferta contextual e otimização de anúncios em vários canais - como uma forma de monitoramento e controle. 

As preocupações com o CRM baseado em dados não se limitam aos acadêmicos. É claro, a partir de audiências no Congresso americano, que essa perspectiva se alinha com a opinião popular sobre as práticas do Google, Facebook, Amazon e outros negócios digitais do século XXI.

O público está cada vez mais preocupado com a invasão da privacidade, à medida que as grandes marcas competem para ver quem pode adquirir a gama mais abrangente de dados intrusivos sobre todos os aspectos de nossas vidas, incluindo nossos pensamentos, sentimentos e preferências. 

Consequentemente, muitos profissionais de dados estão enfrentando uma encruzilhada em suas carreiras. Por um lado, seus empregadores construíram negócios de sucesso alimentados por segmentação preditiva, personalização um a um e engajamento multicanal.  

Por outro lado, os profissionais de dados estão se sentindo mais reticentes sobre a profundidade com que usam as PII do cliente para alimentar programas de CRM baseados em IA, como perfis preditivos de personalidade, segmentação da próxima melhor ação ou preços comportamentais em tempo real. 

Nada disso é particularmente estranho, sinistro ou vergonhoso. Essas práticas são fundamentais para a forma como os negócios são feitos hoje em dia. Se você tem dúvidas ideológicas sobre essas ou outras metodologias de CRM baseadas em dados, provavelmente nunca trabalhará com gerenciamento de dados corporativos ou marketing moderno.  

Se você se recusar a trabalhar em um programa simplesmente porque ele implementa essas modernas metodologias de engajamento do cliente, não receberá muita simpatia de seus empregadores e, na verdade, eles provavelmente lhe mostrarão a porta da rua. 

Mas isso não significa que você tenha que ficar de braços cruzados enquanto seu empregador fica furioso com os dados dos clientes. Você pode se tornar o principal defensor da privacidade de dados da sua empresa, por exemplo.

No mínimo, você pode garantir que sua empresa cumpra rigorosamente o Regulamento Geral de Proteção de Dados da União Europeia e leis de privacidade semelhantes em outros lugares. 

Livrando nossas vidas de vieses algorítmicos baseados em dados 

Os dados têm estado na linha de frente nas guerras culturais recentes devido a acusações de preconceito racial, de gênero e outras formas de preconceito socioeconômico perpetrado no todo ou em parte por meio d ealgoritmos. 

Os preconceitos algorítmicos se tornaram uma questão polêmica na sociedade global, uma tendência que estimulou muitas jurisdições e organizações a instituir um maior grau de responsabilidade algorítmica nas práticas de IA.  

Cientistas de dados que foram treinados por muito tempo para eliminar preconceitos de seu trabalho agora encontram suas práticas sob crescente escrutínio do governo, jurídico, regulatório e outros círculos. 

A eliminação do preconceito nos dados e algoritmos que impulsionam a IA requer vigilância constante por parte não apenas dos cientistas de dados, mas de todos os níveis corporativos.

Como Black Lives Matter e protestos semelhantes apontaram, algoritmos baseados em dados podem incorporar vieses sérios que prejudicam grupos demográficos (raça, gênero, idade, religião, etnia ou origem nacional) em vários contextos do mundo real. 

Grande parte da recente controvérsia em torno dos vieses algorítmicos se concentrou em software de reconhecimento facial baseado em IA.
Vieses em aplicativos de reconhecimento facial são especialmente
preocupantes se usados para direcionar programas de policiamento
preditivo ou abuso potencial por parte da polícia em áreas urbanas com
muitos grupos minoritários em desvantagem. 

Muitos fornecedores de soluções de IA têm visto um amplo esforço de base entre seus próprios funcionários para tomar uma posição firme contra os abusos policiais de reconhecimento facial. Em junho, enquanto os protestos Black Lives Matter esquentavam, funcionários da Amazon Web Services pediram à empresa que rescindisse seus contratos com a polícia. Mais de 250 funcionários da Microsoft publicaram uma carta aberta exigindo que a empresa encerrasse seu trabalho com os departamentos de polícia. 

Este é um domínio de aplicativo de IA em que os profissionais terão que se policiar e se corrigir à medida que os preconceitos continuam a surgir, as penalidades legais e regulatórias associadas vêm logo atrás. Até o momento, há pouco consenso sobre estruturas viáveis para regular usos, implantações e gerenciamento de programas de reconhecimento facial 

No entanto, os praticantes de IA sabem que as oportunidades de reconhecimento facial são muito numerosas e lucrativas para serem perdidas indefinidamente.

A incorporação do reconhecimento facial em iPhones e outros dispositivos garantirá que essa tecnologia seja uma ferramenta fundamental no portfólio de tecnologia pessoal de todos. Mais empresas estão incorporando o reconhecimento facial em aplicativos internos e voltados para o cliente para autenticação biométrica, autot-ageamento de imagem / vídeo, consulta por imagem e outros usos valiosos.  

O distanciamento social tornou muitas pessoas mais receptivas ao reconhecimento facial como uma opção sem contato para autenticação forte para muitos serviços online e no nível do dispositivo. 

De fato, uma pesquisa global recente da Capgemini descobriu que a adoção do reconhecimento facial provavelmente continuará crescendo entre as grandes empresas em todos os setores e regiões, mesmo com o retrocesso da pandemia. 

O preconceito não é um problema que pode ser corrigido de uma vez por todas. No que diz respeito aos algoritmos de tomada de decisão, as organizações devem sempre tornar os preconceitos tão transparentes quanto possível e tentar eliminar qualquer um que perpetue resultados sociais injustos.  

Além disso, a auditoria contínua de vieses de IA - não apenas no reconhecimento facial, mas em todos os outros domínios de aplicativo com impacto social - deve se tornar uma tarefa padrão em fluxos de trabalho de desenvolvimento de IA. 

Tudo isso levanta a possibilidade de que mais cientistas de dados tenham que decidir se querem participar de tais projetos e em que medida. Muitos podem escolher a opção limitada e de curto prazo de optar por não contribuir para as aplicações de reconhecimento facial de aplicação da lei.  

Como uma abordagem sustentável de longo prazo, os cientistas de dados que não se opõem ideologicamente ao reconhecimento facial precisarão redobrar os esforços para eliminar os preconceitos que estão embutidos nesses modelos e nos conjuntos de dados de imagem facial que os treinam. 

Optando por sair do desenvolvimento de armas baseadas em IA 

As informações são fundamentais para a guerra moderna. Algoritmos baseados em dados, especialmente os de deep learning (ou aprendizado profundo), dão aos sistemas de armas a capacidade de ver, ouvir, sentir e ajustar estratégias em tempo real muito melhor e mais rápido do que a maioria dos humanos. 

A inteligência artificial é o futuro da guerra e das defesas contra sistemas de armas algorítmicos. As batalhas futuras quase certamente terão contagens de vítimas que são surpreendentes e desequilibradas, especialmente quando o arsenal de um lado é quase inteiramente composto de sistemas de armas autônomos equipados com falanges de câmeras 3D, radar de ondas milimétricas, detectores bioquímicos e outros sensores ambientais. 

Se você é um cientista de dados voltado para a carreira, ficará tentado a emprestar seus talentos para projetos militares, que tendem a ser as iniciativas de P&D mais empolgantes e inovadoras em IA. A escassez de profissionais de IA altamente qualificados praticamente garante que, se você tiver o que é preciso, receberá um alto salário com inúmeras vantagens.  

Além disso, a quantidade de dinheiro de capital de risco que flui para startups neste setor garante que muitos cientistas de dados que começaram a trabalhar em programas de armas centrados em IA se tornarão muito ricos e poderosos. 

Os profissionais de IA são altamente ambivalentes quanto à participação em projetos militares. Em uma pesquisa recente citada aqui,
os especialistas em IA dos EUA relataram atitudes mais favoráveis do
que desfavoráveis sobre como trabalhar com o Departamento de Defesa,
embora uma grande maioria seja neutra sobre o assunto. 

Os entrevistados relataram uma tendência mais favorável a aceitar bolsas do DoD [Departamento de Defesa americano] para pesquisa básica do que para pesquisa aplicada.

Na pesquisa, o motivo mais citado pelos profissionais de IA para aceitar doações do DoD foi trabalhar em "problemas interessantes". “Desconforto com a forma como o DoD usará o trabalho” foi a desvantagem mais citada. Aproximadamente três quartos dos entrevistados tiveram atitudes negativas sobre as aplicações da IA no campo de batalha. 

Os profissionais de IA podem pensar que atrelar sua carreira a um provedor de nuvem comercial, como Amazon Web Services, Microsoft, Google ou IBM os ajudará a evitar a pressão para trabalhar em projetos militares.

Só que as simplesmente não funcionam assim: muitas empresas de tecnologia têm aplicado suas inovações aos projetos do DoD há vários anos. Na verdade, as Big Techs continuam a cultivar laços estreitos com os militares dos EUA, conforme mostrado neste estudo recente. 

Se você acha que pode limitar suas contribuições para aplicativos de IA defensivos e de back-office nas forças armadas - de acordo com as "regras básicas" que o ex-CEO do Google, Eric Schmidt, propôs alguns anos atrás - você terá um rude despertar.

Nenhuma dessas regras para o envolvimento militar dos fornecedores de IA comercial pode realisticamente impedir que as abordagens subjacentes sejam usadas em sistemas de armas para fins ofensivos.  

Na verdade, a probabilidade dessa possibilidade é aumentada pelo fato de que as tecnologias de IA subjacentes de muitos projetos militares, incluindo software de modelagem de código aberto e dados de imagem não classificados, estão disponíveis gratuitamente. 

No cenário improvável de que todas as empresas de IA abandonem os projetos com os órgãos militares dos Estados Unidos e de outras nações, que ainda deixariam uma oportunidade para universidades e centros de pesquisa sem fins lucrativos retomarem o trabalho. 

Considerando quanto dinheiro os militares provavelmente canalizarão para esses contratos, isso poderia facilmente reverter a fuga de cérebros que está fazendo com que os melhores e mais brilhantes pesquisadores de IA deixem a academia e busquem fortuna no setor privado. 

Nada disso significa que você não pode optar por não participar do complexo ciberindustrial que surgiu em torno da IA militarizada. Se você se opõe moralmente a esse tipo de trabalho, pode passar toda a sua carreira de dados sem nunca ter que comprometer seus princípios. Os especialistas em IA podem encontrar muitos usos humanitários ou outros usos inquestionáveis para seus talentos. 

Como alternativa, você pode considerar trabalhar em contramedidas tecnológicas projetadas para neutralizar o armamento movido por IA de um adversário. Uma das novas oportunidades profissionais mais promissoras é construir defesas de contra-ataque comandadas por IA.  

Nos últimos anos, militares em todo o mundo implantaram drones com sucesso como uma alternativa de ataque rápido, de baixo custo e impulsionada por IA para táticas de guerra convencionais, como veículos blindados e caças.

Por exemplo, o Azerbaijão usou drones com sucesso em uma guerra recente contra a Armênia, desdobrando veículos aéreos não tripulados em miniatura para destruir tanques e outros veículos blindados de combate. 

As defesas de contra-ataque são um foco importante de P&D e atividades de inicialização. Muitos desses projetos usam IA para automatizar a detecção de drones, apontar locais e prever prováveis trajetórias de voo dos drones.

Muitos usam IA para automatizar a classificação de drones que se aproximam por modelo, operador e perfil de ameaça, tomando cuidado para minimizar falsos positivos e falsos negativos.  

Eles também contam com o aprendizado de máquina para acionar automaticamente os alertas de segurança e ativar os mecanismos para destruir fisicamente, desabilitar, distrair ou neutralizar drones armados. 

Encontrando um meio-termo 

Em um cenário cultural politicamente polarizado, os profissionais de dados podem achar difícil manter suas inclinações em segredo. Eles também podem ter dores de consciência que os impedem de se envolver em projetos cujos objetivos vão contra suas convicções profundas. 

Antes de você optar por não participar de algum projeto centrado em dados de outra forma questionável, considere se você pode contribuir para a implementação de controles eficazes, como mecanismos de proteção de privacidade, processos de eliminação de imagens e contramedidas automatizadas que atenuem os aspectos mais questionáveis. Isso poderia permitir-lhe, em algum nível, reconciliar as suas convicções políticas com as suas ambições profissionais. 

No processo, você estaria fazendo sua parte para tornar o mundo um lugar melhor.