Home  >  Negócios

Como o Google quer garantir uma inteligência artificial ética e justa

Empresa explica como quer combater os maiores problemas que o desenvolvimento de AI enfrenta

Scott Carey | Computerworld UK

12/11/2018 às 11h28

google
Foto: Shutterstock

Após o anúncio no início desta semana das ferramentas de inteligência artificial AI Hub e Kubeflow Pipelines do Google Cloud, Rajen Sheth, diretor de gerenciamento de produtos de Cloud AI, descreveu como o gigante de buscas está trabalhando para garantir que seu trabalho de AI seja ético e justo.

Em um post na semana passada intitulado "dirigindo o rumo certo para a IA", ele descreveu o que é visto como os principais desafios do setor a serem superados, a fim de tornar a AI não apenas uma realidade, mas uma questão que é para o bem da sociedade.

O tema foi abordado sob quatro cabeçalhos principais:

1. Viés injusto: "Como podemos ter certeza de que nossos modelos de machine learning tratam cada usuário de forma justa e justa?"

2. Interpretabilidade: "Como podemos tornar a AI mais transparente, para que possamos entender melhor suas recomendações?"

3. Mudando a força de trabalho: "Como podemos aproveitar de forma responsável o poder da automação, garantindo que a força de trabalho de hoje esteja preparada para o amanhã?"

4. Fazendo o bem: "Finalmente, como podemos ter certeza de que estamos usando AI para sempre?"

Viés injusto

Envolvendo-se com cada um deles por vez, o primeiro sugere que preconceitos injustos ou de confirmação devem ser enfrentados "em múltiplas frentes", começando pela conscientização.

2019 tendências

"Para promover uma compreensão mais ampla da necessidade de justiça em tecnologias como machine learning, criamos recursos educacionais como ml-fairness.com e o recém-anunciado módulo de justiça em nosso curso intensivo de educação em ML", escreveu.

O Google também está incentivando a documentação completa "como um meio de entender melhor o que acontece dentro de uma solução de machine learning". No Google, isso assume a forma de 'cartões-modelo': "um formato padronizado para descrever metas, premissas, métricas de desempenho e até considerações éticas de um modelo de machine learning."

Ferramentas de documentação incorporada do Google Cloud, como o Guia ML inclusivo, integrado ao AutoML, e o TFOR (TensorFlow Model Analysis) e a ferramenta What-If ajudam com isso.

"Estou orgulhoso dos passos que estamos dando, e acredito que o conhecimento e as ferramentas que estamos desenvolvendo farão um longo caminho para tornar a AI mais justa", disse ele, antes de reiterar que esse é um problema para toda a indústria abordar.

"Nenhuma empresa sozinha pode resolver um problema tão complexo sozinho. A luta contra o preconceito injusto será um esforço coletivo, moldado pela contribuição de uma série de partes interessadas, e estamos comprometidos em ouvir. Como o nosso mundo continua a mudar, nós continue a aprender ", acrescentou.

Interpretabilidade

Em seguida é a questão da interpretabilidade, mais conhecido como o problema do algoritmo 'caixa preta'

"Desde a sua criação, muitos algoritmos de deep learning têm sido tratados como caixas-pretas, pois mesmo seus criadores lutam para articular precisamente o que acontece entre a entrada e a saída. Não podemos esperar ganhar a confiança das pessoas se continuarmos tratando a AI como uma caixa preta", disse o executvio, embora admita que as redes neurais, por sua natureza, são quase impossíveis de serem examinadas.

Enquanto Sheth acredita que a indústria progrediu para estabelecer as melhores práticas para obter melhor interpretabilidade, ele realmente se aprofunda nos esforços do Google, começando pela classificação das imagens.

"Por exemplo, trabalhos recentes do Google AI demonstram um método para representar conceitos amigos do homem, como pelos listrados ou cabelos cacheados, então quantificar a prevalência desses conceitos dentro de uma determinada imagem", escreveu ele. "O resultado é um classificador que articula seu raciocínio em termos de recursos mais significativos para um usuário humano. Uma imagem pode ser classificada como zebra, por exemplo, devido em parte a altos níveis de recursos" listrados "e níveis comparativamente baixos de" bolinhas", exemplificou.

"De fato, os pesquisadores estão experimentando a aplicação dessa técnica no diagnóstico de retinopatia diabética, tornando a produção mais transparente - e até permitindo que o modelo seja ajustado quando um especialista discorda de seu raciocínio."

Isso se alinha com o que Lord Clement-Jones, presidente do Comitê de Inteligência Artificial da Câmara dos Lordes, disse ao portal Techworld. "Esse tipo de área muito sensível que achamos deveria ter explicabilidade ex ante clara no mais alto nível de sensibilidade, ou pelo menos explicabilidade após o evento, e achamos que é justo e certo que isso seja explicável e transparente. Mas há outros em que esse nível de transparência pode não ser tão necessário", disse.

Mudando a força de trabalho

A próxima edição da lista de checagem de Sheth é muito importante e desafiadora: a ameaça da AI eliminar enormes quantidades de empregos humanos. Sua resposta é bastante rudimentar para a indústria neste momento e reflete de perto a de outras importantes figuras da indústria como Satya Nadella, CEO da Microsoft, e Bill Gates, de que AI aumentará o número de empregos e não substituirá funções de humanos.

"Não vejo o futuro da automação como um jogo de soma zero", escreveu Sheth.

"Também é importante lembrar que trabalhos raramente são monolíticos. A maioria consiste em inúmeras tarefas distintas, variando de criatividade de alto nível a tarefas repetitivas, cada uma das quais será afetada pela automação em um grau único. Na radiologia, por exemplo, os algoritmos são desempenhando um papel de apoio, ao automatizar a avaliação de sintomas simples e bem conhecidos, um especialista humano pode se concentrar em tarefas mais desafiadoras, enquanto trabalha mais rápido e de forma mais consistente."

Em termos de soluções práticas, o Google.org estabeleceu um fundo de US$ 50 milhões para apoiar organizações sem fins lucrativos que se preparam para o futuro do trabalho, com foco em: fornecer treinamento e educação ao longo da vida para manter os trabalhadores sob demanda; conectar funcionários em potencial com oportunidades de trabalho ideais com base em habilidades e experiência; e apoiar trabalhadores em empregos de baixos salários.

Fazendo o bem

Por fim, em um ponto mais amplo da ética, Sheth escreve sobre como as empresas podem garantir que o uso da tecnologia da AI seja "para sempre".

Ele começa apontando para alguns dos estudos de caso AutoML mais amigáveis ​​ao Google.

"Mas há uma enorme área cinzenta, especialmente com áreas controversas como AI para armamento, que representa uma aplicação dessa tecnologia que decidimos não seguir como declarado em nossos princípios de inteligência artificial", admitiu ele. "Nossos clientes se encontram em uma variedade de lugares ao longo do espectro de possibilidades em casos de uso controversos, e estão procurando por nós para ajudá-los a pensar sobre o que a AI significa para seus negócios."

Inteligencia artificial

O Google Cloud contratou a especialista em tecnologia independente Shannon Vallor como consultora e está se concentrando em "programas educacionais internos sobre as melhores práticas em ética da AI". No entanto, ele não vai muito além da ideia de que a ética é uma prioridade para o Google, em vez de detalhar como isso garante que os princípios éticos sejam incorporados ao design do modelo.

"Por exemplo, princípios de design ético podem ser usados ​​para nos ajudar a construir modelos mais justos de machine learning. A análise ética cuidadosa pode nos ajudar a entender quais usos potenciais da tecnologia da visão são inadequados, prejudiciais ou intrusivos. E as práticas éticas de tomada de decisão podem nos ajudar a raciocinar melhor sobre desafios de dilemas complexos e de valor - como priorizar a transparência ou a privacidade uma aplicação de IA em que fornecer mais de um pode significar menos do outro."

Apoio da indústria

Em conclusão, Sheth disse que, diante de todas incertezas que temos pela frente, uma coisa é clara: o futuro da IA ​​será construído muito mais do que a tecnologia. "Esse será um esforço coletivo, igualmente dependente de ferramentas, informações e desejo de causar um impacto positivo no mundo."

"É por isso que isso não é uma declaração - é um diálogo. Apesar de estarmos ansiosos para compartilhar o que aprendemos depois de anos na vanguarda dessa tecnologia, ninguém conhece as necessidades de seus clientes melhor do que você e as duas perspectivas vai desempenhar um papel vital na construção da AI ​​que é justa, responsável e confiável, afinal de contas, cada indústria está enfrentando sua própria revolução da AI, e é por isso que toda indústria merece um papel para orientá-la."