Tecnologias Emergentes > I.A.

Segurança cibernética e inteligência aumentada (não inteligência artificial...)

Embora a indústria de tecnologia esteja investindo muito dinheiro e tempo IA, em muitos casos ela não resolve alguns problemas. Daí o surgimento de tecnologias explorando a inteligência aumentada

31 de Outubro de 2017 - 17h02

Há pouco mais de um mês, um novo ataque cibernético afetou novamente empresas no mundo todo. No Brasil, não foi diferente, com impacto em instituições como o Hospital de Câncer de Barretos.

Enquanto se discute sobre a extensão criminal desse tipo de evento e como tratá-la adequadamente dentro dessa esfera de atuação, no universo da tecnologia a movimentação é bastante intensa no sentido de desenvolver mecanismos cada vez mais eficazes não só para prevenir, mas para bloquear e minimizar impactos desse tipo de ataque.

Um dos temas mais debatidos recentemente no mundo de tecnologia de informação, a inteligência artificial (IA), está sendo amplamente estudado para que seu melhor potencial seja aplicado em diferentes cenários, inclusive na luta contra o crime cibernético.

Aqui gostaria de aprofundar um conceito interessante: o de inteligência aumentada — não simplesmente inteligência artificial. De forma simples, o último conceito se concentra em “replicar” de forma tecnológica o que o ser humano é capaz de fazer hoje, o que não é pouco, muito menos simples ou explorado de forma exaustiva, mas tende a “automatizar” atividades cognitivas.

O primeiro conceito, que é o que começa a ser explorado de forma intensiva na academia e em situações de negócio, trata de aplicações onde se complemente as habilidades cognitivas dos seres humanos. E o potencial delas é ainda hoje muito desconhecido.

Mas, se nem a inteligência artificial “tradicional” — se é que podemos chamar assim — já está madura, porque é que já se discute abordagens ainda mais inovadoras? Não seria melhor explorar o potencial de uma antes de iniciar a exploração de outra e correr o risco de não focarmos recursos de forma inteligente?

Resposta simples: por mais que a inteligência artificial não esteja madura, nós já encontramos formas de enganá-la e subjugá-la (sim, somos realmente muito criativos!).

Um exemplo concreto: E julho, durante a Defcon, conferência  mundial sobre hacking, nos Estados Unidos, foi demonstrada uma simples aplicação baseada em um framework de desenvolvimento aberto (open source) chamado OpenAI (http://openai.com), criado por uma empresa de pesquisa sem fins lucrativos, de mesmo nome, de Elon Musk, capaz de alterar o código de um malware de forma que sua existência não seja detectada por nenhuma solução de segurança do mercado.

A premissa adotada foi simples: todos os mecanismos de IA têm pontos cegos e esses pontos podem ser explorados por outros sistemas de IA. Ao introduzir pequenas mudanças num código de malware, ele foi capaz de ignorar medidas de segurança durante 16% do tempo, permanecendo funcional e indetectável.

Enganar sistemas de IA e sua capacidade de reconhecer objetos — ou códigos, neste caso — é surpreendentemente simples. Os pesquisadores do Google conseguiram enganar o reconhecimento de imagem pela IA aplicando um gradiente "imperceptivelmente pequeno" a uma imagem de um urso panda.

A mudança, irreconhecível aos nossos olhos, fez com que a IA tivesse mais confiança em seu erro do que na avaliação original de que a imagem era de um urso panda. Isso já foi parte de um estudo documentado pela Universidade de Washington (https://arxiv.org/pdf/1703.09793.pdf).

Isso não quer dizer que o aprendizado de máquina e a IA não tenham seus nichos — não há nenhuma maneira melhor de processar a quantidade de dados quase inútil que temos e continuamos a gerar diariamente. Também é fantástico tornar a tecnologia algo mais fácil de usar, embora com limitações, como não entender idiomas e suas nuances como os seres humanos.

Se confiarmos no aprendizado da máquina para proteger nossas redes, precisamos aceitar algo: é tão fácil treinar uma máquina para reconhecer o malware como é para treinar outra máquina para vencê-la.

Esses experimentos que enganam sistemas de IA são preocupantes. A indústria de tecnologia está investindo muito dinheiro e tempo na aprendizado de máquina, mas ainda não pode escolher coisas com alguma certeza se você apenas “ajustar um pouco” os algoritmos.

Por conta desses avanços e das rápidas evidências de que, em muitos casos, a simples “automação” de nossa inteligência não resolve alguns problemas é que estão surgindo técnicas e tecnologias explorando a inteligência aumentada.

De qualquer forma, o investimento de tempo e estudo pessoal nos temas, linguagens e frameworks de inteligência artificial é extremamente importante e ainda tem um campo de aplicação, na maioria das vezes, ainda inexplorado.

São esses investimentos e estudos que vão dar o fundamento necessário para que empresas e profissionais de dados tenham mais condições de transformar seus negócios e a nossa sociedade, em um futuro próximo.

*Daniel Lázaro é diretor executivo para tecnologias de analytics da Accenture na América Latina.