Segurança > Segurança de Dados

Inteligência artificial não é a panaceia para a segurança cibernética

Se confiarmos na aprendizagem da máquina para proteger nossas redes, precisamos aceitar algo: é tão fácil treinar uma máquina para reconhecer o malware como é para treinar outra máquina para vencê-la

22 de Agosto de 2017 - 14h10

Há pouco mais de um mês, um novo ataque cibernético afetou empresas no mundo todo. No Brasil, não foi diferente, com impacto em instituições como o Hospital de Câncer de Barretos.

Enquanto muito se discute sobre a extensão criminal deste tipo de evento e como tratá-la adequadamente dentro desta esfera de atuação, no universo de tecnologia a movimentação é bastante intensa no sentido de desenvolver mecanismos cada vez mais eficazes não só para prevenir, mas para bloquear e minimizar impactos deste tipo de ataque.

Um dos temas mais discutidos recentemente no mundo de tecnologia de informação, a inteligência artificial (IA), está sendo amplamente estudado para que seu melhor potencial seja aplicado em diferentes cenários, inclusive na luta contra o crime cibernético.

E aqui já gostaria de aprofundar um conceito interessante: o de inteligência aumentada — e não simplesmente inteligência artificial. De forma simples, o último conceito foca em “replicar” de forma tecnológica o que o ser humano é capaz de fazer hoje, o que não é pouco, muito menos simples ou explorado de forma exaustiva, mas tende a “automatizar” atividades cognitivas.

O primeiro conceito, que é o que começa a ser explorado de forma intensiva na academia e em situações de negócio, trata de aplicações onde se complemente as habilidades cognitivas dos seres humanos. E o potencial delas é ainda hoje muito desconhecido.

Mas, se nem a IA “tradicional” (se é que podemos chamar assim) já está madura, porque é que já se discute abordagens ainda mais inovadoras? Não seria melhor explorar o potencial de uma antes de iniciar a exploração de outra e correr o risco de não focarmos recursos de forma inteligente?

Resposta simples: por mais que a inteligência artificial não esteja madura, nós já encontramos formas de enganá-la e subjugá-la (sim, somos realmente muito criativos!).

Exemplo concreto: há cerca de duas semanas, numa convenção mundial sobre hacking, foi demonstrada uma simples aplicação baseada em um framework de desenvolvimento aberto (open source) chamado OpenAI, criado por uma empresa de pesquisa sem fins lucrativos, de mesmo nome, de Elon Musk, capaz de alterar o código de um malware de forma que sua existência não seja detectada por nenhuma solução de segurança do mercado.

A premissa adotada foi simples: todos os mecanismos de IA têm pontos cegos e esses pontos podem ser explorados por outras IAs. Ao introduzir pequenas mudanças num código de malware, ele foi capaz de ignorar medidas de segurança durante 16% do tempo, permanecendo funcional e indetectável.

Enganar inteligências artificiais e sua capacidade de reconhecer objetos (ou códigos, neste caso) é surpreendentemente simples. Os pesquisadores do Google conseguiram enganar o reconhecimento de imagem pela IA aplicando um gradiente "imperceptivelmente pequeno" a uma imagem de um urso-panda.

A mudança, irreconhecível aos nossos olhos, fez com que a IA tivesse mais confiança em seu erro do que na avaliação original de que a imagem era de um urso-panda. Isso já foi parte de um estudo documentado pela Universidade de Washington (em https://arxiv.org/pdf/1703.09793.pdf).

Isso não quer dizer que a aprendizagem da máquina e a AI não tenham seus nichos — não há nenhuma maneira melhor de processar a quantidade de dados quase inútil que temos e continuamos a gerar diariamente. Também é fantástico tornar a tecnologia algo mais fácil de usar, embora com limitações, como não entender idiomas e suas nuances como os seres humanos.

Se confiarmos na aprendizagem da máquina para proteger nossas redes, precisamos aceitar algo: é tão fácil treinar uma máquina para reconhecer o malware como é para treinar outra máquina para vencê-la.

Esses experimentos que enganam AI são preocupantes, e devem ser. A indústria de tecnologia está investindo muito dinheiro e tempo na aprendizagem de máquinas, mas ainda não pode escolher coisas com alguma certeza se você apenas “ajustar um pouco” os algoritmos.

Por conta desses avanços e das rápidas evidências de que, em muitos casos, a simples “automação” de nossa inteligência não resolve alguns problemas é que estão surgindo técnicas e tecnologias explorando a inteligência aumentada.

De qualquer forma, o investimento de tempo e estudo pessoal nos temas, linguagens e frameworks de inteligência artificial é extremamente importante e ainda tem um campo de aplicação, na maioria das vezes, ainda inexplorado.

São esses investimentos e estudos que vão dar o fundamento necessário para que empresas e profissionais de dados tenham mais condições de transformar seus negócios e a nossa sociedade, em um futuro próximo.

*Daniel Lázaro é diretor executivo para tecnologias de analytics da Accenture na América Latina.