Tecnologias Emergentes > I.A.

Por que a inteligência aumentada é mais 'tech-friendly' que a IA?

As aplicações de inteligência artificial são pouco viáveis hoje porque retiram o ser humano da jogada, enquanto a inteligência aumentada dá a ele o suporte necessário para suas tomadas de decisão

30 de Novembro de 2017 - 11h13

Inteligência artificial (IA) está em alta. Uma infinidade de empresas tem investido na tecnologia e o Gartner estima que quase todos os softwares terão IA integrada até 2020. Segundo a consultoria, essa deve ser uma das cinco prioridades de investimento para mais de 30% dos CIOs no mundo.

No entanto, muito do que temos hoje não pode ser considerado IA, mas sim inteligência aumentada. A diferença pode parecer pequena, mas as aplicações desses conceitos funcionam de forma bastante distinta. A inteligência artificial é a ideia de um sistema que reproduz a cognição humana e funciona de forma autônoma. Já a inteligência aumentada tem como base sistemas com tecnologia cognitiva que apoia o ser humano, seus planejamentos e análises.

As duas vertentes tiveram início na década de 1950, mas o termo inteligência artificial passou a ser aplicado de forma mais ampla, nomeando inclusive alguns produtos que são resultado de pesquisas em inteligência aumentada. E é nessa tecnologia que aposto para o futuro. Isso por que o ser humano não será retirado da equação, ou seja, do momento da decisão.

Há muitos riscos em uma inteligência artificial que, de fato, tome decisões por si só. Há, inclusive, uma infinidade de filmes apocalípticos sobre o tema. No mais famoso — O Exterminador do Futuro — a IA de uma empresa chamada Skynet se rebela e passa a destruir o mundo. Guardadas as devidas proporções, fantasias e viagens no tempo, há de se convir que o ser humano precisa ter controle sobre a tecnologia. O físico Stephen Hawking já disse que a inteligência artificial pode acabar com a humanidade se não soubermos controlá-la.

Quando deixamos de lado o filme estrelado por Arnold Schwarzenegger e pensamos em algo palpável e próximo à nossa realidade, como os carros autônomos, os perigos reais começam a surgir. No caso de um acidente iminente e sem chances de ser evitado, por exemplo, a máquina deverá escolher quem será ferido com mais gravidade ou até morrer. Como lidar com isso? Quem será responsável pelo acidente? Como as montadoras e seguradoras devem agir nesse caso?

Os dilemas morais, éticos, tecnológicos e de responsabilidade existem e precisarão ser enfrentados com muito cuidado se algum dia chegarmos a esse patamar. E esse tipo de questão torna as aplicações de IA pouco viáveis, porque retiram o ser humano da jogada e o substitui quase que completamente.

Já a inteligência aumentada se aproxima, de fato, do que há hoje. Podemos usá-la em aplicações que verificam informações online sobre diagnósticos e apoiam o parecer de um médico ou em análises financeiras parcialmente interpretadas que suportam tomadas de decisão. Esse tipo de uso, com base na análise de dados e que caminha lado a lado com a decisão humana, é mais simples, eficiente e seguro.

Acredito que o ser humano é — e sempre será — essencial para tomar decisões. As máquinas não são capazes de captar e interpretar todas as nuances das nossas relações, ou mesmo ter algo próximo à inexplicável intuição. Isso é inerente da nossa espécie. Esse é o uso que precisamos de imediato, e é nele que devemos investir, ao menos enquanto não soubermos como mitigar os riscos da inteligência artificial e transformá-la em algo que não sairá do controle. 

* Marcelo Rezende, Country Manager da Qlik no Brasil.