Big Data > Analytics

Poder de análise de dados precisa ser regulado, defende pesquisador

Professor da Universidade do Minho, Paulo Novais, diz que a capacidade da análise de big data não pode ficar em poder de uma companhia sem ser regulamentado, em alusão ao Facebook

05 de Dezembro de 2017 - 16h21

Cada indivíduo deixa rastros digitais ao navegar por redes sociais, comprar produtos pela internet ou permitir que aplicativos de celular acompanhem seus caminhos percorridos pelo mundo. Para o professor português Paulo Novais, da Universidade do Minho, em Portugal, esse poder de análise de grandes quantidades de dados precisa ser regulado, a fim de proteger direitos fundamentais. Ele participou de painel na ICT Week, evento que reúne pesquisadores, governo e empresas de tecnologia do Brasil e do exterior para discutir segurança cibernética, Internet das Coisas, serviços over the top (OTT) e tecnologia 5G.

“Nós geramos muitos e muitos dados, armazenados como big data”, disse Novais. “Eu costumo brincar, embora seja um assunto sério, que meu smartphone me conhece melhor do que minha mulher, porque eu faço de fato muito mais interações com ele do que com ela. Isso significa que esse smartphone tem provavelmente toda a informação suficiente para perceber quando estou triste ou enervado, estressado ou cansado. E obviamente: quanto mais se conhece, melhor se pode lidar com algo ou alguém.”

O professor destacou a capacidade da análise de big data para dividir e influenciar o público por convicções religiosas, opiniões políticas e origem racial ou étnica, por exemplo. “Basta pouco mais de meia dúzia de likes para se ver quem nós somos, o que fazemos, do que gostamos e o que pensamos”, comentou. “Imaginem o que é ter esse poder? Isso obviamente, em minha opinião, não pode ficar em uma companhia sem ser regulamentado. Essas questões têm que ser regidas por entidades estatais e nacionais.”

Para o diretor de Relações Governamentais e Políticas Públicas da IBM Brasil, Fabio Rua, a inteligência artificial é “um dos temas mais apaixonantes” do dia a dia da empresa norte-americana. “Lá na década de 1990, começamos os experimentos de confrontar [intelectualmente] seres humanos e máquinas”, recordou, ao citar a vitória do computador Deep Blue sobre o enxadrista russo Garry Kasparov, em 1997. “Já no século 21, tivemos o exemplo do sistema Watson em um jogo muito popular nos Estados Unidos, o Jeopardy, um desafio de perguntas e respostas, cujos dois maiores campeões em 2011 perderam para a máquina. A coisa evoluiu ao longo deste tempo, mas eu diria que a inteligência artificial ainda está engatinhando. Existem riscos, mas entendemos que as oportunidades suplantarão em muito os riscos hoje apresentados.”

O advogado Thiago Sombra, professor da Universidade de Brasília (UnB), apontou para as duas terminologias associadas à 4ª Revolução Industrial, baseada na integração digital da cadeia de valor produtiva: Indústria 4.0, de origem alemã, e Manufatura Avançada, introduzida pelos EUA. “Na realidade, isso mostra uma disputa comercial entre Europa e Estados Unidos, ignorando o Oriente, atualmente já responsável por todo o processo de desenvolvimento tecnológico em inteligência artificial, para atender necessidades do Ocidente.”

Sombra mencionou o domínio, por países asiáticos, das primeiras posições nos rankings de ensino de matemática, leitura e ciências do Programa Internacional de Avaliação de Alunos (Pisa, na sigla em inglês). “Esse é o ponto onde a inteligência artificial no Ocidente está atrás do que vem acontecendo no Oriente. É aqui que nós ficaremos a reboque da competição no processo de inovação conduzido pela Ásia, que se consolida a cada dia nesse papel.”

A pesquisadora Marilia Monteiro, da Mozilla Foundation, remeteu ao cenário de ficção científica estabelecido pelas Leis da Robótica do escritor e bioquímico Isaac Asimov. “Apesar de serem de 1950, essas regras são muito adequadas e atualizadas para a discussão de hoje em dia”, assegurou. “A primeira lei diz que um robô não pode ferir um ser humano ou permitir que sofra algum mal. A segunda lei é que um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que isso viole a primeira lei. A terceira lei é que um robô deve preservar sempre a sua própria existência, desde que tal proteção não entre em conflito com as leis anteriores. E a Lei Zero, que foi inserida posteriormente por Asimov, indica que, em hipótese nenhuma, em circunstância alguma, um robô pode fazer mal à humanidade.”

O analista de políticas Lofred Madzou, do Conselho Digital Francês, ressaltou que a diversidade de plataformas online dificulta a determinação de um quadro regulatório geral — problema enfrentado pela Europa. Já a coordenadora-geral de Assuntos Cibernéticos do MCTIC, Luana Borges, colocou como desafio a assimetria de informação e conhecimento existente no ambiente digital.