Big Data > Tendências

Tendências que moldarão o cenário de analytics nos próximos anos

Rod Fontecilla, cientista-chefe de dados da Unisys, afirma que ainda há muito para evoluir em projetos orientados a big data

14 de Março de 2016 - 18h38

Os projetos envolvendo ferramentas analíticas e grandes volumes de dados ganharam bastante foco ao longo dos últimos meses. Porém, a maturidade desse segmento ainda não chegou ao seu ápice. “Todo mundo diz que está usando analytics e big data, mas, de fato, ninguém está e não sabe como fazer”, observa Rod Fontecilla, cientista-chefe e vice-presidente de application services da Unisys.

Na visão do especialista, muitas organizações exageram com relação a seus projetos atuais nessa seara. Para ele,  a maioria das iniciativas que os executivos afirmam ser focadas em analytics ou big data não se enquadram realmente nesse contexto, e se tratam apenas de esforços atrelados ao uso de recursos básicos e orientados a dados do passado.

Fontecilla cita a importância de recorrer a ferramentas tecnológicas para resolver questões complexas de negócios e análise avançadas para criar cenários preditivos que ajudem na tomada de decisões que revertam resultados práticos. Nesse contexto, tendem a ganhar cada vez mais peso os algoritmos e os recursos atrelados a inteligência artificial nos processos de tomada de decisão.

O vice-presidente acredita que as disciplinas de análise de dados continuarão a figurar entre os conceitos mais procurados pelas organizações. Ele se baseia em um estudo da própria Unisys, que identificou que 45% dos entrevistados têm planos de adotar soluções de análise de dados em 2016, enquanto outros 24% apresentam interesse em adquirir ferramentas para este propósito.

A seguir, ele cita seis previsões que moldarão o cenário de analytics ao longo dos próximos meses.

1. Plataformas de análise in-memory (como SAP Hana e Apache Spark) continuarão em crescente adoção pelas empresas. De acordo com Fontecilla, isso ocorrerá não apenas por conta da performance, mas também devido à eficiência operacional, redução de custos e pela diminuição do tráfego de dados na infraestrutura I/O.

2. A ferramenta escolhida para gerenciar dados armazenados baseados em Hadoop será o Apache Parquet, que substituirá o Apache ORC. Na sua opinião, as iniciativas de código aberto apresentam vantagens por conta da facilidade de criptografia, um recurso analítico importante que promove inteligência e segurança – especialmente com o aumento da utilização do recurso de micro segmentação que mantém os dados confidenciais em comunidades separadas, não visíveis a todos os usuários e ambientes.

3. Alternativas em nuvem crescerão exponencialmente. Muitas empresas em certos segmentos, como finanças e saúde, além de diversas agências governamentais, hesitam em migrar para a nuvem informações confidenciais relacionadas aos seus negócios e clientes.

O vice-presidente pontua que os usuários vão começar a utilizar soluções chamadas de "analytics in a box" que rodam em um cluster Hadoop, composto por um servidor seguro, software de análise e outros recursos relacionados. Eles podem desenvolver aplicações analíticas e de negócios, utilizando dados confidenciais em um ambiente privado e seguro.

4. A Internet das Coisas (IoT) continuará a se transformar na Internet de Dados. Algumas estimativas apontam que até 2020 existirá algo em torno de 25 a 75 bilhões de dispositivos conectados e até 2025 este número deve saltar para 1 trilhão. A coleta e correlação dessas informações será, sem dúvida, um grande desafio. Os executivos que lideram a área de TI deverão criar soluções que atendam a este iminente tsunami de informações.

5. Soluções para a realização de análises de dados não estruturados se multiplicarão. Segundo a Forrester Research, as atuais soluções de análise de dados contam com uma defasagem na avaliação de informações não estruturadas de 30% em comparação com as estruturadas. Uma lacuna que será preenchida à medida que as necessidades de empresas e governos forem intensificadas, especialmente relacionadas a exigências de investigações e segurança nacional.

Os cientistas de dados e desenvolvedores de software terão de encontrar novas maneiras de integrar e observar as informações, a partir diferentes fontes: câmeras de vigilância, smartphones, áudios de conversas, mensagens de e-mail e tweets, apenas para citar alguns exemplos. As implicações da lei adicionam uma sensibilidade extra: o armazenamento e a análise não poderão ferir o conceito de preservação de provas legais.

6. O trabalho de analytics deve avançar de maneira acelerada e funcionar como um catalisador para a evolução da aprendizagem da análise cognitiva de máquinas e da inteligência artificial. Cada vez mais, sofisticadas tecnologias como as utilizadas pelo assistente pessoal Cortana, da Microsoft, permitirão que robôs analisem dados tão rapidamente que possam tomar as decisões corretas.

Essas capacidades avançadas conduzirão a transformação de serviços como, por exemplo, o Teladoc, que é um provedor de tele saúde baseado na interação com médicos, em um serviço totalmente automatizado, no qual sistemas operados por software tomam decisões médicas reais em alguns segundos, com base no histórico de pacientes analisados.