Post on 19-Oct-2014
description
Tendências de Inovações Tecnológicas para Analítica de Negócios
Outubro/2013
Relatório preparado pela Cysneiros Consultores Associados para a Secretaria de Ciência e Tecnologia do Estado de Pernambuco.
Pesquisador ResponsávelTecnologias da Informação e Comunicação: José Carlos Cavalcanti
Sumário
1 Introdução........................................................................................................................5
2 Análise das Tendências de Inovação para Tecnologia da Informação e Comunicação (TIC)6
2.1.1 Análise da Tecnologia de Analítica de Negócios............................................................................102.1.1.1 Como se classifica a Analítica?.................................................................................................112.1.1.2 Como tem evoluído a Analítica em termos de inovações?........................................................12
2.2 Macrotendências em Analítica............................................................................................16
2.3 Recomendações às Empresas de Tecnologia da Informação e Comunicação (TIC)......242.3.1 Gerando Oportunidades em Analítica.............................................................................................29
3 Conclusão.......................................................................................................................35
4 Referências.....................................................................................................................36
5 Glossário e Acrônimos...................................................................................................37
Índice de Tabelas
Tabela 1. Dados Tradicionais x Big Data.............................................................................................................14
Índice de Figuras
Figura 1. Demanda de profundo talento analítico nos EUA pode ser 50 a 60% maior que sua oferta projetada
para 2018.................................................................................................................................................................7
Figura 2. Etapas de maturidade de otimização de informação para melhoria no desempenho dos negócios.....12
Figura 3. Forma tradicional de processamento de dados para Analítica.............................................................13
Figura 4. Arquitetura Moderna de Dados para Analítica.....................................................................................15
Figura 5. Justificativa da IBM porque Analítica é importante..............................................................................17
Figura 6. Investimentos e posição da IBM em Analítica.......................................................................................17
Figura 7. Estratégias de Analítica que possibilitam materializar com sucesso capacidades organizacionais
voltadas ao crescimento.........................................................................................................................................18
Figura 8. Vendas mensais da Ford Figura 9. Google Trends da Ford..............................................21
Figura 10. Pergunta e resposta do WolframAlpha................................................................................................22
Figura 11. Pergunta e resposta completa do WolframAlpha................................................................................23
Figura 12. Quadrante Mágico do Gartner para Inteligência de Negócios e Analítica.........................................26
Figura 13. Forrester Wave TM : Big Data Predictive Analytics Solutions, Q 1 2013.............................................28
Figura 14. Crescimento do termo Analytics no Google Trends............................................................................30
Figura 15. Matriz- Questões chave a serem enfrentadas pela analítica...............................................................30
Figura 16. Estágios de Maturidade Analítica........................................................................................................33
1 Introdução
Este relatório foi produzido no âmbito no projeto CICTEC - Centro de Inteligência
Competitiva para Parques Tecnológicos, e apresenta o panorama da Inovação Tecnológica
para o setor de Tecnologias da Informação e Comunicação (TICs) em Pernambuco, no Brasil
e no Mundo, suas principais características, as tendências em suportes e ferramentas
tecnológicas, e as oportunidades de inovação tecnológica para as empresas pernambucanas.
Nele será abordada a inovação tecnológica em Analítica para o setor de TICs e as potenciais
tendências de inovação que esta nova tecnologia oferece. Também analisaremos as
oportunidades para as empresas do Porto Digital e ilustraremos o uso de ferramentas tais
como o Google Trends.
2 Análise das Tendências de Inovação para Tecnologia da Informação e
Comunicação (TIC)
Vivemos hoje num mundo inundado por uma quantidade de dados sem precedentes.
Redes (ou Mídias) Sociais tais como Facebook, Twitter, YouTube, Linkedin, e outros
serviços baseados na Internet têm levado a uma explosão de dados em nosso cotidiano.
Setores como varejo, telecomunicações, cuidados com saúde, aerolinhas, hospitalidade e
mesmo a indústria dos esportes, estão coletando e analisando massivas quantidades de dados.
As ferramentas de Analítica (tecnologia “da descoberta e a comunicação de padrões
- com significado - em dados) podem ajudar as empresas a sintetizar estes dados em insights
(discernimentos) que podem aumentar tanto receitas dos negócios quanto eficiências das
organizações. O maior desafio tem sido fazer um ótimo uso destes dados. Em um relatório
publicado em 2011, intitulado “Big Data: the next frontier for innovation, competition and
productivity”, publicado pelo McKinsey Institute, da McKinsey & Company, apontava-se
que uma significativa restrição em materializar o efetivo valor de big data seria a falta de
talento, particularmente pessoas com profunda expertise em estatística e aprendizado de
máquina, e os gerentes e analistas que sabem como operar empresas ao usar insights
(discernimentos) a partir de big data.
Segundo aquele relatório, nos EUA se espera que big data se torne rapidamente um
determinante chave na competição entre os segmentos econômicos. O Instituto projetou que
a demanda para posições em Analítica, em um mundo de big data, possa exceder a oferta
sendo produzida nas tendências presentes de 140.000 a 190.000 posições (Figura 20). Além
do mais, este tipo de talento é difícil de produzir, levando anos de treinamento no caso de
alguém com habilidades matemáticas. Apesar da análise quantitativa do relatório ter usado
os EUA como ilustração, os autores acreditam que as restrições neste tipo de talento serão
globais, com a cautela de que algumas regiões podem ser capazes de produzir a oferta que
preencha os gaps em outras regiões.
Adicionalmente o relatório projeta uma necessidade de 1,5 milhões de gestores e
analistas nos EUA que podem perguntar as corretas perguntas e consumir os resultados da
análise de big data efetivamente. Os EUA – e outras economias enfrentando escassez
semelhante – não podem preencher este gap simplesmente ao mudar os requisitos de
graduação, e esperar por pessoas graduarem com mais habilidades, ou ao importar talento
(apesar disto constituir importante ação a tomar). Será necessário, por seu turno, retreinar
uma quantidade significativa de talento; felizmente este nível de treinamento não requer anos
de estudo dedicado.
Figura 1. Demanda de profundo talento analítico nos EUA pode ser 50 a 60% maior que sua oferta projetada para 2018
Fonte: Mckinsey (2011).
Além da questão do talento para analisar big data, existem outras questões que afetam
a capacidade de produzir Analítica, tais como a segurança inerente ao tratamento do big data.
Em adição, a crescente importância econômica do big data também levanta um número de
questões legais, especialmente quando confrontadas com o fato de que dados são
fundamentalmente diferentes de muitos outros ativos. Os dados podem ser perfeita e
facilmente combinados com outros dados. A mesma porção de dado pode ser usada
simultaneamente por mais de uma pessoa. Todas estas são características únicas dos dados
quando comparadas com ativos físicos.
Questões sobre direitos de propriedade intelectual associadas aos dados terão que ser
respondidas para que se possa produzir Analítica. Afinal, quem é o dono do dado e que
direitos vêm associados com a base de dados? O que define um “uso justo” dos dados?
Quem é responsável quando um conjunto de dados é impreciso e leva à consequências
negativas? Tais tipos de questões legais precisam de clarificação, provavelmente ao longo do
tempo, para capturar o potencial completo do big data.
Mas que outros determinantes têm que ser levados em consideração para uma efetiva
Analítica de big data? O relatório da McKinsey aponta algumas, tais como:
- Tecnologia e Técnicas. Para capturar o valor de big data, as organizações terão que
empregar novas tecnologias (exemplo, armazenamento, computação, e software de analítica)
e técnicas (i.e., novos tipos de análises). O leque de desafios de tecnologia e o conjunto de
prioridades para enfrenta-las vão diferir dependendo da maturidade dos dados da instituição.
Sistemas legados e padrões e formatos muito frequentemente previnem tanto a integração de
dados quanto a Analítica mais sofisticada que criam valor a partir de big data. Novos
problemas e crescente poder computacional irão expandir o desenvolvimento de novas
técnicas analíticas. Há também a necessidade de inovação em tecnologias e técnicas que irão
ajudar os indivíduos e organizações para integrar, analisar, visualizar, e consumir a crescente
torrente de big data;
- Mudança Organizacional e Talento. Líderes organizacionais frequentemente
padecem do entendimento do valor de big data bem como despertar o seu valor. Em setores
competitivos isto pode ser um calcanhar de Aquiles para algumas empresas desde que seus
competidores, bem como novos entrantes, alavanquem big data para competir contra elas.
Ademais, muitas organizações hoje não têm o talento para extrair insigths (discernimentos)
de big data. Muitas organizações não estruturam fluxos de trabalho e incentivos de forma
que otimize o uso de big data para tomar melhores decisões e ações mais informadas.
- Acesso aos dados. Para proporcionar oportunidades transformadoras, empresas irão
de forma crescente necessitar integrar informação a partir de múltiplas fontes. Em alguns
casos, as organizações irão estar aptas a comprar acesso aos dados. Em outros casos, no
entanto, ganhar acesso a dados de terceiros não é algo fácil. As fontes de dados de terceiros
não são compartilhados. Algumas vezes os incentivos não estão alinhados para encorajar os
interessados a compartilhar dados. Um interessado que detém uma certa base de dados pode
considera-la ser a fonte de uma vantagem competitiva chave e, então, estaria relutante a
compartilhar com outros interessados. Outros interessados devem achar modos para oferecer
proposições de valor atrativas para os detentores de dados valiosos;
- Estrutura Industrial. Setores com um relativo hiato de intensidade competitiva e
transparência de desempenho, ao longo de indústrias onde as cestas de lucros são altamente
concentradas, são prováveis de serem lentas em alavancar plenamente os benefícios de big
data. Por exemplo, no setor público, onde tende a ter um hiato de pressão competitiva que
limita a eficiência e a produtividade; como resultado, o setor enfrenta barreiras mais difíceis
que outros setores no modo como capturar o valor potencial de usar big data. O setor de
saúde dos EUA é outro exemplo de como a estrutura de uma indústria impacta em quão fácil
pode ser extrair valor de big data. Este é um setor que não somente tem um hiato de
transparência em desempenho em termos de custo e qualidade, mas também uma indústria
em que pagantes irão ganhar (de poucos não pagantes de tratamento desnecessário) pelo uso
de dados clínicos. No entanto, os ganhos oriundos para pagantes irão vir às expensas dos
provedores (poucas atividades médicas para pagar) de quem os pagadores teriam de obter de
big data. Como os exemplos sugerem líderes de organizações e fazedores de políticas terão
de considerar como as estruturas industriais podem evoluir num mundo de big data se elas
vão determinar como otimizar a criação de valor ao nível das empresas individuais, setores e
economia como um todo.
Tendo estes elementos em consideração, as questões que emergem são as seguintes.
O que, na realidade, são as ferramentas de Analítica, e quais são aquelas que estão
dominando este mercado? Quais são as tendências tecnológicas relacionadas com Analítica
de big data? E, finalmente, como o Brasil (e Pernambuco em particular) pode se beneficiar
destas tendências? O objetivo principal deste documento é tentar dar respostas a estas
questões, procurando evidenciar os aspectos mais relevantes de um mercado praticamente
novo, que se utiliza de metodologias e técnicas tradicionais, mas que foram totalmente
transformadas a partir dos processos de automação impactados pelas tecnologias de
informação e comunicação modernas.
2.1.1 Análise da Tecnologia de Analítica de Negócios
Inicialmente, o que é Analítica? Analítica (que vem do termo em inglês Analytics)
“é a descoberta e a comunicação de padrões (com significado) em dados”. Especialmente
valorosa em áreas com informações gravadas, a Analítica se apoia na aplicação simultânea de
estatística, programação computacional e pesquisa para quantificar desempenho. Analítica
frequentemente valoriza a visualização de dados para comunicar insights (discernimentos)
(http://en.wikipedia.org/wiki/Analytics).
As empresas comumente aplicam analítica aos dados de negócios para descrever,
prever, e melhorar o desempenho dos negócios. Especificamente, arenas de analítica incluem
gestão da decisão empresarial, analítica do varejo, diversidade de armazenamento e
otimização de estoques, otimização de marketing e analítica de marketing mix, analítica web,
tamanho da força de vendas e otimização, modelagem de preço e promoção, ciência
preditiva, análise de risco de crédito, analítica de fraudes. Como analítica requer computação
extensiva (usando técnicas de big data), os algoritmos e software usados para analítica
estimulam a maioria dos métodos em ciência da computação, estatística e matemática.
Analítica é como uma moeda de dois lados. Num lado, ela usa modelos descritivos e
preditivos para obter conhecimento valioso a partir dos dados – analítica de dados. Por outro
lado, analítica usa este insight (discernimento) para recomendar ação ou para guiar a tomada
de decisão – comunicação. Logo, analítica não é muito relacionada com análises individuais
ou níveis de análise, mas com a metodologia como um todo. Há uma tendência pronunciada
de usar o termo analítica em ambientes de negócios, por exemplo, usando analítica de textos
versus uma mineração de textos mais genérica para enfatizar esta ampla perspectiva.
2.1.1.1 Como se classifica a Analítica?
Analítica é uma tecnologia que não é nova, mas vem sendo fortemente impactada a
partir de inovações oriundas das recentes tecnologias de informação e comunicação - TICs.
De forma esquemática, é possível classificar a analítica em quatro etapas (ascendentes, em
termos de importância), como mostra a Figura 01 à frente.
Numa primeira etapa, as organizações adquirem habilidades e competências de
Analítica Descritiva, onde elas se utilizam de métodos, técnicas e ferramentas
computacionais para descobrir o que aconteceu em suas atividades habituais. Uma segunda
etapa é denominada de Analítica Diagnóstica, onde as organizações passam a desenvolver
capacidades de descoberta e avaliação do porque de determinados eventos terem acontecido.
Nestas duas etapas o que se constata é que as organizações estão se utilizando de mecanismos
de hindsight, ou seja, da percepção do significado e a natureza dos eventos após eles terem
acontecido. Quando são dominadas estas etapas, e as organizações avançam em suas
habilidades e competências para “antecipar” eventos, elas passam a utilizar mecanismos de
insights (discernimentos), ou seja, capacidades para discernir a natureza de uma situação.
Daí, elas podem estar aptas a iniciar a terceira etapa que é a de Analítica Preditiva, de forma
a tentar prever o que poderá acontecer em suas atividades. A partir deste estágio as
organizações podem adquirir habilidades e competências para a quarta etapa que é a de
Analítica Prescritiva, onde elas podem vislumbrar (e agir) de forma a direcionar os fatos e
eventos tal como elas acharem conveniente. Neste estágio elas já estarão fazendo uso de
mecanismos de foresight, ou seja, da percepção do significado e a natureza de eventos antes
que eles aconteçam.
Como ressaltado na Figura 01, à medida que as organizações avançam em suas etapas
de Analítica, elas vão otimizando o uso de suas informações, o que representa, por sua vez,
uma agregação de valor aos negócios (que pode levar à obtenção de vantagens competitivas
sustentáveis), bem como um incremento da dificuldade em galgar tais etapas.
Figura 2. Etapas de maturidade de otimização de informação para melhoria no desempenho dos negócios
2.1.1.2 Como tem evoluído a Analítica em termos de inovações?
Tradicionalmente o processamento de dados para fins de analítica segue basicamente
o seguinte modelo estático (ver Figura 02 à frente). As empresas criam uma modesta
quantidade de dados estruturados com modelos de dados estáveis via aplicações empresariais,
tais como sistemas de informações como ERP (Enterprise Resource Planning), CRM
(Customer Relationship Management) e sistemas financeiros. Ferramentas de integração de
dados são usadas para extrair, transformar e carregar (ETL- Extract, Transfer and Load)
dados das aplicações e bancos de dados transacionais para uma área onde ocorra a
normalização dos dados e verificação de qualidade, e os dados são modelados em linhas e
tabelas. Os dados modelados e limpos são então carregados num armazém de dados (data
warehouse). Esta rotina usualmente ocorre numa base temporal – diariamente ou
semanalmente, e algumas vezes frequentemente (Kelly, 2012).
A partir daí, os gestores do “data warehouse” criam e programam relatórios regulares
que rodam contra os dados normalizados armazenados na warehouse, os quais são entregues
aos responsáveis pelos negócios. Eles também criam painéis e outras ferramentas de
visualização limitadas para executivos e gestores. Os analistas de negócios, enquanto isso,
usam engenhos/ferramentas de analítica para rodar analítica avançada a partir da warehouse,
ou mais frequentemente, contra amostras de dados migrados para um “data mart” local
devido ás limitações de tamanho. Os usuários (não-especialistas em TICs) desenvolvem a
visualização básica dos dados e analítica limitada contra os data warehouse via ferramentas
de inteligência de negócios (BI- Business Intelligence) de vendedores, como a SAP
BusinessObjects (da empresa SAP: www.sap.com) e a IBM Cognos (da IBM:
www.ibm.com). Volumes de dados em data warehouses tradicionais raramente excedem
múltiplos terabytes (e mesmo esta quantidade é rara), já que grandes volumes de dados
sobrecarregam os recursos da warehouse e degradam o desempenho (Kelly, 2012).
A emergência do Big Data tem mudado a face do processamento de dados para
Analítica. Ou seja, o advento da web, dos artefatos móveis e outras tecnologias, tem causado
uma mudança fundamental para a natureza dos dados. Como apontado no Relatório de
Tendências de Big Data, Big Data tem importantes e distintivas qualidade que os diferenciam
dos dados corporativos tradicionais. Não sendo mais centralizados, altamente estruturados e
facilmente manuseados, agora, mais do que nunca, os dados são altamente distribuídos,
frouxamente estruturados (se estruturados de alguma forma), e crescentemente grandes em
volumes (Tabela 01 à frente).
Figura 3. Forma tradicional de processamento de dados para Analítica
Fonte: Wikibon 2011
Tabela 1. Dados Tradicionais x Big Data
Dados Tradicionais BIG DATA
Gigabytes para Terabytes PETABYTES PRA EXABYTES
Centralizados DISTRIBUÍDOS
Estruturados SEMI ESTRUTURADOS E DESESTRUTURADOS
Modelo estável de dados ESQUEMAS FLAT
Inter-relacionamentos complexos conhecidos POUCOS INTER-RELACIONAMENTOS COMPLEXOS
Fonte: Wikibon 2011
No presente há um numero de enfoques para processar e analisar big data, mas a
maioria tem algumas características comuns. Nominadamente, eles levam vantagem de
hardware para escalar, e de técnicas de processamento paralelo; empregam capacidades de
armazenamento de dados não-relacionais de forma a processar dados semi estruturados e
desestruturados; e aplicam analítica avançada e tecnologia de visualização para big data para
produzir insights para os usuários finais.
Segundo Kelly (2012), podem ser identificados três enfoques de big data que estão
transformando a analítica dos negócios e os mercados de gestão de dados: Hadoop, NoSQL e
Massively Parallel Analytics Database.
Hadoop é uma estrutura open source (de código aberto) para processar, armazenar e
analisar massivas quantidades de dados distribuídos e paralelos. Originalmente criado por
Doug Cutting, do Yahoo!, Haddop foi inspirado pelo MapReduce, uma função definida por
usuário desenvolvida no Google no início dos anos 2000 para indexar a Web. Foi projetado
para lidar com petabytes e exabytes de dados distribuídos sobre múltiplos nós em paralelo.
Clusters Hadoop rodam em hardware barato de modo que projetos podem ser escalados sem
quebrar o banco. Hadoop é agora um projeto da Apache Software Foundation, onde centenas
de contribuintes continuamente melhoram a tecnologia principal.
NoSQL (Not Only SQL, sendo SQL a contração de Structured Query Language, uma
linguagem de programação de propósito especial) é um novo estilo de banco de dados que
emergiu, tal como Hadoop, e processa grandes volumes de dados multi-estruturados. No
entanto, se Hadoop é adepto a suportar análise histórica de grande escala por batelada, bancos
de dados NoSQL têm como objetivo servir dados discretos armazenados entre grandes
volumes de dados multi-estruturados para o usuário final e para aplicações de big data
automatizadas. Esta capacidade é ausente na tecnologia de banco de dados relacionais, que
simplesmente não podem manter níveis de desempenho de aplicações na escala de big data
Uma nova geração de data warehousing está surgindo. Ao contrário dos data
warehouses tradicionais, esta nova geração é capaz de rapidamente ingerir grandes
quantidades de dados principalmente estruturados com um mínimo de modelagem requerida,
e podem escalar para acomodar múltiplos terabytes, e algumas vezes exabytes, de dados. As
características fundamentais incluem: a) Massively parallel processing (MPP) capabilities
(capacidades de processamento massivamente paralelo); Shared-nothing architectures
(arquiteturas sem compartilhamento); c) Columnar architectures (arquiteturas colunares); d)
Advanced data compression capabilities (capacidades de compressão avançada de dados); e)
Commodity hardware (hardware comum); f) In-memory data processing (processamento de
dados In-memory). A Figura 4 à frente tenta ilustrar esta nova geração de data warehousing
para permitir novas técnicas de analítica.
Figura 4. Arquitetura Moderna de Dados para Analítica
Fonte: Wikibon, 2013
2.2 Macrotendências em Analítica
Os negócios de hoje têm uma vasta quantidade de dados disponíveis de um número
crescente de fontes. Enquanto a maioria das organizações certamente apreciam os benefícios
potenciais que tais dados permitem, muitos enfrentam dificuldades em efetivamente
transformar informação em discernimentos acionáveis. No entanto, uma estratégia efetiva de
analítica pode ajudar no alcance de crescimento topo de linha, na redução de custos
desnecessários e no aumento da satisfação dos consumidores.
De forma a ajudar as organizações a perseguirem insights sobre seus clientes, as
empresas fornecedoras de ferramentas de analítica não somente estão vendendo tais
ferramentas, mas vêm identificando formas e metodologias para que as organizações
adquiram habilidades e competências em promover suas próprias estratégias de analítica.
A IBM (www.ibm.com), uma das empresas líderes neste novo mercado de analítica, e
que vem demonstrando seu profundo compromisso com esta área a partir de seus
investimentos e posições recentes (ver Figuras 05 e 06), é uma destas empresas que
reconhece o hiato de talentos no mercado de analítica, e vem desenvolvendo e capacitando
empresas para o uso de ferramentas de analítica.
Neste sentido, além de vender ferramentas como as de SPSS (pacote de software
usado para análise estatística inicialmente aplicado em ciências sociais: http://www-
01.ibm.com/software/analytics/spss/products/statistics/), a IBM tem desenvolvido estruturas
conceituais, como por exemplo um “framework” (arcabouço) de quatro estágios para
capacidades organizacionais e como elas podem possibilitar estratégias de analítica de
consumidores (Figura 07 à frente).
Segundo a IBM para criar um caminho para o crescimento através do framework, as
empresas terão que navegar os diferentes estágios da Figura 07. A experiência ensinou aos
técnicos (Teerlink e Haydock, 2011) que tipicamente os líderes e inovadores intuitivamente
entendem que eles devem somente “morder o que eles podem mastigar”.
Figura 5. Justificativa da IBM porque Analítica é importante
Fonte: IBM (2013)
Figura 6. Investimentos e posição da IBM em Analítica
Fonte: IBM (2013)
Figura 7. Estratégias de Analítica que possibilitam materializar com sucesso capacidades organizacionais voltadas ao crescimento
Fonte: Teerlink e Haydock (2011).
De uma posição inicial no quadrante inferior esquerdo (1), a maioria das organizações
escolhe dirigir a mudança estratégica e a transformação ao fazer um movimento para o
quadrante inferior direito (2) ou o quadrante superior esquerdo (3). Eles não observaram
qualquer empresa que se adquiriram capacidades e estratégias analíticas com sucesso com um
movimento do quadrante esquerdo inferior (1) para o quadrante superior direito (4).
Aparentemente, a complexidade e mudança de cultura requeridas são muito demandantes.
Na Figura 07, as estratégias de redução de custo são caracterizadas pelas setas a e b
(quadrante 1). Empresas líderes buscam se mover além das fronteiras do quadrante 1,
melhorando suas efetividades como caracterizado pelas setas c (quadrante 2) e d (quadrante
3). As empresas então devem determinar se “permanecem” onde estão, como sua posição
ótima no framework, ou definir que benefícios adicionais elas irão ganhar em mover para o
quadrante superior direito. Algumas empresas irão se posicionar para mover em direção ao
quadrante superior direito como caracterizado pelas setas e e f (quadrante 4). Novamente, os
autores não acreditam que seja possível se mover com sucesso de eficiência operacional
(quadrante 1) diretamente para o quadrante da demanda da cadeia de integração (4).
Além destas possibilidades no mercado de Analítica, uma tendência que vem
ganhando popularidade é aquela de oferta de ferramentas de analítica de forma gratuita (para
o grande público), mas também que pode ser customizada para clientes que desejarem fins
específicos.
Uma destas ferramentas é aquela oferecida pelo Google (www.google.com). Pode
parecer uma coisa “maluca” (principalmente para os economistas mais conservadores ou que
ainda estão na era pré-Internet), mas a ferramenta denominada Google Trends, ferramenta
simples e gratuita baseada nos dados de buscas do Google, pode sim ajudar a prever o nível
presente de atividade econômica, e há pelo menos três anos está revolucionando as análises
econômicas neste novo mundo do BIG DATA e da Analytics.
Quem afirma isso é nada mais nada menos do que o Prof. Hal Varian, economista
internacionalmente conhecido por seus trabalhos em microeconomia, hoje aposentado pela
Universidade da California, em Berkeley/EUA, e atualmente o Chief Economist Officer do
Google. No ano de 2002 o Prof. Varian foi convidado por Eric Schmidt (ex- Chief Executive
Officer) para ser consultor do Google. Desde então ele tem desenvolvido atividades nas
áreas de projeto de leilões eletrônicos de propaganda, econometria, finanças, estratégia
corporativa e política pública.
Em abril 2009, em coautoria com Hyunyoung Choi, também do Google, ele escreveu
(e publicou no site do Google) uma “versão beta” do artigo intitulado “Predicting the Present
with Google Trends” (Prevendo o Presente com Google Trends)(artigo finalmente publicado
por uma revista econômica tradicional, em 2012). Neste artigo os autores avançam a hipótese
de que os dados de busca do Google podem estar correlacionados com o presente nível da
atividade econômica em indústrias dadas e, por conseguinte, podem ser úteis em prever as
subsequentes liberações de dados. Eles defendem que o Google Trends não ajuda a prever o
futuro, mas sim ajuda a prever o presente.
Como mostram os autores, o Google Trends provê um índice do volume das
buscas/perguntas do Google por localização geográfica e categoria. Os dados da ferramenta
não reportam o nível bruto das perguntas para um dado termo de busca. Na realidade eles
reportam um “índice de pergunta” (query index). O índice de pergunta começa com a
“porção de perguntas”: o volume total de perguntas por termo de busca em uma dada região
geográfica, dividido pelo número total de perguntas naquela região em um ponto no tempo.
Os números da participação das perguntas são então normalizados de forma que eles
comecem a partir de 01 de janeiro de 2004. Números após esta data indicam um desvio
percentual da porção de busca no dia 01 de janeiro de 2004.
No artigo em questão, os autores discutem a estrutura estatística relevante à hipótese
que levantam. E como exemplo, eles iniciam a análise se baseando nos dados de vendas
mensais de automóveis da marca Ford de janeiro de 2004 a agosto de 2008, como reportado
na revista Automobile News. Os dados do Google para a categoria Automobile/Vehicle
Brands/Ford foram usados para o índice de perguntas.
Para que pudessem estabelecer a correlação entre os dados de busca do Google e os
dados de vendas de automóveis da marca Ford (o que pode ser, de alguma forma, visualizado
pelos gráficos dos dados trabalhados, nas Figuras 07 e 08 à frente), os autores desenvolveram
um modelo de projeção, conhecido na área de econometria como modelo “auto regressivo
sazonal”. Em resumo, com o modelo encontrado os autores chegaram à seguinte conclusão: o
coeficiente da variável Google Trends no modelo implica que 1% de aumento no volume de
buscas está associado à aproximadamente 0,5% de aumento de vendas. Os autores ainda
apresentam outros exemplos de correlações em outros setores econômicos, tais como vendas
no varejo, vendas de imóveis e dados de viagens.
Finalmente, o que pretendemos afirmar com esta breve apresentação da utilização do
Google Trends é que, nos dias atuais, com o crescimento no volume, na velocidade e na
variedade de dados à nossa disposição, temos que nos valer deste crescente “dilúvio de
dados/informações” (e das novas ferramentas que estão emergindo concomitantemente, tais
como Google Consumer Surveys, que falaremos em outra oportunidade) para extrairmos
novos insights (discernimentos) a partir destes dados/informações.
Figura 8. Vendas mensais da Ford Figura 9. Google Trends da Ford
Fonte: Choi and Varian (2012)
Além do Google Trends, Google oferece um amplo leque de ferramentas inicialmente
gratuitas (que podem se transformar em pagas a depender o interesse do usuário), tais como
soluções de Analítica de Conteúdo, Analítica de Dispositivos Móveis, Analítica de
Conversão, Analítica Social, Analítica de Propaganda; e os produtos relacionados são
Doubleclick, Adwords, Display Ads, Adsense e Google +, para big data, oferece o Google
BigQuery.
Existem outras ferramentas que podem ser usadas como analítica, e que são
oferecidas primeiramente de forma gratuita é aquela denominada Wolfram Alpha
(www.wolframalpha.com). A Wolfram Alpha é um engenho computacional de
conhecimento, ou engenho de respostas, desenvolvido pela empresa Wolfram Research,
mundialmente reconhecida pelo seu software Mathematica
(http://www.wolfram.com/mathematica/), e suportado por fontes proprietárias exclusivas de
dados curados, resultantes de perguntas proprietárias. É um serviço online que responde
perguntas factuais (ou seja, se resume a fatos de qualquer natureza) diretamente pela
computação da resposta de dados estruturados, mais do que prover uma lista de documentos
ou páginas web contendo a resposta como um engenho de busca.
Para uma rápida demonstração (a mais simples possível) do potencial desta
ferramenta, basta que se faça uma pergunta básica sobre os “Presidentes Brasileiros”, como
apontado na Figura 10, à frente. Como pode ser visto, os Presidentes são elencados (os cinco
últimos) em fração de segundos no engenho. Mas quando se aperta o link “more”, os
resultados obtidos são impressionantes, como pode ser visto na Figura 11, onde são listado
TODOS os Presidentes do Brasil (e por período de mandato), uma resposta que é difícil de
obter mesmo no Brasil.
Figura 10. Pergunta e resposta do WolframAlpha
Figura 11. Pergunta e resposta completa do WolframAlpha
2.3 Recomendações às Empresas de Tecnologia da Informação e Comunicação (TIC)
O mercado mundial de ferramentas e metodologias de Analítica é povoado por um
conjunto de poucas grandes empresas (notadamente internacionais) que vêm investindo
massivamente neste setor de TICs. Parte delas historicamente já detinha forte envolvimento
com a indústria mundial de TICs em segmentos voltados para bens e serviços voltados às
empresas (o chamado B2B- Business to Business), ofertando ferramentas diversas tais como
ERPs- Enterprise Resource Planning, CRM- Cusotmer Relationship Management, BI-
Business Intelligence, dentre tantas outras, mas em função do surgimento da Internet, uma
série de outras empresas surgiu oferecendo tanto para o mercado B2B quanto para o mercado
B2C- Business to Consumer, tais como Google, Facebook, Twitter, Linkedin, dentre tantas.
Para dar uma ideia do que representa o core deste mercado, podemos apresentar a
metodologia dos Quadrantes Mágicos. Os Quadrantes Mágicos (Magic Quadrants) são uma
metodologia do Gartner Group (empresa líder mundial em pesquisa e aconselhamento na
indústria de TICs) já comentada na newsletter da empresa Creativante
(www.creativante.com.br) em algumas oportunidades (inicialmente apresentada em 2009,
depois três vezes em 2010: uma, duas, três).
Em 05/02/2013 o Gartner publicou o seu “Magic Quadrant for Business Intelligence
and Analytics” (Quadrante Mágico para Plataformas de Inteligência de Negócio e
Analítica). Neste relatório o Gartner mudou o nome do seu Magic Quadrant de “Business
Intelligence Platforms” para o novo título para enfatizar a importância crescente das
capacidades de análise para os sistemas de informação que as organizações estão construindo
(esta crescente importância da analítica também foi antecipada e destacada na newsletter da
Creativante desde 2010: em 17/01; 01/02; 20/03; 03/04; 11/04; 17/04; 05/05).
O Gartner define o mercado de plataforma de inteligência de negócio e analítica como
uma plataforma de software que entrega quinze capacidades ao longo de três categorias:
integração, distribuição de informação e análise. Na categoria integração estão as seguintes
capacidades: Infraestrutura de BI; Gestão de Metadados; Ferramentas de Desenvolvimento, e
Colaboração. Na categoria distribuição de informação se encontram: Reporting,
Dashboards, Ad hoc query, Microsoft Office Integration, Search-based BI, e Mobile BI.
Finalmente, na categoria analítica, tem-se: Online analytical processing (OLAP), Interactive
visualization, Predictive modeling, Scoreboards, e Prescriptive modeling, simulation and
optimization.
Segundo o Gartner, estas capacidades possibilitam as organizações construírem
sistemas de classificação e mensuração precisos para dar suporte ao processo de tomada de
decisão e à melhoria do desempenho. As plataformas de BI e analítica possibilitam que as
empresas possam medir e melhorar as métricas que mais importam para os seus negócios, tais
como vendas, lucros, custos, defeitos em qualidade, incidentes de segurança, classificação de
consumidores, entrega em tempo, e por aí vai.
As plataformas de BI e analítica também capacitam as organizações a classificar as
dimensões dos seus negócios - tais como seus clientes, produtos e empregados – com
precisão granular. Com estas capacidades, marqueteiros podem entender melhor quais
consumidores são mais prováveis de “fermentação/estímulo”. Gestores de recursos humanos
podem entender melhor quais atributos perceber quando recrutando top performers. Gestores
de cadeias de suprimentos podem entender melhor quais níveis de alocação de estoques irão
manter baixos os custos sem aumentar os incidentes de ausência de estoques.
Para o Gartner o mercado de plataformas de BI e analítica é amplo, cobrindo muitos e
diferentes casos de uso e níveis de maturidade que varrem quatro diferentes fases: descritiva,
diagnóstico, e analíticas preditiva e prescritiva. A vasta maioria das aplicações construídas
com plataformas de BI e analítica até o momento pode ser denominada de “descritivas”
porque as capacidades críticas, tais como reports e dashboards, são usadas para descrever as
dimensões e medidas de um aspecto particular do negócio. Logo, por exemplo, uma medida
tal como on-time delivery poderia ser definida em um modelo de dados bem governado e
capacitar os usuários a reportar a meta e valor real para aquela medida em várias dimensões,
tais como segmentos de consumidores ou períodos de tempo.
De forma crescente, o Gartner vê mais organizações construindo analítica de
diagnóstico que alavanque capacidades críticas, tais como visualização interativa, para
possibilitar que os usuários possam “mineirar” mais facilmente os dados para descobrir novos
insights. Por exemplo, padrões visuais descobertos nos dados podem expor um processo
inconsistente de uma cadeia de suprimentos que seja determinante para a capacidade da
organização alcançar sua meta para entrega em tempo. Para uma observação dos Quadrantes
Mágicos de BI e Analítica, ver a Figura 12 à frente.
Figura 12. Quadrante Mágico do Gartner para Inteligência de Negócios e Analítica
Fonte: Gartner (2013)
Outra empresa que também aponta para as oportunidades e ameaças no mercado de
Analítica é a Forrester. Em 24/02/2013 a Creativante publicou uma newsletter intitulada
“The Forrester Wave TM : Big Data Predictive Analytics Solutions, Q 1 2013”. O título é
longo e pode ser traduzido desta maneira: “Soluções de Analítica Preditiva para Big Data,
Primeiro Trimestre de 2013: Metodologia Forrester Wave TM ”. Trata-se de mais um relatório
da empresa Forrester (www.forrester.com), que assim como o Gartner Group
(www.gartner.com), é uma empresa de tecnologia e pesquisa de mercado que provê
aconselhamento sobre o atual e potencial impacto de tecnologias para seus clientes e o
público.
A Forrester detém uma metodologia (a Forrester Wave TM) que já foi apresentada na
newsletter da Creativante de 05/05/2010. Neste seu recente relatório sobre soluções de
analítica preditiva para big data houve poucas surpresas, mas a Forrester fez questão de
deixar um recado para a SAS, a IBM e oito outros vendedores avaliados no relatório: tornem
a analítica preditiva mais acessível aos usuários de negócios!
Os dez vendedores avaliados neste relatório são: SAS, IBM, SAP, Tibco, Oracle,
StatSoft, KXEN, Angos Software, Revolution Analytics e Salford Systems (Figura 12). Os
rankings do relatório são baseados em 51 critérios de avaliação envolvendo 13 scores gerais
de ofertas de produtos, estratégia da empresa e presença de mercado. A SAS tem a maior
presença de mercado com mais de 3.000 clientes de analítica preditiva, versus mais de 1.500
para a IBM, mas os ratings de produto e estratégia foram os que dirigiram os rankings.
A SAS oferece um amplo conjunto de ferramentas de analítica preditiva, uma
arquitetura que dá suporte a múltiplas plataformas, bem como analítica in-database e analítica
in-memory. Segundo a Forrester, para permanecer no topo a SAS precisa prover soluções
mais sofisticadas para analítica real-time, tais como stream processing e também ferramentas
de modelagem preditiva que os analistas de negócios acham mais usáveis.
A Forrester deu à IBM (pioneira nesta nova onda de business analytics) altas marcas
por sua presença global e amplo portfólio de analítica, que inclui SPSS (ferramentas da
empresa do mesmo nome que a IBM comprou por US$ 1,2 bilhões em 2009) e as
capacidades de in-database do PureData System for Analytics (da antes denominada Netezza,
comprada pela IBM em 2010 por US$ 1,7 bilhões), entre outros ativos (tais como as
ferramentas da Cognos, comprada em 2007 por US$ 4,9 bilhões). A Forrester encorajou a
IBM tornar seu portfólio “menos confuso” e a criar mais soluções que os clientes possam
usar “fora da caixa”. Ou seja, sugere menos dependência dos consultores da IBM para
integrar os múltiplos produtos.
De acordo com a revista digital www.informationweek.com, uma surpresa na
avaliação da Forrester, feita pelo seu analista Mike Gualtieri, foi o score da SAP,
considerando o fato de que ela é relativamente nova em termos de analítica avançada. A
empresa introduziu um módulo avançado de analítica há três anos, baseado no software da
SPSS, e daí introduziu uma substituição deste para o Predictive Analysis, em 2012. A SAP
tem uma ferramenta de modelagem (parecida com a SAS Enterprise Miner e com a SPSS
Modeler) e uma biblioteca de analítica (parecida com aquelas ofertadas pela Teradata e pela
IBM PureData for Analytics).
Figura 13. Forrester Wave TM : Big Data Predictive Analytics Solutions, Q 1 2013
Fonte: Forrester (2013)
O relatório descreve a estratégia da SAP para rodar analítica no seu HANA (High
Performance Analytic Appliance) in-memory database como interessante. Ainda segundo a
Forrester, as tecnologias da SAP foram mais escaláveis para uso de big data do que aquelas
oferecidas (ao tempo da produção do relatório) pela Tibco, a empresa mais próxima no
ranking.
Esta surpresa apontada pela Forrester deve ser encarada como um desafio para as
empresas de gestão empresarial mundo afora (inclusive o Brasil), já que a SAP (que tem
presença importante, e marcante, neste mercado) está demonstrando que entrou
definitivamente no mercado de ferramentas de business analytics (é oportuno observar que
mesmo na página web da Totvs, maior ofertante de soluções de gestão empresarial no Brasil,
ainda não são citadas estas novas ferramentas de negócios entre seus produtos).
2.3.1 Gerando Oportunidades em Analítica
Uma das formas que o mercado de Analítica vem encontrando para difundir o
potencial desta tecnologia é através do mercado editorial. E neste aspecto, a tendência de
crescimento desta temática é exponencial (ver crescimento paralelo do termo Analytics no
Google Trends na Figura 14 à frente).
Nestes termos, podemos registrar as contribuições de um dos principais líderes
mundiais na área de Analítica. E a contribuição é o livro intitulado “Analytics at Work:
Smart Decisions Better Results” (Analítica Funcionando: Decisões Inteligentes, Melhores
Resultados), de 2010, publicado pela Harvard Business Press- HBP, cujos autores são: a) o
Prof. Thomas Davenport, especialista e líder mundial em gestão negócios de TICs, autor
também de vários outros livros de impacto, como o famoso “Competing on Analytics: The
New Science of Winning” (Competindo em Analítica: A Nova Ciência de Vencer), de 2007,
também pela HBP, e em co-autoria com Jeanne G. Harris; b) Jeanne G. Harris, executiva
sênior do Instituto para Alta Performance da Accenture, e c) Robert Morison, consultor de
empresas.
Figura 14. Crescimento do termo Analytics no Google Trends
Fonte: Google (2013)
Logo no início o livro vai esclarecendo: “Se nós desejamos tomar melhores decisões e
ações corretas, nós temos que usar analítica. Colocar a analítica para funcionar é melhorar
o desempenho em domínios chave de negócios usando dados e análise”. Mas o que os
autores entendem por ser analítico?
Ser analítico é fazer uso de análise, dados e raciocínio sistemático para a tomada de
decisões. Mas, perguntam os autores, que tipo de análise? Que tipo de dados? Que tipo de
raciocínio? O restante do livro é uma tentativa de responder a estas questões. Mas uma
pequena matriz (Figura 15 a seguir) demarca o território em que estes autores navegam,
identificando seis questões chave que dados e analítica podem endereçar nas organizações.
Figura 15. Matriz- Questões chave a serem enfrentadas pela analítica
Passado Presente Futuro
Informação O quê aconteceu?
(Relatório)
O quê está acontecendo agora?
(Alertas)
O quê irá acontecer?
(Extrapolação)
Insight (discernimento)
Como e por quê isto aconteceu?
(Modelagem, design experimental)
Qual é a próxima melhor ação?
(Recomendação)
Qual é o melhor/pior que pode acontecer?
(Previsão, otimização, simulação)
Fonte: Davenport (2010)
Juntas, as questões acima envolvem muito do que uma organização necessita saber
sobre si mesma. A matriz pode ser também usada para desafiar os usos existentes da
informação. Como apontam os autores, muitas das atividades de “business intelligence”
(inteligência de negócios) da organização podem estar na primeira linha da matriz. Mas ao se
mover das questões puramente orientadas à informação para aquelas envolvendo insights
(discernimento), tem-se um entendimento melhor da dinâmica das operações dos negócios.
Além disto, a essência do livro está dividida em suas duas partes constitutivas: a Parte
I, The Analytical DELTA (O DELTA Analítico), e a Parte II, Staying Analitical
(Permanecendo Analítico). Na Parte I, em seus cinco capítulos, é tratado um método para
colocar a analítica para funcionar nos nossos negócios, e para sabermos que capacidades e
ativos são necessários de modo a termos sucesso com iniciativas de analítica.
E a isto (detalhado em cinco capítulos) os autores chamam de DELTA, que
significam:
D- para “accessible, high-quality Data” (Dados acessíveis e de boa qualidade)
E- para uma “Enterprise orientation” (orientação Empresarial)
L- para uma “analytical Leadership” (Liderança analítica)
T- para “strategic Targets” (alvos estratégicos)
A- para “Analysts” (Analistas)
Na Parte II são apresentados os seguintes capítulos: 7- Analítica incorporada aos
Processos de Negócios; 8- Construindo uma Cultura Analítica; 9- Revendo Seu Negócio
Compreensivamente; 10- Encontrando Desafios ao Longo do Caminho; 11- Em Direção às
Decisões Mais Analíticas e Melhores Resultados.
Passando ao destaque dos autores a cada uma das letras da metodologia DELTA,
comecemos com a letra D (de Dados) neste DELTA analítico. Dados são um pré-requisito
para qualquer coisa analítica; não se pode ser analítico sem dados, e não se pode ser bom em
analítica sem bons dados. Deste modo, os autores apresentam o que é necessário saber sobre
dados, ou seja: estrutura (qual é a natureza dos dados que você tem?), unicidade (como você
explora dados que ninguém mais tem?), integração (como você consolida os dados de várias
fontes?), qualidade (como você se apóia nos dados?), acesso (como você obtém seus
dados?), privacidade (como você guarda seus dados?) e governança (como você os organiza
e mantém?).
Uma vez conhecendo em profundidade estas características principais de seus dados,
a organização interessada em desenvolver sua analítica deve estar preparada para mover em
seus Estágios de Maturidade Analítica. Desta forma, os passos necessários, de acordo com os
autores do livro para se mover nestes estágios são apontados na Figura 16 à frente.
Figura 16. Estágios de Maturidade Analítica
----------------------------------------------------------------------------------------------------------
Do Estágio 1 Do Estágio 2 Do Estágio 3 Do Estágio 4
(Anlytically Imparied) (Localized Analytics) (Analytical Aspirations) (Analytical Companies)
Para o Estágio 2 para o Estágio 3 para o Estágio 4 para o Estágio 5
(Localized Analytics) (Analytical Aspirations) (Analytical Companies) (Analytical Competitors)
----------------------------------------------------------------------------------------------------------
Ganhe maestria Construa um consenso Construa data Eduque e engaje
sobre seus dados empresarial em torno warehouses e executivos seniors
locais de importância, de alguns alvos analíticos integre dados em dados com
incluindo data marts (1) e suas necessidades de externos. Engaje potencial
funcionais. dados. Construa alguns executivos sênior competitivo.
domínios de em planos Explore dados
data warehouses (2) de EDW (3) únicos.
(exemplo, consumidores) e gestão. Estabeleça forte
e correspondente Monitore fontes governança de
expertise analítica. emergentes de dados. dados,
Motive e premie especialmente
contribuições funcionais stewardship (4).
cruzadas e gestão. Forme um
BICC (5) se você
ainda não tem um.
-------------------------------------------------------------------------------------------------------------------------------
(1) Data marts são um subconjunto de um armazenamento de dados, usualmente orientado para um propósito específico ou um grande subconjunto de dados que devem ser distribuídos para dar suporte às necessidades do negócio.
(2) Data warehouse é um repositório dos dados eletronicamente armazenados de uma organização. São projetados para facilitar a geração de relatórios e análises.
(3) EDW- Enterprise Data Warehouse
(4) Stewardship se refere às responsabilidades de utilizar e desenvolver adequadamente os recursos de uma organização.
(5) BICC- Business Intelligence Competency Center- Centro de Competência em Inteligência de Negócios.
Fonte: Davenport (2010)
Dado que o mercado mundial de Analítica é um que é dominado por um pequeno
conjunto de grandes empresas com certa tradição na oferta de bens e serviços voltados para
as empresas e organizações, percebe-se que ainda é pouco significativa a presença dos
players nacionais (e de Pernambuco em particular) no elenco de provedores de soluções e
aplicações neste mercado. Em resumo, o mercado brasileiro é ainda um mercado
“consumidor” de soluções não nativas.
Mas como o país se destaca na indústria de TICs como um grande, e criativo,
integrador de soluções tecnológicas, as chances de aqui serem desenvolvidas soluções de
Analítica de mais baixo custo (porém de alto valor tecnológico e mercadológico) são muito
grandes, já que muitas das empresas nacionais talvez não possam arcar com os altos custos
das soluções não nativas que aqui estão sendo ofertadas. Ademais, há um enorme espaço para
o desenvolvimento de soluções gratuitas, como é a de Google Trends, que reflete muito bem,
como nenhuma outra, o paradigma novo da tecnologia de Analítca nos dias atuais.
Como manifestado no 1º Relatório de Tendências de mercado (abril/2013),
estabelecendo um elo entre os resultados aqui apresentados e as empresas do Porto Digital,
pode-se apontar que as empresas deste parque devem urgentemente iniciar tanto a definição
de estratégias de analítica em suas estruturas quanto a contratação de talentos em analítica
para darem suporte às suas estratégias de negócios. Um primeiro passo nesta direção (para
que não se comece da estaca zero) é a utilização de ferramentas já existentes no mercado;
uma vez dominando tais ferramentas, as empresas podem passar a desenvolver suas próprias
ferramentas, e, finalmente, começarem a extrair valor tanto dos seus dados quanto dos dados
de seus clientes.
3 Conclusão
Neste relatório que apresentou as tendências de inovação tecnológica em analítica
observamos as oportunidades de inovação que as tecnologias digitais propiciam. Vimos que a
Analítica (que é a descoberta e a comunicação de padrões - com significado - em dados) é
uma tecnologia que vem ganhando grande importância no nosso cotidiano, ao lado das
questões que estão emergindo com as tecnologias de Big Data.
O tema ganha mais relevância na medida em que se constata que há um hiato de
talentos preparados para o desafio colocado pela Analítica, e que a superação deste hiato não
é algo simples, especialmente para as economias ainda em estágio de desenvolvimento
econômico.
Por fim, também vimos como a Analítica se classifica e como ela tem evoluído do
ponto de vista de suas principais inovações. Demos destaque as principais macrotendências
neste setor, e apontamos, marcadamente, para as principais oportunidades que estão surgindo
com as aplicações de metodologias e ferramentas associadas a esta tecnologia.
4 Referências
Kelly, Jeff (2012). “Big data: Hadoop, Business Analytics and Beyond: A Big Data
manifesto from the Wikibon Community”. December, 14th.
http://wikibon.org/wiki/v/Big_Data:_Hadoop,_Business_Analytics_and_Beyond.
Teerlink, Mark and Michael Haylock (2011). “Customer analytics pay off”. IBM
Institute for Business Value.
5 Glossário e Acrônimos
Analítica – descoberta e a comunicação de padrões (com significado) em dados
Big Data – informação que não pode ser processada ou analisada por processos ou
ferramentas tradicionais
CRM – customer relationship management (gestão de relacionamento com clientes)
ERP – enterprise resource planning (planejamento dos recursos empresariais)
ETL- extract, transfer and load (extrair, transferir, e carregar)
OLAP - online analytical processing (processamento analítico online)
TICs - tecnologias de informação e comunicação