6 recomendações de gestão para projetos de Data Lake

6 recomendações de gestão para projetos de Data Lake

Há diversas razões para a criação de projetos de Data Lake, Big Data e Data Analytics na indústria. Pois, a partir desses projetos, torna-se possível concretizar a ideia de tomadas de decisão baseadas em dados (Data-driven) e a automação de decisões inteligentes por algoritmos de Inteligência Artificial

Nesse caminho, vale lembrar que a construção de grandes bancos de dados já é, por si, um grande desafio técnico. Além disso, há a necessidade do alinhamento entre pessoas, processos e o negócio para que o tão esperado Data Lake não se torne um Data Swamp (pântano ou mangue de dados). 

Neste artigo, apresentamos alguns pontos de atenção aos gerentes, diretores de tecnologia da informação e CIOs neste processo de alto risco e que geralmente está atrelado a altas cifras.

O que é um Data Lake? 

Antes de mais nada, existem diversas definições de Data. Para embasar nossa discussão, escolhemos a definição da Amazon que diz (tradução livre):

“Data Lake (Lago de dados) é um repositório centralizado que permite armazenar dados estruturados e não estruturados em qualquer escala. Em um data lake é possível armazenar dados como eles são/estão, sem ter que primeiro estruturá-los, sendo também possível executar diferentes tipos de análise sobre os dados”.  

Pontos de Atenção em Projetos de Data Lake

A ideia de um data lake é de fato muito interessante e acaba evidenciando sua importância estratégica no médio e longo prazo. No entanto, aqui vão algumas dicas gerenciais (não tecnológicas) relacionadas aos processos de construção e estruturação de Data Lake.  

01 – Dados sem significado e poucos metadados 

Após a realização de diversos tipos de projetos relacionados a Data Lakes, chegamos a algumas conclusões interessantes que detalhamos abaixo:

  • O principal fator relacionado ao sucesso ou fracasso das iniciativas de lago de dados era a concepção incompleta e até ambígua das análises. Isso nos levou à criação, registro e publicação do Analytics Business Canvas, que tem o objetivo de extrair o real significado de cada esforço analítico.
  • Embora o conceito “Lago de Dados” informe que os dados podem ser guardados como são/estão, começar projetos guardando os dados sem uma estratégia clara de negócios não é uma boa intuição. Além disso, ter membros sêniores na equipe ajuda a mitigar muito esse tipo de risco. 
  • O grande sucesso dos projetos de analytics geralmente está na estratégia do uso dos dados frente às oportunidades de negócio e não necessariamente na tecnologia envolvida. O foco deve ser nas motivações e “PORQUÊS” e depois nos “COMOS”. Inclusive, com boas motivações até “COMOS” se tornam mais fáceis de responder.
  • Além das questões dos significados dos processos de negócio, é importante (muito importante) o uso sistemático de metadados (informações sobre os dados). 

Uma dica importante para quem está começando a organizar a área de análise e data lakes é começar estruturando os dicionários dados (um básico). 

  • É fundamental entender a diferença entre a natureza dos dados transacionais e dados analíticos e os seus papéis/expectativas no projeto. Neste artigo – Como estruturar projetos de analytics de alto nível –  apresentamos essa diferença e o porquê isso é fundamental para o processo. 

02 – Stack Tecnológico – inadequado 

Embora a tecnologia seja o segundo passo para a estruturação dos lagos de dados, ela é uma das decisões mais importantes a serem tomadas no projeto. A palavra-chave desse processo é a “Arquitetura de sistemas”. 

A escolha do stack tecnológico para a criação do data lake (O que é um stack tecnológico de analytics?) deve estar alinhado tanto ao problema de negócio quanto ao conhecimento técnico do time de operação.

Neste ponto, para desenhar a arquitetura da(s) solução(ões) recomendamos profissionais com experiência em engenharia de software, bancos de dados, administração e criação de processos de ETL, escalabilidade de infraestruturas de armazenamento. 

Para que o stack tecnológico analítico não entre em desuso é altamente recomendado garantir um alto nível de interoperabilidade entre os sistemas. 

04 – Sub/super estimar o volume de dados

Assim como no planejamento e construção de uma casa, nos projetos, os lagos de dados necessitam de informações mínimas à correta estruturação. Entretanto, muitas vezes, essas informações mínimas não são claras nem para o time de negócios, nem para os arquitetos de sistemas. 

Super-estimação

Já vimos casos em que se imaginava um conjunto imenso de dados (muito acima da realidade) para se investigar padrões dos comportamentos de uma indústria em específico. 

Com o tempo foi verificado que pequenos ajustes na estratégia dos indicadores de desempenho (dicas sobre estruturação de KPIs) com o uso de técnicas de amostragem (O que é amostragem?) já solucionaram com elegância e precisão mais de 80% dos problemas analíticos. 

A dica é questionar diferentes atores envolvidos no projeto, buscando entender a natureza do problema, das perguntas e então olhar para os dados internos e externos. 

Sub-estimação de dados

Do mesmo modo que é possível superestimar a necessidade de dados, é também possível subestimá-los. 

Por outro lado, há questão das inovações vindas de outras áreas, com especial ênfase aos projetos de IOT (Internet das Coisas) que, na sua natureza, baseia-se a obter o máximo de dados possível dos sensores. Isso implica de fato em estratégias de armazenamento, compactação, tipos de análise, segurança e ainda velocidade de transmissão. 

Neste mesmo assunto, comentamos anteriormente sobre as diferenças conceituais entre amostragem e recorte de dados.

Outra forma de subestimação de dados é a exploração combinatória dos registros que em alguns casos se tornam computacionalmente inviáveis ao processamento e/ou armazenamento. Assim, são imperativas técnicas apropriadas para cada caso. 

05 – Excesso de índices

A criação de índices nos bancos de dados deve estar bem estruturados e não criados descontroladamente. 

“Uso inapropriado e/ou excessivo de índices”

– O uso de índices em bancos de dados é uma boa prática que visa aumentar a eficiência de consultas muito frequentes. Isso possibilita ao sistema gerenciador de bancos de dados (SGBD) fazer busca de menor complexidade, evitando as custosas buscas sequenciais. No entanto, índices ocupam espaço, podendo um índice muito facilmente chegar a corresponder a 25% do tamanho de uma tabela. Em data lakes, o acesso não é repetitivo, não são necessárias consultas de alto desempenho. Portanto, utilizar índices além de chaves primárias para estabelecer as relações entre entidades pode vir a criar volumes desnecessários para atingir uma eficiência não-desejada.

“Lembre-se que nos livros os índices são menores do que o próprio conteúdo”.

06 – Segurança 

É evidente que onde há informação valiosa há também riscos de segurança. 

A segurança requer um nível de maturidade das estruturas de permissões que, por um lado permitam, acesso rápido e fácil aos analistas e máquinas de analytics sem comprometer regras de acesso que rompam com o sigilo de determinadas informações. 

As soluções mais avançadas de governança de dados que conhecemos usam com maestria a teoria da identidade em seus sistemas, não permitindo assim que haja usuários utilizando acessos de terceiros. 

Toda a engenharia de software do projeto deve estar em constante comunicação com os times da gestão e do negócio para garantir o nível correto de permissão de cada usuário a cada dataset (O que são datasets?)

Atualmente, com a entrada em vigor da Lei Geral de Proteção Dados (LGPD), o fator segurança se torna ainda mais crítico, caso em que os dados armazenados são dados pessoais.  

Data Lake – Conclusões e recomendações

Projetos relacionados à estruturação de data lake, big data, analytics de grande escala são complexos por natureza e com grandes riscos de se tornarem manguezais de dados (Data Swaps) inacessíveis e com alta complexidade. 

Os pontos apresentados aqui não são exaustivos, mas pontos de vista que minimamente devem ser levados em consideração para mitigação do risco do projeto de montagem de lagos de dados ou até Aquíferos de Dados (termo que será melhor elaborado em nossos artigos futuramente).

Não existem soluções mágicas ou prontas devido ao alto grau de customização dos dados para cada negócio, setor e estratégia empresarial. Por isso, a contratação (terceirização) de empresas especializadas no processo é um caminho que pode ser mais seguro e eficiente. Contudo, a terceirização de analytics merece alguns cuidados. Pensando nisso, separamos estes dois artigos:  

Como escolher o melhor fornecedor de Data Analytics?

Quanto investir em Analytics e Inteligência Artificial? 

Finalizando, a transformação digital está se tornando real em várias empresas e indústrias. E os data lakes serão, cada dia mais, um ponto central na estratégia empresarial digital. O tema é relevante e deve ser abordado de forma irrestrita entre os vários departamentos. 

Quem é a Aquarela Advanced Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes como Embraer, Grupo Randon, Solarbr Coca-cola e outros.

Fique atento às novas publicações da Aquarela Analytics no Linkedin e assinando Newsletter

Autor

Dicionário de Dados Tradicional vs Analítico

Dicionário de Dados Tradicional vs Analítico

Anteriormente explicamos com detalhes o que é um dicionário de dados de Data Analytics, apresentamos seu conceito e diferenças quando comparados com dicionário de dados tradicionais.

Uma das principais diferenças entre dicionários tradicionais e de Data Analytics é que os dicionários analíticos integram conhecimentos negócio em diferentes níveis de granularidade, removendo ambiguidades sem priorizar requisitos de sistemas. Isso não deve reduzir a importância dos dois tipos de dicionários em seus contextos. (Joni Hoppen)

Embora a finalidade de ambos os dicionários seja a mesma, ambos buscam unificar e padronizar informações sobre os dados guardados em sistemas de informação.

Portanto, neste artigo vamos apresentar um comparativo entre os dois tipos de dicionário de dados e o seu papel nas atividades das empresas.

Dicionários Tradicionais

Os modelos tradicionais, são mais complexos e detalhados e fazem parte de de processos maduros e boas práticas de engenharia de software, informando até o tamanho do texto permitido em cada coluna. Por exemplo, a coluna nome do paciente tem um limite de 50 caracteres.

Estas informações são relevantes para garantir o planejamentos da infraestrutura ou stack tecnológico, tais como escolha de uma linguagem de programação, o tipo de integração de sistemas e diversas atividades que garantem a operação diária da empresa.

Contudo, quando se planeja utilizar a Inteligência Artificial e algoritmos de mineração de dados, estas informações podem ser irrelevantes e adicionam grande complexidade ao processo de análise.

Dicionários de Data Analytics (dados analíticos)

Para que um modelo tradicional de dicionário (mais completo) seja adequado aos processos de Data Analytics na criação de datasets (o que é um dataset?), ele precisa ser ajustados aos perfis profissionais que irão consumir a informação.

Os clientes dos dicionários analíticos são, sobretudo, cientistas de dados e analistas de negócios que possuem um grande interesse na assertividade das predições/prescrições dos modelos estatísticos e integração com o modelo de negócio.

Em data analytics, os dicionários estão mais focados nos significado das linhas (registros) dos datasets e das colunas das tabelas (variáveis, fatores, características) para que pessoas envolvidas pensem sobre o problema de negócio (o que se quer analisar) na forma mais prática e simplificada possível.

Tabela comparativa

Na tabela a seguir, apresentamos algumas sugestões de atividades e os clientes dos dicionários tradicionais da engenharia de software e dos dicionários analíticos.

AtividadeTradicional
(Tecnologia da Informação)
Dicionário de Analytics
(Escritório de Ciência de dados)
Ambos
Integração de sistemasX  
Modelagem de bancos de dados;X  
Migração de sistemasX  
Higienização de dados  X
Criação de modelos, exploratórios,  preditivos e prescritivos. X 
Geração de relatórios analíticos  X
Dados transacionaisX  
Dados analíticos X 
Tabela comparativa de atividades e dicionários de dados

Modelo de dicionário de dados grátis

Neste artigo (o que são dicionários de dados analíticos?) é possível baixar um modelo de dicionário que vai direto ao ponto.

Quem é a Aquarela Advanced Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes como Embraer, Grupo Randon, Solarbr Coca-cola e outros.

Fique atento às novas publicações da Aquarela Analytics no Linkedin e assinando Newsletter

Autor

Quanto uma empresa deve investir em Analytics e IA?

Quanto uma empresa deve investir em Analytics e IA?

É época de fazer os orçamentos, então: Quanto devo investir em analytics e projetos de inteligência artificial? 1, 2, 3, 5% do orçamento total?

Grandes mudanças econômicas estão ocorrendo com a digitalização da indústria, e toda essa mudança pode dificultar a determinação de prioridades em alocar os fundos de tecnologia nas empresas. Neste sentido, alguns executivos cometem o erro de usar o mesmo modelo de orçamento todos os anos, sem considerar mudanças de cenário, tais como:

  • Novas necessidades da empresa;
  • Avanços tecnológicos de processo com impacto no negócio;
  • Novos posicionamentos da concorrência.

Decidir sobre os gastos com data analytics e inteligência artificial no contexto empresarial (indústria ou serviços) requer mais do que apenas escolher números que parecem bons ou proporcionais!

“As empresas ainda não enxergam claramente como devem ser alocados fundos voltados para analytics com inteligência artificial nos seus diversos setores”.

Existem algumas questões que executivo deve considerar ao determinar seu orçamento de analytics para implementar decisões de tecnologia com eficácia. Alguns pontos cruciais são:

Devo investir em novos processos com IA que mudarão a base da concorrência no setor?

Para os dirigentes de muitos setores, a tecnologia está se tornando uma corrida armamentista. Temos visto que as empresas estão aproveitando tecnologias como mídia social e serviços baseados em localização para reinventar a experiência do cliente e conquistar participação de mercado.

Outros estão apostando em IA para fomentar para melhorias em seus produtos industriais, trabalho este do módulo Vortx – Desenolvimento de novos produtos.

É importante saber quem são seus concorrentes, emergentes ou existentes, como eles estão estruturando seus projetos IA e como sua equipe ou parceiros de analytics (como escolher um parceiro de analytics?) estão te ajudando a vencê-los, e até mesmo entrar em novos mercados.

O que é necessário investir para superar as expectativas de nossos clientes no digital?

Empresas que são líderes em comércio eletrônico como Amazon, Apple, Lojas Americanas, Magazine Luiza e Mercado Livre estão massificando, ou em outras palavras, democratizando a experiência dos negócios online. Resultando em experiências ultraconvenientes e sobretudo personalizadas.

Com essas grandes vitrines globais na distância de um clique, o trabalho da gestão é de planejar novos processos, novas análises e novas estruturas de sistemas de informação, que atendam um cliente cada vez mais informado e com expectativas mais altas.

O plano de negócio aborda o potencial da IA como uma estratégia?

Em muitas situações, os gastos/investimentos com analytics e protótipos de inteligência artificial podem ser altos, no entanto, verifique se não são relativamente pequenos em comparação com seu potencial para impulsionar o desempenho operacional de uma empresa.

Segundo a Harvard Business Review, as áreas de maior impacto ao negócio são:

Em última análise, a estratégia que surge de uma avaliação de oportunidades e ameaças deve ser um plano integrado que mostre como a empresa irá vencer a concorrência usando a automação de comportamentos inteligentes gerados por máquinas, não simplesmente um orçamento anual de tecnologia ou até marketing revisado.

Conclusões e recomendações

O tema de orçamentação é complexo por natureza e está ligado desde à estratégia até a operação do negócio.

Neste artigo levantamos algumas questões para ajudar os executivos a refletirem sobre a prioridade e a intensidade da alocação de recursos na área de analytics, big data e inteligência artificial. Neste sentido, mostramos alguns exemplos dos módulos da plataforma Aquarela VORTX que podem ajudar a aproximar processos inovadores com a operação.

Acreditamos que investir no aumento da maturidade analítica da organização é sempre importante, mesmo que retorno não seja tão direto. O fato é que os lideres dos setores estão se tornando cada vez mais maduros em analytics, e isso deve ser levado em conta.

Quem é a Aquarela Advanced Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes como Embraer, Grupo Randon, Solarbr Coca-cola e outros.

Fique atento às novas publicações da Aquarela Analytics no Linkedin e assinando Newsletter

Autor

A importância da manutenção planejada com Analytics

A importância da manutenção planejada com Analytics

A manutenção planejada com analytics é essencial para estender a vida útil de ativos, maximizar seu ROI, evitar falhas e reparos dispendiosos.

De acordo com a Harvard Business Review este é um dos terrenos mais férteis para o uso de analytics e big data. Da mesma forma que os projetos de precificação dinâmica e predição de demanda.

Neste artigo apresentamos: um dos cenários no qual trabalhamos, os principais benefícios do uso de analytics e recomendações para gestores alinhados aos bases da indústria 4.0.

Manutenção planejada na área de Ar Condicionado

Antes de tudo, tomamos como exemplo a área de HVAC (sigla em inglês para “heating, ventilating and air conditioning“) que em português se refere a “aquecimento, ventilação e ar condicionado”.

As manutenções de HVAC, por sua vez, exigem cuidados recorrentes já que são equipamentos de uso intensivo e com impactos diretos na operação e nos custos. 

No Brasil, uma das principais referências neste mercado é o Grupo São Carlos que, em parceria com a Aquarela, desenvolveu os modelos de inteligência artificial embutidos nos planos de manutenção 4.0.

Os serviços de manutenção incluem, mas não se limitam a:

  • limpeza do condensador refrigerado do ar;
  • limpeza do filtro de água;
  • substituição da correia, do gás e do filtro de ar;
  • reparo de componentes eletrônicos e;
  • outros.

A complexidade dos cenários de manutenção planejada

Para dar uma ideia da complexidade da gestão dos ativos HVAC, vale citar a grande variação do número de equipamentos em operação e a variação de modelos. 

Isso significa que:

estamos falando de um cenário de alta complexidade (alto potencial de exponencialização) devido a combinação da quantidade, variedade e tempo de uso dos equipamentos. Que, por sua vez, estão expostos à fatores climáticos que atuam de forma distinta em diferentes regiões.

Além disso, é preciso lembrar que para cada equipamento existe também um conjunto de peças de reposição que exigem combinações específicas para funcionar. 

Em muitos casos, situações de emergência decorrentes de uma abordagem puramente reativa dos equipamentos resultam em paralisações temporárias, fazendo com que a produtividade diminua ou mesmo pare completamente.

É recomendado que o trabalho de reparo deva ser realizados por técnicos profissionais qualificados tanto na parte técnica de refrigeração como na parte analítica para a parametrização e treinamento dos modelos preditivos. Já que, muitas das regras da manutenção dos equipamentos estão baseadas na experiência profissional dos operadores.

Desenho dos modelos de manutenção com IA

É durante o processo inspeção que surgirem as primeiras evidências de falhas futuras de componentes, permitindo que o sistema receba manutenção antes que a falha ocorra.

Com a captura do estado das máquinas usando dispositivos de IOT, essa informação pode ser automatizada e se tornar um ativo para a companhia antes mesmo da visita dos técnicos.

São os dados dos sensores que formam a base para a criação dos modelos de análises descritivas, preditivas, prescritivas e de cenarização (mais detalhes destes tipos de análises neste artigo). 

Em parceria com o grupo São Carlos, usamos a experiência de 60 anos e dados de equipamentos para treinar um sistema de IA que monitora, prevê e evita falhas antecipadamente, elevando a maturidade gestão de ativos e reduzindo custos de forma alinhada à Indústria 4.0.

Na imagem abaixo, elaboramos um breve descritivo de uma arquitetura avançada para a obtenção de informações que levam a atividades proativas e planejadas de manutenção.

modelo hvac
Modelo analítico HVAC com inteligência artificial embutida.
Fonte (Aquarela Analytics)

Estimamos que mais de 40% das chamadas de emergência poderiam ter sido evitadas com manutenção adequada. Neste sentido, é perceptível impacto financeiro na operação entre uma manutenção reativa e planejada.

Os benefícios gerais da manutenção planejada incluem

Com a utilização de uma estratégia dados adequada tanto do ponto de vista metodológico como tecnológico, vários benefícios podem ser alcançados:

Abaixo levantamos alguns dos mais importantes:

  • Melhor eficiência operacional.
  • Vida operacional estendida do equipamento.
  • Custos de reposição de capital diferidos.
  • Uso reduzido de energia / economia de energia.
  • Identificação precoce de problemas potenciais (identificação de outliers).
  • Menos reparos de serviços de emergência (são mais custosos).
  • Tempo de inatividade do sistema menos frequente.
  • Diminuição das interrupções nas operações de construção.
  • Maior conforto / redução das reclamações dos ocupantes.
  • Segurança aprimorada / riscos mitigados.
  • Maximizar a confiabilidade, o desempenho e a eficiência dos equipamento.

Conclusões e recomendações

Neste artigo, abordamos um contexto bastante comum de manutenção e seus benefícios.

Dado a criticidade associada aos equipamentos físicos na operação, complexidade dos cenários e custos envolvidos, recomendamos atenção de gestores para o tema da manutenção planejada.

Projetos de analytics podem impactar positivamente na redução de custos e no aumento da maturidade analítica da organização.

As empresas que implementaram programas de manutenção planejada descobrem que seus custos totais podem ser até 50% mais baixos do que os custos das organizações que continuam a manter o equipamento em uma gestão menos data-driven.

Enxergamos também oportunidades de negócio ao integrar os algoritmos preditivos e prescritivos em soluções tais como:

para operações com abrangências estaduais, nacionais ou até internacionais. Porém, isso ficará para outras publicações.

Nosso objetivo final é orientar gestores a obter o maior ROI possível com seu investimento substancial, utilizando as melhores práticas de manutenção planejada. Igualmente, sugerimos este outro artigo sobre a contratação de empresas de analytics.

Por meio de nossa plataforma Vortx, criamos e entregamos valor de negócios para grandes clientes na indústria e de serviços. Em parceria com o grupo São Carlos aplicamos estratégias de Data Analytics e algoritmos de Inteligência Artificial capazes de gerar recomendações acerca dos momentos ótimos para reparo.

Quem é a Aquarela Advanced Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes como Embraer, Grupo Randon, Solarbr Coca-cola e outros.

Fique atento às novas publicações da Aquarela Analytics no Linkedin e assinando Newsletter

Autores

O que é o PIX e por que ele pode se tornar o banco de dados mais precioso do país?

O que é o PIX e por que ele pode se tornar o banco de dados mais precioso do país?

Introdução

Hoje vamos apresentar o PIX que é um novo método/sistema de transações bancárias/pagamentos que substituirá os conhecidos boletos, TEDs, Docs e outras formas de pagamento.

Como resultado, o PIX promete democratizar e simplificar os pagamentos no Brasil ao mesmo tempo em que, na visão de big data analytics, gerará o banco de dados analítico mais valioso e cobiçado do país.

Aproveitamos também para fazer algumas análises comparativas entre o PIX, métodos tradicionais e criptomoedas.  

O que é o PIX ? 

A ideia do PIX é ser um método/sistema de pagamentos instantâneos que promete agilidade, menor custo e segurança para os usuários com impactos diretos às pessoas físicas e aos negócios no país. De antemão, muitos desses impactos, só saberemos depois da mudança.

“O PIX parece ser uma reação contra as inovações geradas pelas criptomoedas, podendo ser um marco na história bancária do país frente o avanço das das criptomoedas ou até um caminho para elas”.

Uma das principais promessas da plataforma PIX é a eliminação dos custos (financeiro e de tempo) relacionados às transferências financeiras tais como: Boletos, TEDs , DOCs e pagamentos em espécie.

Com ele, será possível efetuar transações financeiras diretamente entre pessoas físicas, empresas e até órgãos governamentais. Será uma opção mais fácil e barata para transferências e pagamentos, o que demonstra grande potencial de conversão de usuários ao novo método.

Ao contrário do que se imagina, o PIX não é uma criação dos bancos brasileiros e sim do governo brasileiro, mais especificamente do Banco Central do Brasil.

Em nossas pesquisas não encontramos o racional por trás do nome de batismo da solução, mas acreditamos que um nome curto e simples pode colaborar em seu processo de adoção pelo público geral. 

Marca oficial do PIX.

Diferentemente das Crypto-moedas  que geralmente são reguladas por comunidade em uma tecnologia chamada blockchain, o PIX é regulado por um órgão centralizado.

Seu lastro é baseado em Moeda fiduciária ou seja, não é lastreado a nenhum metal (ouro, prata). Seu valor está associada a confiança que as pessoas têm em quem emitiu o título, neste caso o Banco Central. Em contrapartida, nas Cryto-moedas é baseado na escassez e unicidade de cada partícula de moeda garantida pela rede de computadores de forma descentralizada. 

As taxas de transferências do PIX serão baixas ou até nulas mas estarão sempre associadas e no controle do Banco Central que, como órgão do estado, que poderá regular as taxas quando necessário de forma tão rápida quanto as transações.

Cryto-moedas tem o custo de transação atrelada a complexidade da mineração de novos códigos e outros custos associados à orquestração e demanda da rede de compradores e vendedores de moeda. 

PIX na visão de Data Analytics

A estruturação PIX atende critérios importantes de governança de dados e os 5 critérios de BigData pois terá volume, velocidade, variedade, veracidade e valor (Informações sobre os 5V do Big Data). 

No mundo de analytics, o PIX pode ser também entendido como uma plataforma que centralizará todas os pagamentos digitais do país gerando um grande repositório de dados (Data Lake) com datasets (o que é dataset) extremamente valiosos porque permitirá em tempo quase real: 

Ainda, com um datalake desta magnitude a disposição do estado, será relativamente fácil relacionar de forma rápida dados de transações com com outros órgãos governamentais como por exemplo da saúde e educação em diversas ocasiões como pandemias por exemplo. Ou então, imaginem que os dados poderiam eventualmente ser compartilhadas com a receita federal por exemplo? 

Muitos outros argumentos podem ser montados a partir das estratégia de analytics, e por isso acreditamos que existem um grande potencial de que este banco de dados regido pelo Banco Central se torne um banco de dados mais precioso do país, caso haja a adoção em massa da população.

A imagem abaixo resume a visão do PIX como uma estratégia de Big Data analytics.

A estratégia de dados do PIX na visão da Aquarela.

Características do PIX

O método Pix tem uma estrutura baseada em 7 características fundamentais:

1. Disponibilidade:

Ter grande disponibilidade significa permitir que as transferências ocorram a qualquer hora e sem demoras, gerando agilidade. Esta disponibilidade inclui, logicamente, feriados, sábados, domingos e horários não comerciais.

2. Conveniência:

A conveniência está ligada a praticidade para se fazer as transferências a partir do celular em casa e outros contextos que facilitam a vida do cidadão.

3. Velocidade:

Uma transação não pode demorar 2 horas para ocorrer e as pessoas ficam ali esperando até que ela ocorra. Por isso cada transação deve ser feita em até 10 segundos. É um grande desafio tecnológico. 

4. Segurança:

Este talvez seja o ponto mais crítico da solução, pois, envolve dinheiro, dados pessoais, relacionamentos, informações de tendências de mercado e o que mais a criatividade humana ou artificial puderem criar.

Logicamente, toda solução tecnológica deve obrigatoriamente cobrir as questões de segurança dos dados em seu stack tecnológico (O que é um stack tecnológico?).

No caso do PIX, a segurança está pautada em esquemas de assinatura digital, certificados ICP-Brasil no padrão SPB e criptográficas baseadas em hardware. Para detalhes, ver o manual divulgado pelo Banco Central neste link .

5. Ambiente aberto:

Diferentes provedores de serviços serão conectados. Será o nascimento do ecossistema de pagamentos instantâneos. Os modelos atuais são fechados ou barreiras de entrada muito altas.

6. Multiplicidade de casos de uso:

Pode ser utilizado para muitos tipos de transações que hoje podem obrigam ser um pagamento somente por boleto por exemplo. Exemplos, a utilização do PIX para a conta de luz, o almoço e até impostos. Hoje existem formas que geram transtornos sistêmicos na sociedade. 

7. Fluxo de dados com informações agregadas:

Outras informações além da transação pode ser adicionadas, do ponto de vista de analytics, é mais dados para análise.

Análise comparativa dos métodos

Na tabela abaixo, temos um comparativo das características basilares do PIX em relação aos atuais serviços de pagamento disponíveis no mercado.

CaracterísticasTradicionalPIXCriptos moedas
DisponibilidadeLimitado aos dias úteis e horario comercial24/724/7
ConveniênciaAcesso presencial, caixas eletrônicos e (recentemente) pelo celularAplicativo de celular QR CodeAplicativo de celular com ou sem QR Code
VelocidadeDe poucos minutos até 2 dias úteis10 segundosInstantâneo ou até 24 horas dependendo da ocupação da rede
SegurançaSenhas simples, cartões e/ou biometriaAssinatura digitalChaves criptográficas
Ambiente abertoNãoSimSim
Multiplicidade de casos de usoSim, mas baixa interoperabilidaeSimSim
Fluxo de dados com informações agregadasNãoSimSim
Comparativo das características do Pix e outros métodos de pagamento.

Fluxo de adoção do PIX

Nesta visualização, apresentamos nossa interpretação de um fluxo simplificado (visão macro da jornada) de um usuário até a sua primeira transferência monetária utilizando o PIX. Todavia, caso tenha adições importantes, deixe seu comentário no artigo que tão pronto revisaremos. 

Fluxo de adoção de usuários da plataforma.

Conclusões

Neste artigo apresentamos o resultado de nossa pesquisa sobre o PIX, comparamos suas características com outros modelos de métodos de pagamento. Em síntese, o baixo custo e a facilidade de acesso colocam o PIX em vantagem diante do que temos disponível hoje no país.

Acreditamos que com a adoção em massa da solução pelos brasileiros, o PIX conseguirá agregar informações que o tornarão o banco de dados mais valioso da américa latina e uns dos mais valiosos do mundo. Por esse motivo, nosso principal alerta se dá para manutenção de sua segurança em seus vários aspectos.

Do ponto de analytics, o banco central teme pela perda do rastreamento dos fluxos financeiros das operações no mundo. Desta forma, este controle (centralização) permite muitos benefícios tais como evitar fraudes financeiras, lavagem de dinheiro e relatórios precisos da realidade do país. 

Sem o custo dos pagamentos este dinheiro ficará no setor produtivo que poderá produzir outros bens e serviços na sociedade.

Ainda, acreditamos que será um grande passo do Brasil no caminho da digitalização de serviços que impulsionarão estratégias de precificação dinâmicas em diversos setores que se beneficiam com uma economia cada vez mais digital.

Quem é a Aquarela Advanced Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes como Embraer, Grupo Randon, Solarbr Coca-cola e outros.

Fique atento às novas publicações da Aquarela Analytics no Linkedin e assinando Newsletter

Autores