Data mining ou mineração de dados é a prática de examinar dados que já foram coletados por meio da utilização de diversos tipos de algoritmos. Normalmente, isso acontece de forma automática a fim de gerar novas informações e encontrar padrões. Veja em mais detalhes neste artigo o que é data mining, e como a mineração de dados se coloca diante de temas mais recentes como o Advanced Analytics e a Indústria 4.0.
Na prática, como funciona a mineração de dados?
Minerar dados é um processo de transformar dados em informações úteis (dados mais valiosos a partir de dados complexos). Então, para atingir esse objetivo, realizam-se alguns passos, como: encontrar padrões, associações e anomalias gerais nos dados.
É importante ressaltar que em data mining não importa a forma de coleta dos dados, se via banco de dados, web scraping, API`s, por exemplo.
Data mining: seu surgimento e a economia da informação
O data mining surgiu com a emersão da economia da informação, que por sua vez representa a informação sendo utilizada como mercadoria e como bem de produção.
Uma das primeiras aparições do termo “economia da informação” no mundo científico foi em 1986, com Bruce Greenwald e com o ganhador do Nobel de economia, Joseph Stiglitz. Nesse contexto, os acadêmicos argumentam que as pessoas não possuem acesso a todas informações disponíveis, tornando assim os mercados imperfeitos.
Esse foi, na época, um argumento distante da premissa econômica até então dominante que afirmava que a mesma informação era acessível a todos. Sendo assim, a informação passou a ser vista como um diferencial, como uma forma de extrair insights para melhorar as decisões gerenciais no âmbito corporativo.
Na economia da informação, praticamente todas as transações e operações realizadas por pessoas e empresas no dia a dia geram algum tipo de dados. Data mining entra nesse contexto com a aplicação de equações matemáticas e métodos estatísticos. Eles vão desde o uso de uma regressão logística até redes neurais, deep learning, análise de clustering (agrupamentos) e classificações automáticas.
Uma das primeiras soluções focadas em data mining, para fins de exemplificação, foi o software Weka. O Weka, criado em 1993 e mantido até os dias atuais, é uma rica coleção de algoritmos de machine learning e data mining. O propósito do software em sua concepção foi permitir que o usuário não precisasse conhecer linguagens de programação para fazer o pré-processamento dos dados (organizá-los) e assim aplicar diversos algoritmos prontos em seus próprios dados.
Data mining na Indústria 4.0
Mais do que a economia da informação, hoje vivemos em uma transição econômica como um todo para a indústria 4.0.
A Indústria 4.0 caracteriza-se por serviços concebidos e produzidos de forma descentralizada, com forte apoio de Advanced Analytics, Inteligência Artificial (a máquina com capacidade de aprender) e Inteligência Coletiva (as pessoas, coletivamente, cooperando para que as máquinas aprendam). Esse processo teve seu início com o boom da internet no começo dos anos 2000.
Na Indústria 4.0, os smartphones, por exemplo, permitem tanto a Inteligência Artificial quanto a Inteligência Coletiva fazerem parte das decisões do dia a dia das pessoas. Assim, gera-se uma imensidão de dados, e cada vez em maior quantidade.
Nesse contexto, a mineração de dados é a base para uma integração com métodos mais avançados, que envolvem desde as ferramentas mais básicas, como regressões e árvores de decisão, até modelagens mais complexas com elevado nível de otimização de análise, utilizando também métodos de aprendizagem de máquina, big data, entre outros. Nesses casos, o propósito costuma ser análises preditivas e prescritivas, que conduzem os indivíduos a tomarem suas decisões de forma mais rápida, automatizada e otimizada.
Como aplicar data mining em um ambiente de negócio?
Na mineração de dados, o que gera valor de fato é o conjunto de ações que são tomadas a partir dos processamentos dos dados. Por isso, é preciso saber onde aplicar as técnicas e quais ferramentas de mineração são mais adequadas para cada caso, dando vida a um novo perfil de profissionais chamada Cientista de Dados
Então, onde se aplica data mining? Sempre que existirem processos definidos têm-se dados. Usa-se a mineração de dados no momento em que esgotam-se as alternativas iniciais de análise, como análises a “olho nu”, com planilhas de dinâmicas ou ainda com o uso de estatística descritiva, entre outros.
Veja a seguir uma lista de exemplos práticos da aplicação da mineração de dados em ambientes de negócio, que conduzem a melhorias das decisões gerenciais e estratégicas:
1. Dados gerados internamente nas organizações
Dados transacionais ou extraídos de sistemas em geral da organização podem ser tratados e minerados. Por exemplo: dados de CRM, ERP, softwares de marketing digital, plataformas de monitoramento de websites (como o Google Analytics), e-commerce, supply-chain, dados de logística, entre outras inúmeras áreas de negócios.
2. Dados sociais
Dados que estão sempre crescendo e descrevem pessoas: quem são, onde estão, que serviços e produtos estão usando. Usar esses dados para fins de negócios é a maneira como a economia da informação funciona. Isso é um dos grandes motores no advento da indústria 4.0.
3. Área da saúde
A mineração de dados possui diversas aplicações na área da saúde. Por exemplo, Aquarela, juntamente com a Prefeitura de Vitória/ES, minerou e analisou dados de faltas em agendamentos médicos. Após as análises, tomaram-se decisões estratégicas que reduziram as faltas em agendamentos de cerca de 30% para aproximadamente 15%. Assim, gerou-se uma economia milionária aos cofres públicos.Veja o case em detalhes.
4. Obras públicas
Com a tendência de transparência pública no Brasil, cada vez mais dados públicos têm sido disponibilizados gratuitamente via web. Isso viabiliza a realização de análises que podem levar à população um poder extra de monitoramento de como o dinheiro público tem sido utilizado.
Como case de exemplo, a SEFAZ/SC e a Aquarela Advanced Analytics utilizaram técnicas avançadas de análise de dados para a descoberta de padrões de obras públicas do estado de Santa Catarina, tornando-as assim acessíveis à população, em complemento ao portal da transparência do governo. Veja neste post os resultados das análises.
5. Capital de risco em empresas de base tecnológica
Diante de uma grande diversidade de startups surgindo e também de fundos de investimento em venture capital e capital de risco, técnicas de data mining podem auxiliar a encontrar as melhores startups focadas em dados de fundos de investimentos. Além disso, podem dar uma visão às startups de quais fundos de investimentos são mais propensos a se tornarem investidores.
Em mais um case, a Aquarela analisou as características de startups unicórnios (com valor de mercado superior a U$ 1 bi.), cruzando os dados com seus respectivos fundos investidores. Entre as perguntas-chave estava identificar padrões e clusters nas empresas unicórnios e comparar as variáveis das empresas com as rodadas de investimentos que receberam de fundos de capital de risco.
Mineração de dados é um processo cujo fim é gerar informações a partir de dados em que são utilizadas diversas ferramentas e métodos. Ou seja, não há “receita de bolo” para trabalhar com data mining. Cada caso é único, por isso demanda profissionais com grande capacidade criativa para definição dos modelos.
Data mining é um termo antigo, levando em conta o grande dinamismo do mundo da tecnologia. Com o passar do tempo, também surgiram diversos outros termos que podem gerar confusões. Por isso, veja o artigo em que tratamos sobre as diferenças entre BI, data mining e big data.
Por fim, a forma de extrair informações estratégicas a partir dos dados representa o que é data mining. Mas, de forma mais ampla, surge o Advanced Analytics, em que a mineração de dados é parte de um processo que envolve desde o desenvolvimento da cultura de Analytics nas empresas até a construção de análises e sistemas preditivos e prescritivos com uso de IA.
Doutor e Mestre em Finanças pela Universidade Federal de Santa Catarina – Brasil. Pesquisador em finanças / economia comportamental e mercado de capitais. Atualmente Data Scientist aplicando estratégias de aprendizado de máquina em problemas de negócios de grandes organizações no Brasil e no exterior.
Fundador e Diretor Comercial da Aquarela, Mestre em Business Information Technology com especialização em logística – Universiteit Twente – Holanda. Escritor e palestrante na área de Ciência e Governança de Dados para indústria e serviços 4.0.
Fundador da Aquarela, CEO e arquiteto da plataforma VORTX. Mestre em Engenharia e Gestão do Conhecimento, entusiasta de novas tecnologias, tendo expertise em linguagem funcional Scala e em algoritmos de Machine Learning e IA.
Web scraping é uma ferramenta que permite a coleta de dados automatizada de websites. Essa técnica possibilita a aquisição de grandes quantidades de dados em tempo reduzido, permitindo assim análises e estudos para desenvolvimento de modelos de inteligência artificial. Diversos setores fazem uso e se beneficiam dessa ferramenta, portanto vale a pena conferir melhor o que é, como funciona e qual é a sua utilidade.
Digamos que você queira obter informações de um site. Basta entrar nesse site, procurar a informação desejada e então copiá-la para um arquivo. Imagine agora que você precisa obter informações de dezenas de sites. O processo se torna muito mais demorado e cansativo de ser realizado manualmente. E se pudéssemos automatizar esse processo de busca, adquirindo e armazenando diversas informações de diversos sites distintos? É nesse cenário que entra o conceito de web scraping.
O que é web scraping?
Web scraping pode ser entendido como uma coleta de dados automatizada de websites. Dessa forma, é possível adquirir e armazenar grandes quantidades de dados disponíveis publicamente em diversos sites. Posteriormente, podemos utilizar esses dados para análise e obtenção de insights, comparação de dados, criação de modelos de inteligência artificial e outras aplicações. Alguns exemplos de dados coletados por web scraping podem ser preços de mercadorias, dados de monitoramento climático e ações.
Como funciona?
É muito comum que os dados de diversos sites sejam não estruturados, misturando informações de textos, imagens e links. Dessa forma, a utilização de web scraping converte esses dados para um formato estruturado, agrupando informações semelhantes em uma planilha, por exemplo, para melhor visualização e acesso.
O conceito básico envolvido no web scraping é:
Especificar o site do qual se deseja obter informações;
Solicitar o código HTML da página do site;
Identificar no código a marcação das informações a serem coletadas;
Salvar os dados no formato desejado.
Pode-se aplicar essa metodologia utilizando a linguagem de programação Python em conjunto com algumas bibliotecas voltadas para web scraping.
Qual a utilidade do web scraping?
Podemos utilizar o Web scraping em diversas áreas para a mesma finalidade: coleta de dados.
Pesquisa de mercado: é muito comum a utilização da coleta de dados automatizada para obtenção de informações de concorrentes, por exemplo: preço, vendas e demanda. Essas informações são de grande interesse para auxiliar na decisão de estratégias de precificação e promoções.
Monitoramento de notícias: outra aplicação é para obtenção e estruturação de notícias. Muitas empresas utilizam notícias para tomada de decisão, por isso é tão importante o monitoramento automatizado dessas informações.
Monitoramento do tempo: dados climáticos são de extrema importância para os setores agropecuário e de energia, tendo assim grande impacto em sua produção e geração. Diversas empresas utilizam a coleta de dados do tempo para a construção de modelos de inteligência artificial e tomada de decisão.
Sistemas de recomendação: grandes empresas de redes sociais coletam grandes quantidades de dados para o desenvolvimento de sistemas de recomendação de seus produtos para os usuários, considerando o seu histórico de buscas e interesses.
Conforme mencionado, o web scraping automatiza a coleta de dados e, posteriormente, utilizam-se esses dados para alguma finalidade dentre tantas áreas.
Web scraping – Considerações finais
Para uma grande geração de dados, é necessário ferramentas para lidar com coletas e armazenamento. A técnica de web scraping é amplamente utilizada por empresas para coletar e armazenar automaticamente grandes quantidades de dados de diversas fontes que são posteriormente utilizadas para o benefício da empresa.Vale ressaltar que o web scraping é uma ferramenta única para cada site, sendo que sua construção varia de acordo com o site a ser examinado. Além disso, se o site sofrer alguma atualização ou alteração, é muito possível que o scraper (código que implementa o web scraping) desse site também precise ser alterado. Portanto, apesar da facilidade trazida pelo scraper, é necessário um constante monitoramento para garantir seu bom funcionamento.
Cientista de dados na Aquarela. Graduado em engenharia elétrica pela UFSC. Entusiasta nas áreas de ciência de dados, aprendizado de máquina e processamento de sinais.
Neste artigo, vamos falar sobre o que é o Planejamento Estratégico de IA e Analytics, quais as características dos cenários que demandam este tipo de projeto dentro da jornada de Transformação Digital das empresas em direção à Indústria 4.0.
O que é o planejamento estratégico de IA e Analytics?
O planejamento estratégico de IA e Data Analytics é um projeto de caráter estruturante que combina um conjunto de atividades consultivas elaboradas (preferencialmente por equipes com uma visão externa da organização) para o levantamento de cenários, mapeamento de processos analíticos, elaboração de ativos digitais (sistemas e bancos de dados e outros) a fim de auferir os diferentes níveis de maturidade analítica dos times, dos departamentos e da organização como um todo.
Como resultado, chega-se às definições compartilhadas da visão, missão, valores, políticas, estratégias, planos de ações e boas práticas de governança de dados para alavancar o nível de maturidade analítica da organização no menor tempo e custo possível. (Quais são os 5 níveis de maturidade analítica?)
Sintomas de cenários de baixa maturidade analítica
Embora existam muitos tipos de negócios, produtos e serviços no mercado, apresentamos, aqui, padrões emergentes que ajudam a caracterizar o problema da maturidade analítica das empresas e que podem gerar reflexões interessantes:
Atualmente, é possível saber quais iniciativas de analytics (análises de dados) já aconteceram e quais ainda estão acontecendo? Além disso, quem são os responsáveis? E quais foram os resultados?
Nas iniciativas analíticas, é possível saber quais dados foram utilizados e até reproduzir a mesma análise?
As análises de dados acontecem de forma aleatória, espontânea e isoladas nos departamentos?
É possível visualizar todos os ativos de dados ou datasets disponíveis para gerar análises?
Existem situações em que um mesmo indicador aparece com valores diferentes dependendo do departamento em que é feita a análise?
Projetos estruturantes de data analytics estão sendo contemplados no planejamento estratégico?
Outros problemas comuns
Identidade organizacional
Cenários com baixa maturidade analítica não apresentam problemas na qualidade de dados de forma isolada. Normalmente, existem problemas sistêmicos que envolvem a complexidade de processos de negócio, o nível de capacitação dos times, processos de gestão do conhecimento e, por fim, as escolhas das tecnologias da operação do ERP, CRM, SCM e como esses sistemas transacionais se relacionam.
Questões de segurança
As empresas são organismos vivos que evoluem constantemente com pessoas atuando em diferentes áreas. Assim, com o passar do tempo, perde-se o controle dos níveis de acesso de cada colaborador fazendo com que pessoas não autorizadas tenham acesso a informações sensíveis e também o inverso, quando pessoas não conseguem acesso aos dados que precisam para seu trabalho.
Excesso de planilhas e duplicidades
As planilhas são uma das ferramentas mais úteis e importantes da gestão e por isso estão sempre auxiliando em diversos processos. O grande efeito colateral do uso excessivo de planilhas é a manutenção do conhecimento de cada processo. Quando existem duas ou mais pessoas e o volume de informações e atualizações começam a crescer se torna difícil gerenciar o conhecimento que trafega em blocos com as planilhas. Além disso, muitas duplicidades acontecem e tornam praticamente impossível consolidar dados com segurança e em grande volume.
Mais sobre as limitações das planilhas neste outro artigo .
Quais os benefícios do planejamento estratégico de IA e Analytics?
Espera-se de uma gestão data-driven que os dados forneçam não apenas desenhos e rascunhos das condições da operação ou do mercado, mas uma fotografia em alta resolução da realidade presente e futura. Assim, fornece subsídios para o planejamento estratégico corporativo de curto, médio e longo prazo com os seguintes ganhos:
Prontidão processual e tecnológica para projetos de data lakes e laboratórios de Advanced Analytics e IA.
Aumento da intensidade de aplicação de técnicas científicas aos negócios, por exemplo: análises comparativas, simulações de cenários, identificação de padrões de comportamento, previsão de demanda e outros.
Aumento da veracidade das informações.
Segurança de acesso a informações em diferentes níveis.
Aceleração dos processos de onboarding (entrada de novos membros dos times), que por sua vez aprenderam mais rapidamente sobre o cenário de trabalho, como também começam a se comunicar de forma mais eficiente.
Maior enriquecimento de dados a partir do aumento da interação de equipes de diferentes setores para desafios analíticos.
Maior visibilidade das operações de analytics, organização para localizabilidade, acessibilidade, interoperabilidade e reutilização de ativos digitais.
Plano de mudança otimizado para Governança Corporativa orientada a dados.
Incorporação da mentalidade Analítica e de IA em diferentes setores.
Homogeneização das políticas e controles de dados.
Planejamento estratégico de IA e Analytics – Conclusões e recomendações
A elaboração de um planejamento estratégico de IA e Analytics é um passo importante para se atingir o nível de governança de dados que permita o uso intensivo de analytics e inteligência artificial nas operações, uma vez que a alta taxa de insucesso de projetos analíticos estão ligadas à baixa qualidade de dados, de processos e até do correto uso das tecnologias (capacitação).
Projetos estruturantes, como o planejamento estratégico de IA e Analytics são, ou pelo menos deveriam ser, o primeiro passo na jornada de transformação digital das empresas tradicionais. Por isso, temos a convicção de que no futuro toda empresa de sucesso terá uma ideia clara e compartilhada (visão, missão e valores) do que os dados significam para ela e para o seu modelo de negócio, em contraste aos investimentos em tecnologia de dados pura e simplesmente por conta da concorrência.
Acreditamos que o foco em dados orquestrados (arrumados e sincronizados) se refletirá em quase todas as áreas, por exemplo: na gama de serviços, nos modelos de receitas, nos principais recursos, processos, estruturas de custos, em sua cultura corporativa, seu foco em clientes e redes, e em sua estratégia corporativa.
Por último, mas não menos importante, vale apontar que, para que uma estruturação de sucesso aconteça, deve-se ter uma abordagem holística de longo prazo. Isso significa investimentos em tecnologia, pessoas e processos otimizados a fim de permitir o crescimento contínuo dos negócios.
Como a Aquarela vem atuando
A Aquarela Analytics vem desenvolvendo novas tecnologias e modelos de negócios baseados em dados em uma visão de que a quantidade e disponibilidade desses dados continuará crescente. Assim, levará os negócios a outros patamares de otimização.
O que fazemos especificamente para empresas:
Analisamos ecossistemas corporativos geradores de dados;
Determinamos a maturidade analítica. Além disso, derivamos campos de ação para organizações e serviços baseados em dados;
Desenvolvemos e avaliamos serviços baseados em dados;
Identificamos e estimamos o potencial dos dados para modelos de negócios futuros;
Desenhamos processos de transformação digital com base científica e orientamos sua integração organizacional.
Fundador e Diretor Comercial da Aquarela, Mestre em Business Information Technology com especialização em logística – Universiteit Twente – Holanda. Escritor e palestrante na área de Ciência e Governança de Dados para indústria e serviços 4.0.
Gestor de Negócios e Projetos na Aquarela Analytics. É Pós-graduado em Gestão de Projetos (MBA), Bacharel em Administração de Empresas, especializado em Sistemas, Modelagem de Processos de Negócios (BPM) e Gerenciamento de Projetos. Possui trajetória profissional na área de TI no segmento de sistemas integrados de gestão e de apoio à decisão.
Mestre em Engenharia de Produção com graduação em Engenharia de Transportes e Logística. Durante o mestrado, se aprofundou nas áreas de macrologística e economia regional, e desenvolveu pesquisas nas áreas de logística reversa, relocalização de cadeias produtivas, terceirização logística e pesquisa operacional.
É recente o uso de Inteligência Artificial na indústria brasileira, configurando casos isolados considerados outliers. Nesses casos, a utilização de IA já vem gerando resultados otimizados, como a maximização da eficiência nos processos e a redução de custos, além de contribuir para o aperfeiçoamento da vantagem competitiva.
Neste artigo, vamos compartilhar alguns exemplos do uso da Inteligência Artificial na indústria.
Gestão e manutenção de ativos
De um modo geral, as indústrias detém grande quantidade de ativos físicos de alto valor agregado. Esses ativos, que demandam um controle apurado de suas condições de uso (monitoramento), podem se beneficiar de estratégias de IA para que suas manutenções sejam mais bem planejadas.
“Todos os ativos precisam de manutenção. A grande questão da otimização é reconhecer o melhor momento para ela”.
Joni Hoppen
A inteligência analítica preditiva e prescritiva, mais dispositivos de IOT, estão atuando para descobrir o melhor plano de ação das manutenções, que, dependendo do cenário (operação, ativos e usuários), podem representar milhões de reais em economia direta.
Com a movimentação dos estoques e das linhas de produção cada vez mais mapeadas digitalmente, torna-se mais tangível materializar estratégias de precificação dinâmica e inteligente dos produtos e até de serviços. Além disso, como efeito direto dessa digitalização, é possível criar e aproximar processos de previsão de demanda baseados em Inteligência Artificial com a operação com ganhos consideráveis de economia pela estratégia de demanda ajustada.
Recursos humanos otimizados
Assim como as máquinas, as pessoas desempenham um papel fundamental na produção industrial, seja na confecção do produto final ou na construção dos equipamentos.
Por esse motivo, há a tendência crescente de soluções de IA voltada para a evolução das pessoas. Estes sistemas, chamados de People Analytics ou People 4.0, são soluções customizadas para acompanhar a evolução dos profissionais. Cabe à Inteligência Artificial identificar padrões de comportamento e perfis a fim de recomendar cursos e atividades que auxiliem nas progressões de carreira.
Em breve, compartilharemos um de nossos cases sobre o assunto.
Desenvolvimento de novos produtos
Sem dúvidas, a maior parte de todos os produtos industriais que conhecemos e usufruímos hoje são resultado direto das milhares de interações entre profissionais, universidades, empresas, professores e alunos. Mas o que muda no novo paradigma industrial baseado em IA?
Que os novos produtos podem ser concebidos com todos os insumos citados acima e ainda milhões de opções criadas por simuladores 100% digitais. Como resultado, a Inteligência Artificial começa a permitir que a concepção de novas peças seja mais aderente e rápida ao atendimento dos requisitos do mercado. Assim, ela pode, inclusive, gerar peças de melhor qualidade com melhor custo de produção.
Atualmente, trabalhamos com esta frente que consideramos uma das mais estratégicas da indústria avançada.
Considerações finais – Inteligência Artificial na Indústria
Neste artigo buscamos apresentar quatro áreas/abordagens do uso estratégico de Analytics com foco na indústria.
A indústria, em especial, a brasileira, passa por um profundo momento de transformação digital. Ela precisa de aprimoramentos em seu stack tecnológico analítico para então colher os frutos gerados pela inteligência artificial.
A lista de oportunidades em IA não é exaustiva, mas aponta para alguns caminhos que certamente mudam a forma de se trabalhar na indústria, apresentando resultados cada vez mais expressivos.
Sobre o futuro, a Inteligência Artificial na indústria ainda reserva algumas novidades. Entretanto, temos a certeza de que os produtos industriais serão mais otimizados e integrados em uma cadeia de valor cada vez mais digital e global.
Fundador e Diretor Comercial da Aquarela, Mestre em Business Information Technology com especialização em logística – Universiteit Twente – Holanda. Escritor e palestrante na área de Ciência e Governança de Dados para indústria e serviços 4.0.
Hoje vamos apresentar o PIX que é um novo método/sistema de transações bancárias/pagamentos que substituirá os conhecidos boletos, TEDs, Docs e outras formas de pagamento.
Como resultado, o PIX promete democratizar e simplificar os pagamentos no Brasil ao mesmo tempo em que, na visão de big data analytics, gerará o banco de dados analítico mais valioso e cobiçado do país.
Aproveitamos também para fazer algumas análises comparativas entre o PIX, métodos tradicionais e criptomoedas.
O que é o PIX ?
A ideia do PIX é ser um método/sistema de pagamentos instantâneos que promete agilidade, menor custo e segurança para os usuários com impactos diretos às pessoas físicas e aos negócios no país. De antemão, muitos desses impactos, só saberemos depois da mudança.
“O PIX parece ser uma reação contra as inovações geradas pelas criptomoedas, podendo ser um marco na história bancária do país frente o avanço das das criptomoedas ou até um caminho para elas”.
Uma das principais promessas da plataforma PIX é a eliminação dos custos (financeiro e de tempo) relacionados às transferências financeiras tais como: Boletos, TEDs , DOCs e pagamentos em espécie.
Com ele, será possível efetuar transações financeiras diretamente entre pessoas físicas, empresas e até órgãos governamentais. Será uma opção mais fácil e barata para transferências e pagamentos, o que demonstra grande potencial de conversão de usuários ao novo método.
Ao contrário do que se imagina, o PIX não é uma criação dos bancos brasileiros e sim do governo brasileiro, mais especificamente do Banco Central do Brasil.
Em nossas pesquisas não encontramos o racional por trás do nome de batismo da solução, mas acreditamos que um nome curto e simples pode colaborar em seu processo de adoção pelo público geral.
Marca oficial do PIX.
Diferentemente das Crypto-moedas que geralmente são reguladas por comunidade em uma tecnologia chamada blockchain, o PIX é regulado por um órgão centralizado.
Seu lastro é baseado em Moeda fiduciária ou seja, não é lastreado a nenhum metal (ouro, prata). Seu valor está associada a confiança que as pessoas têm em quem emitiu o título, neste caso o Banco Central. Em contrapartida, nas Cryto-moedas é baseado na escassez e unicidade de cada partícula de moeda garantida pela rede de computadores de forma descentralizada.
As taxas de transferências do PIX serão baixas ou até nulas mas estarão sempre associadas e no controle do Banco Central que, como órgão do estado, que poderá regular as taxas quando necessário de forma tão rápida quanto as transações.
Cryto-moedas tem o custo de transação atrelada a complexidade da mineração de novos códigos e outros custos associados à orquestração e demanda da rede de compradores e vendedores de moeda.
PIX na visão de Data Analytics
A estruturação PIX atende critérios importantes de governança de dados e os 5 critérios de BigData pois terá volume, velocidade, variedade, veracidade e valor (Informações sobre os 5V do Big Data).
No mundo de analytics, o PIX pode ser também entendido como uma plataforma que centralizará todas os pagamentos digitais do país gerando um grande repositório de dados (Data Lake) com datasets (o que é dataset) extremamente valiosos porque permitirá em tempo quase real:
Ainda, com um datalake desta magnitude a disposição do estado, será relativamente fácil relacionar de forma rápida dados de transações com com outros órgãos governamentais como por exemplo da saúde e educação em diversas ocasiões como pandemias por exemplo. Ou então, imaginem que os dados poderiam eventualmente ser compartilhadas com a receita federal por exemplo?
Muitos outros argumentos podem ser montados a partir das estratégia de analytics, e por isso acreditamos que existem um grande potencial de que este banco de dados regido pelo Banco Central se torne um banco de dados mais precioso do país, caso haja a adoção em massa da população.
A imagem abaixo resume a visão do PIX como uma estratégia de Big Data analytics.
A estratégia de dados do PIX na visão da Aquarela.
Características do PIX
O método Pix tem uma estrutura baseada em 7 características fundamentais:
1. Disponibilidade:
Ter grande disponibilidade significa permitir que as transferências ocorram a qualquer hora e sem demoras, gerando agilidade. Esta disponibilidade inclui, logicamente, feriados, sábados, domingos e horários não comerciais.
2. Conveniência:
A conveniência está ligada a praticidade para se fazer as transferências a partir do celular em casa e outros contextos que facilitam a vida do cidadão.
3. Velocidade:
Uma transação não pode demorar 2 horas para ocorrer e as pessoas ficam ali esperando até que ela ocorra. Por isso cada transação deve ser feita em até 10 segundos. É um grande desafio tecnológico.
4. Segurança:
Este talvez seja o ponto mais crítico da solução, pois, envolve dinheiro, dados pessoais, relacionamentos, informações de tendências de mercado e o que mais a criatividade humana ou artificial puderem criar.
Logicamente, toda solução tecnológica deve obrigatoriamente cobrir as questões de segurança dos dados em seu stack tecnológico (O que é um stack tecnológico?).
No caso do PIX, a segurança está pautada em esquemas de assinatura digital, certificados ICP-Brasil no padrão SPB e criptográficas baseadas em hardware. Para detalhes, ver o manual divulgado pelo Banco Central neste link .
5. Ambiente aberto:
Diferentes provedores de serviços serão conectados. Será o nascimento do ecossistema de pagamentos instantâneos. Os modelos atuais são fechados ou barreiras de entrada muito altas.
6. Multiplicidade de casos de uso:
Pode ser utilizado para muitos tipos de transações que hoje podem obrigam ser um pagamento somente por boleto por exemplo. Exemplos, a utilização do PIX para a conta de luz, o almoço e até impostos. Hoje existem formas que geram transtornos sistêmicos na sociedade.
7. Fluxo de dados com informações agregadas:
Outras informações além da transação pode ser adicionadas, do ponto de vista de analytics, é mais dados para análise.
Análise comparativa dos métodos
Na tabela abaixo, temos um comparativo das características basilares do PIX em relação aos atuais serviços de pagamento disponíveis no mercado.
Características
Tradicional
PIX
Criptos moedas
Disponibilidade
Limitado aos dias úteis e horario comercial
24/7
24/7
Conveniência
Acesso presencial, caixas eletrônicos e (recentemente) pelo celular
Aplicativo de celular QR Code
Aplicativo de celular com ou sem QR Code
Velocidade
De poucos minutos até 2 dias úteis
10 segundos
Instantâneo ou até 24 horas dependendo da ocupação da rede
Segurança
Senhas simples, cartões e/ou biometria
Assinatura digital
Chaves criptográficas
Ambiente aberto
Não
Sim
Sim
Multiplicidade de casos de uso
Sim, mas baixa interoperabilidae
Sim
Sim
Fluxo de dados com informações agregadas
Não
Sim
Sim
Comparativo das características do Pix e outros métodos de pagamento.
Fluxo de adoção do PIX
Nesta visualização, apresentamos nossa interpretação de um fluxo simplificado (visão macro da jornada) de um usuário até a sua primeira transferência monetária utilizando o PIX. Todavia, caso tenha adições importantes, deixe seu comentário no artigo que tão pronto revisaremos.
Fluxo de adoção de usuários da plataforma.
Conclusões
Neste artigo apresentamos o resultado de nossa pesquisa sobre o PIX, comparamos suas características com outros modelos de métodos de pagamento. Em síntese, o baixo custo e a facilidade de acesso colocam o PIX em vantagem diante do que temos disponível hoje no país.
Acreditamos que com a adoção em massa da solução pelos brasileiros, o PIX conseguirá agregar informações que o tornarão o banco de dados mais valioso da américa latina e uns dos mais valiosos do mundo. Por esse motivo, nosso principal alerta se dá para manutenção de sua segurança em seus vários aspectos.
Do ponto de analytics, o banco central teme pela perda do rastreamento dos fluxos financeiros das operações no mundo. Desta forma, este controle (centralização) permite muitos benefícios tais como evitar fraudes financeiras, lavagem de dinheiro e relatórios precisos da realidade do país.
Sem o custo dos pagamentos este dinheiro ficará no setor produtivo que poderá produzir outros bens e serviços na sociedade.
Ainda, acreditamos que será um grande passo do Brasil no caminho da digitalização de serviços que impulsionarão estratégias de precificação dinâmicas em diversos setores que se beneficiam com uma economia cada vez mais digital.
Fundador e Diretor Comercial da Aquarela, Mestre em Business Information Technology com especialização em logística – Universiteit Twente – Holanda. Escritor e palestrante na área de Ciência e Governança de Dados para indústria e serviços 4.0.
Full Stack Marketer na Gold Soluções, com experiência na construção e análise de processos comerciais, Bacharela em Sistemas de Informação pela Universidade Federal do Rio Grande (FURG) e Técnica em Administração pela ETEC-SP