Problemas em Prever demanda – parte 2

Problemas em Prever demanda – parte 2

Prever demanda é estratégico, mas não é fácil, pois está sujeita a fatores externos à companhia, como por exemplo: clima, o nível de atividade econômica, preços da concorrência, acessibilidade ao produto-serviço e, até mesmo a impasses geopolíticos.  

Neste artigo vamos compartilhar alguns dos possíveis problemas relacionados ao desafio da previsão de demanda. Sugerimos a leitura da parte 1 para entender como abordamos o desafio da previsão de demanda

Processos não colaborativos

O Planejamento de Demanda deve ser um processo colaborativo entre diferentes áreas da companhia, e aqui citamos: suprimentos, produção, logística, marketing, vendas e T.I. 

TI?! Peraí, o que o setor de Tecnologia da Informação tem haver com planejamento de demanda?

Por mais que você, Gestor, consiga, com sucesso, fazer o herculano trabalho de sincronizar as agendas e alocar os responsáveis de cada área na mesma sala de reunião, é bem provável que tenha dificuldades em chegar a um acordo sobre quais dados utilizar no planejamento da demanda (conte com a gente para resolver isso!). 

E quando você pensou que tudo isso foi resolvido, surge a questão de descobrir onde estão esses dados e como consumi-los. Bom… é nesse momento que você deve chamar o seu departamento de TI! 

A falta de colaboração entre as diferentes áreas da companhia sem dúvidas afeta suas operações internas, mas também resulta na formação de Silos de Informação (também conhecidos como Data Silos), isto é, repositórios (ou bancos) de dados isolados, que são controlados por essas diferentes áreas da companhia, e que não estão integrados e compartilhados aos demais sistemas da empresa, ferindo conceitos básicos dos 5Vs do Big Data.

Ou seja, a falta de colaboração é refletida nos dados, justamente – o principal insumo – para qualquer modelo de previsão de demanda, dos mais arcaicos feitos em planilha eletrônica até aos nossos mais complexos algoritmos de Advanced Analytics.

É por isso que em nossa visão – o cenário ideal – e que buscamos construir a quatro-mãos com nossos clientes industriais é: 

“Um ambiente onde os dados internos referentes à suprimentos, produção, vendas e distribuição estão devidamente integrados e associados à fatores externos relativos ao negócio e ao tipo de produto vendido.”

Aplicação de regras do passado no futuro para prever demanda

A aplicação de algoritmos de inteligência artificial, sejam eles quais forem, apresenta um tipo de risco metodológico importante: 

“Treinar uma máquina com padrões do passado, fará com que ela busque trabalhar como no passado, se queremos que ela gere um desempenho melhor do que o passado, precisamos saber como ensinar a máquina a esquecer alguns erros e reforçar os acertos, isso é um desafio”

Ciclo de vida dos produtos e produtos de características diferentes 

Em cada estágio da vida de um produto (da concepção até as vendas em escala), as decisões da gestão variam consideravelmente, e isso pode gerar, consequentemente,  reflexos importantes na capacidade de prever demanda. Assim, é recomendável tratar produtos e suas séries históricas de forma separada.  

Também, quando são colocados produtos com naturezas diferentes, haverá a mistura de padrões de comportamentos, como por exemplo, produtos frios não devem se comparados com produtos de massas e assim por diante.

Quanto mais controlado, balanceado e focado do dataset final de previsão de demanda, melhor pode ser a assertividade do modelo.

Regras de negócio pré estabelecidas

Quando analisamos, às vezes bilhões de transações de venda, percebemos que começam a surgir padrões nas vendas que não são necessariamente variações da demanda e sim da oferta. Isso ocorre quando há regras pré estabelecidas de negócio que são executadas em épocas específicas.

Vamos supor que uma fábrica têxtil oferte mais meias de crianças no verão do que no inverno ao longo dos últimos 5 anos, isso pode levar a ideia de que a demanda do produto é maior no verão, mas isso só seria possível verificar se a oferta gerada pela empresa for a mesma ao longo das estações.

Recomendamos entender como e onde estão as regras comerciais para, sempre que possível, fazer atenuações artificiais sobre as regras artificiais em um processo de harmonização de indicadores que, uma vez equilibrados, podem dar mais qualidade e visibilidade das variações aos algoritmos.  

Conclusões

Empresas com grande quantidade de produtos, em diversas regiões ao longo do tempo, enfrentam desafios para estabelecer um planejamento relativo a previsão de demanda, e alguns riscos devem ser mitigados, sobretudo no que tange a metodologia das análises e machine learning e regras comerciais pré estabelecidas que geram viés nos resultados passados. 

Apesar de serem vários os empecilhos metodológicos/técnicos e organizacionais  (expomos apenas alguns) que inibem um melhor planejamento da demanda. Prever demanda continua sendo possível, não para prever o futuro mas sim gerar condições favoráveis a decisões mais assertivas no presente. O que eu devo fazer agora para melhorar os resultados do futuro? 

Para ficar por dentro de esses e outros conteúdos de analytics, assine gratuitamente nossa newsletter e siga a Aquarela no Linkedin

Quem é a Aquarela Advanced Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes como Embraer, Grupo Randon, Solarbr Coca-cola e outros.

Fique atento às novas publicações da Aquarela Analytics no Linkedin e assinando Newsletter

Autores

O desafio da previsão de demanda na visão da Aquarela – parte 1

O desafio da previsão de demanda na visão da Aquarela – parte 1

Previsão de demanda é uma demanda

Conhecer a previsão de demanda de forma preditiva é um grande diferencial para estratégia, principalmente se vinculada aos processos de precificação, porém, esta é provavelmente a peça mais importante e difícil do quebra-cabeças do time de planejamento e gestão.

Uma forma interessante de enfrentar este desafio é apresentada pelo futurista Paul Saffo na Harvard Business Review onde, para ele:

O objetivo da previsão de demanda não é necessariamente prever o futuro, mas dizer o que você precisa saber para executar ações significativas no presente. 

Neste artigo, abordamos o tema da previsão de demanda nas cadeias de suprimento sob a ótica das novas capacidades de Advanced Analytics e como esse resultado pode ser integrado de forma estratégica na operação de processos de negócio e precificação.

Sazonalidade, influência do clima e geografia na demanda

Apesar de existirem tendências sazonais importantes que afetam os movimentos de compra da população (natal, páscoa e etc).

É importante notar que cada tipo de produto possui também características intrínsecas de consumo que, por sua vez, podem não flutuar nas ondas de tendência, e em alguns casos até podem apresentar correlação negativa. Ex. o caso dos materiais de construção. 

Considerando que o clima e a geografia afetam diretamente o comportamentos das pessoas e, consequentemente, seus desejos de consumo, faremos uma demonstração a título didático utilizando uma ferramenta Google Trends

O Google Trends mostra a intensidade de buscas textuais executadas no Google ao longo do tempo. Ou seja, quanto às pessoas de determinado local procuram algo no google durante os meses do ano. 

Comparativo de demandas Brasil vs Canadá

Assumindo que as pessoas apresentam um maior interesse de andar de bicicleta no verão do que no inverno, vamos fazer o seguinte teste:

Vamos buscar os resultados das buscas dos últimos 5 anos pelo termo “bike” (bicicleta em inglês) e “snow” (neve em inglês) no Canadá.  Escolhemos o Canadá porque sabemos a priori que este país tem um inverno bastante rigoroso. 

Na figura abaixo, temos a linha azul mostrando o aumento de buscas por bicicleta nos meses de verão no hemisfério norte, ao passo que, no final do ano essas buscas caem quase simetricamente.

De maneira oposta, as buscas por “neve” acontecem mais nos meses de dezembro e janeiro, com alguns picos que estão relacionados a acontecimentos relativos às nevascas ocorridas no período. 

Fazendo a mesma pesquisa, porém no cenário brasileiro com um clima mais estável e a neve sendo um fenômeno raro, verificamos diferenças marcantes nos padrões, onde os ciclos são menos previsíveis e a busca por neve se torna relativamente inferior às por bicicletas.  

Series históricas em diferentes setores

Preparamos a seguinte aplicação com dados reais para que possamos brincar um pouco de prever demanda.

Deixamos a série “demanda por tecidos e calçados” como padrão. Nesse sentido, além de ser uma série facilmente previsível, a mesma possui dois picos sazonais que chamam atenção, natal e dias das mães. 

Essas são técnicas estatísticas usadas quando dados de vários anos para um produto ou linha de produtos estão disponíveis, e quando as tendências são claros e relativamente estáveis.

Como é na prática?

Na prática, em projetos de Data Science, buscamos trabalhar com diversas variáveis em conjunto, para transformar um caldeirão de variáveis (datasets) em valor para nossos clientes na indústria e de serviços de forma integrada na plataforma VORTX.

Atualmente, há diversas maneiras de se fazer isso, a própria planilha do excel já pode trazer alguns resultados, porém não recomendamos, por questões de integração de sistemas e outras limitações sistêmicas

Bons exemplos de ingredientes de modelos de demanda, que usuários de planilhas não costumam ter acesso, são dados espaciais.

A geo estatística teve significativos avanços nas últimas décadas e aqui na Aquarela utilizamos muito. Assim, fazer bom uso destas ferramentas, com dados bem coletados, pode promover significativas vantagens em relação a concorrência (geo-marketing de expansão). 

Anteriormente já escrevemos sobre algumas técnicas de visualização que também podem contribuir com análises de demanda – Da visualização a tomada de decisão.

Integração da demanda nas estratégias de estoque e vendas

Vamos considerar que conseguimos elaborar um sistema com diversas técnicas de machine learning que nos trás uma alta taxa de assertividade. Neste cenário chegamos no segundo nível de desejo dos gestores, a automação de comportamentos inteligentes de forma antecipada. 

“O sonho de qualquer indústria é a precificação dinâmica em tempo real, associada a uma boa previsão de demanda” .

Para quem busca mais informações sobre os processos de precificação dinâmica e inteligente, escrevemos sobre isso usando como exemplo a precificação do metrô de Londres.  

As ações necessárias para que um sistema se comporte de forma inteligente dependem de muitos fatores técnicos/metodológicos que precisam estar associados aos processos de negócio. Para ajudar nesse mapeamento, criamos e recomendamos fortemente o uso do Analytics Business Canvas

Em alguns de nossos clientes, temos cenários onde determinados tipos de produtos precisam ser vendidos de maneira mais rápida do que outros devido a perda de valor monetário em relação ao prazo de validade, levando em conta a qualidade dos estoques – Smart Stock.

O sistema deve prever oportunidades de consumo maior na cadeia de suprimento, para que este produto seja encaminhado com priorização dentro da cadeira. Logo, técnicas de precificação e descontos podem ser aplicadas automaticamente conforme as previsões da demanda, sem excluir regras e limites de preço estabelecidas pelo time de preço.

Aprendemos que há sempre a necessidade de trabalhar com abordagens mescladas de precificação para que o resultado seja adequado às expectativas. O módulo que utilizamos é o Smart Pricing.

Conclusões e recomendações

Para prever a demanda com propriedade é necessário entender suas características, como tendência, sazonalidade, clima, região, público, etc.

A organização da análise e alinhamento de todos os envolvidos nestas análises podem ser facilitada com o uso do Business Canvas Analytics (download Gratuito).

O trabalho de profeta sempre foi e continuará sendo difícil. O que está havendo, no entanto, é que:

a emergência dos algoritmos de machine learning e metodologias de analytics tem permitido um aprimoramento deste trabalho sem precedentes, tornando as incertezas sobre o futuro um pouco mais administráveis. 

Bons dados nas mãos de bons cientistas de dados podem gerar predições confiáveis, mas isso não torna a atividade de previsão de demanda uma tarefa fácil. 

Na Aquarela desenvolvemos projetos integrados em uma plataforma de recomendação busca reduzir estes pontos de gargalo, utilizando diversas abordagens de I.A para a descoberta de padrões sazonais, regionais e histórico de consumo de produtos.

Tudo deve estar alinhado dentro de uma metodologia de dados para que a solução gere recomendações personalizadas de vendas e encaminhamentos logísticos ao mesmo tempo ajudem no controle do estoque e até colabora nas estratégias de otimização dos preços.

Acompanhe a parte 2 deste artigo, onde abordamos os principais problemas para prever demanda.

Quem é a Aquarela Advanced Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes como Embraer, Grupo Randon, Solarbr Coca-cola e outros.

Fique atento às novas publicações da Aquarela Analytics no Linkedin e assinando Newsletter

Autores

Por que o mercado demanda Big Data Analytics?

Por que o mercado demanda Big Data Analytics?

Dados são ativos-chave para quaisquer negócios que queiram fazer parte da Indústria 4.0.

Encontrar indícios do que seus clientes desejam, como mudou o estoque da empresa, ou como seus indicadores evoluíram com o tempo, são fundamentais para qualquer organização se manter acima do nível da água.

Quando dados são mal interpretados, podem ocultar informações vitais e prejudicar a tomada de decisão e quando o volume de dados aumenta e se torna não administrável, a cultura de Big Data Analytics se torna chave para encontrar sentido não só no que está acontecendo, mas também o porquê de cada processo. 

Por que o mercado demanda Big Data Analytics?

Para entender o que é Big Data Analytics, primeiro precisamos entender a dimensão do que é Big Data.

Exemplo na cadeia de suprimentos (logística)

Vamos imaginar uma empresa do ramo alimentício, com um portfólio de milhares de produtos e atendendo a mercados internacionais com uma vasta e complexa cadeia de suprimentos e logística que inclui múltiplos atores que vão desde o criador de animais até donos de supermercados e clientes.

Nesta cadeia de suprimento, cada item produzido, seus custos, preços, formas de distribuição e venda são mapeados dia-a-dia, gerando volumes de dados na casa dos milhões de relacionamentos de negócio. 

Todas as informações poderiam ser armazenadas em planilhas, se os registros não ultrapassarem  1 milhão de linhas (entenda as limitações das planilhas).  Como é de se imaginar, as informações acabam sendo fragmentadas em diversas planilhas, e com isso surgem algumas questões: 

  • Como podemos saber quais mercados estão aquecidos? 
  • Quais as tendências de compra de diferentes regiões? 
  • Onde pode faltar estoque e onde está sobrando?
  • Por que estou perdendo market share? 
  • Quais os gargalos da distribuição? 
  • Quais os fatores mais impactantes na margem de lucro por produto, cidade, estado, país? 

Big Data Analytics é chave para desvendar essas e muitas outras perguntas. 

Dimensões do Big Data Analytics  

Os 5Vs de Big Data

O que a Big Data Analytics faz, é lidar com esses grandes volumes de dados variados de forma veloz e verossímil, para transformá-los em valor para as empresas. Esses são os 5 Vs da Big Data, e entendê-los é fundamental para os aplicar no seu negócio:

  • Volume: Big Data lida com grandes volumes, transformando dados em informações, e informações em conhecimento. Não é incomum que nossos projetos lidem com milhões de amostras e milhares de variáveis. Fazendo um paralelo, pense em uma planilha com um milhão de linhas e mil colunas. Seria difícil entender algo sem Big Data Analytics, não?
  • Variedade: é comum que a aquisição de dados em empresas aconteça de forma múltipla. Pode ser necessário coletar dados de clientes, cruzar com bancos de dados geo-populacionais, dados do governo, entre outros. Claro, tudo isso respeitando a Lei Geral de Proteção de Dados (LGPD). Descobrir e agrupar dados relevantes e manter o pé na realidade é um grande desafio que exige uma cultura de dados desenvolvida;
  • Velocidade: claro que apenas coletar dados não é suficiente. Precisamos buscar estratégias para transformá-los em conhecimento o mais rápido possível, antes que o concorrente tome a frente. Na corrida por informações, entender dados rapidamente é poder;
  • Veracidade: aqui na Aquarela costumamos dizer que rodar modelos, mastigar números e chegar em resultados é a parte fácil. Difícil mesmo é ter certeza de que a análise está nos levando a conclusões coerentes, reais e com alto valor. Um modelo de Big Data é tão bons quanto os dados que entregamos a ele. Cabe a nós entender o que faz sentido e garantir que o resultado reflete a realidade; 
  • Valor: É neste V que se encontra o principal resultado da Big Data Analytics: transformar dados em valor. Entender de verdade o que e porquê as coisas estão acontecendo é fundamental para tomarmos decisões mais conscientes e certeiras.

Dados certos + perguntas certas = respostas certas

Big Data Analytics aumenta a inteligência dos negócios. Enquanto análises tradicionais buscam desvendar o que está acontecendo (de forma bastante limitada), o uso de Advanced Analytics é capaz de encontrar os porquês, o que está oculto, ou até mesmo estimativas do que vai acontecer.

Big Data Analytics é uma grande aliada no desenvolvimento de novos produtos, na redução de custos e aumento de eficiência, além da tomada de decisão de forma rápida e assertiva.

Big Data analytics e as suas frentes de atuação

Você já imaginou abrir uma planilha de 6 bilhões de cells no Excel? Ou, se a planilha abrir, tentar encontrar padrões de comportamento que façam sentido e ajudem a entender o que está acontecendo? Difícil, não?

Fase 1 – Aquisição dos dados

O primeiro desafio da Big Data Analytics sempre é adquirir os dados, um trabalho que os Engenheiros de Dados dominam. O desafio é, onde estão e como serão coletados.

Fase 2 – Limpeza dos dados

A limpeza dos dados tradicionalmente consome mais de 80% de todos os recursos dos projetos de analytics até se chegar aos datasets de análise (O que são Datasets?) . O desafio é, como garantir que os datasets estejam íntegros e maduros para análise. Somente os dados corretos são capazes de nos dar respostas certas mediante perguntas suficientemente assertivas.

Fase 3 – Mineração de padrões em dados

A mineração de dados, ou Data mining é fundamental (e um grande gargalo) para podermos acessar os dados e deixá-los prontos para serem analisados.

Nesse momento entram análises quantitativas com modelos matemáticos, ou mesmo modelos de Machine Learning. Isso tudo para conseguirmos utilizar dados para resolver os mais variados problemas.

Nesta fase entram os Cientistas de Dados e Engenheiros de Machine Learning, buscando soluções muitas vezes ocultas. É papel dessa equipe criar uma arquitetura que seja escalável, entender os reais problemas do cliente e atender aos 5 Vs.

Maturidade de Big Data Analytics no mercado Brasileiro

É claro que atingir essa maturidade e ter proficiência nos 5 Vs dentro de uma cultura coerente de dados e com processos bem definidos de governança não é tarefa fácil.

Para diagnosticar esse fato, realizamos em 2018 uma pesquisa que gerou um relatório revelando a realidade da maturidade de dados das empresas no Brasil. Em uma escala de 1 a 5, as empresas respondentes informaram o nível de maturidade de suas organizações.

Abaixo estão os resultados indicando que a automação de comportamentos inteligentes (nível 5) ainda é baixo, ao passo que a grande maioria já possui sistemas de BI (business Intelligence) implantados. 

a maturidade dos dados das empresas brasileiras
Resultado dos níveis de maturidade de dados das empresas Brasileiras (Aquarela 2018)

Big Data para Big Business

A projeção de receita mundial com análise de negócios e Big Data deve atingir 274.3 bilhões de dólares até 2022 (IDC), com empresas como Netflix economizando até 1 bilhão de dólares por ano com o uso de Big Data (TechJury). Para essas empresas, uma cultura de dados madura é essencial para se diferenciar e continuar crescendo. Organizações que utilizam Big Data, seja internamente ou externamente, veem um aumento entre 8 e 10% de lucro (Entrepreneur), com benefícios como (Chicago Analytics Group):


  • Ciclos de inovação 25% mais rápidos;
  • Aumento de 17% de eficiência e produtividade;
  • Pesquisa e Desenvolvimento 13% mais eficiente;
  • 12% mais diferenciação de produtos e serviços. (transformar em gráfico)

Não é à toa que muitas empresas estão em busca de melhorar seu relacionamento com dados, mas infelizmente a cultura de dados ainda não é uma realidade global. Cerca de 87% das empresas ainda possui maturidade baixa quando se trata de inteligência de negócios e Analytics (Gartner). Os custos desta desinformação e da baixa qualidade dos dados chega a 3.1 trilhões de dólares por ano apenas na economia dos EUA (IBM).

O crescimento rápido associado a complexidade do tema, fica evidente que as organizações precisam do apoio de empresas especialistas em analytics para acelerar a transformação digital, principalmente nas questões de implementação rápida de soluções de dados e de inteligência artificial. Vemos que muitas empresas assumem um alto risco tecnológico ao tentar formar equipes para atividades relativamente distantes do seu core business como é o caso de Big Data Analytics. 

A cultura de Advanced Analytics na Aquarela

Na Aquarela, nossa cultura de Big Data Advanced Analytics foi desenvolvida e evolui constantemente com foco em todos os Vs de Big Data Analytics, boas práticas de governança e também no aprimoramento do stack tecnológico que compõe a plataforma VORTX

Buscamos entregar uma experiência de resultados a partir de analytics que é capaz de mudar a cultura dos clientes, da indústria e dos serviços que passam por um intenso e sério processo de transformação digital. Para atingir esse objetivo, confiamos em nossos clientes e buscamos as soluções junto a eles, com todas as partes sendo essenciais para o sucesso dos projetos. Isso tudo vai além das análises pontuais de dados, pois é um intenso processo de evolução colaborativa guiada por dados, conhecedores de processos de negócios e tecnologias de informação e comunicação. 

Resultados tangíveis

Como resultados práticos, conseguimos elevar a maturidade de dados de nossos clientes, gerando por exemplo:

É uma grande gama de soluções que geram uma inteligência expandida, a qual não seria possível de ser alcançada sem todos os componentes da cultura de dados, atuando sinergicamente dentro de uma visão clara do que é inteligência artificial

Conclusões

Big Data Analytics é um algo muito amplo, os 5vs ajudam a simplificar o conceito para os gestores promoverem mudanças práticas na realidade das organizações. Hoje muitas empresas apresentam dificuldades em se reinventarem nesta nova economia digital, seja por limitação técnica no uso intensivo de planilhas ou por limitações metodológicas/culturais relacionadas a dados. 

Neste artigo, buscamos mostrar como o mercado vem apresentando sua demanda por analytics, quais os pontos de negócio mais importantes e até um pouco da maturidade de dados no cenário brasileiro. Desta forma, os principais temas que recomendamos aos gestores são: 

  • Governança de dados
  • Desenvolvimento de cultura de dados
  • Otimização de cadeias de distribuição, logística e design de processos comerciais
  • Privacidade de dados – Lei Geral de Proteção de Dados (LGPD)
  • Treinamento dos times em análise de dados – Disponibilizando um e-book para estruturação de análises

Nossos squads interdisciplinares trabalham dia-a-dia com tecnologias de ponta para entender os desafios, encontrar oportunidades, e resolver os seus maiores problemas. Se na indústria 4.0 dados são poder, nós buscamos empoderar nossos clientes para transformar dados em informação, informação em conhecimento, e conhecimento em valor estratégico para o seu negócio. É pela transformação digital que a Aquarela aumenta a inteligência do mundo. 

Quais desafios de Big Data Analytics você enfrenta hoje? E O que estão fazendo para superar?

Quem é a Aquarela Advanced Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes como Embraer, Grupo Randon, Solarbr Coca-cola e outros.

Fique atento às novas publicações da Aquarela Analytics no Linkedin e assinando Newsletter

Autores

Onde grandes empresas utilizam Inteligência Artificial (IA)?

Onde grandes empresas utilizam Inteligência Artificial (IA)?

Quando falamos de Inteligência Artificial ou simplesmente IA, é comum pensarmos em robôs e tecnologias abstratas e distantes. Apesar de ser utilizada para tais feitos, a IA também está presente no nosso dia a dia, muito mais perto do que costumamos pensar. 

Além de facilitar nossa rotina diária, a IA também é responsável por ajudar empresas e indústrias em seus processos de tomada de decisão, precificação e manutenção, melhorando processos e aumentando o retorno financeiro. Por isso, o investimento em inteligência artificial vem crescendo mundialmente e fazendo a diferença em diversos setores da economia (Internacional Finance Corporation). 

Neste artigo vamos mostrar como a IA tem impactado algumas das maiores empresas do mundo.

Alibaba

A gigante chinesa Alibaba utiliza algoritmos baseados em IA e processamento de linguagem natural (NLP) para ajudar na recomendação de produtos aos compradores e na previsão de demanda para os varejistas (Previsão de demanda na visão da Aquarela parte 1

Além disso, ela possui também um chatbot que, de acordo com a empresa, consegue suprir 90% das solicitações dos clientes. Essas tecnologias, no primeiro ano de sua implementação, permitiram que a empresa alcançasse a marca de US$ 25 bilhões em vendas no famoso Singles Day, contra US$ 17,8 bilhões quando comparado ao ano anterior.

Netflix

A Netflix revolucionou o mercado de streaming utilizando uma estratégia de personalização com recomendações focadas no usuário. Utilizando IA e análise de dados, a Netflix consegue entregar um serviço personalizado que deixa seus assinantes mais satisfeitos por encontrarem o que precisam sem buscar muito, tornando-se, dessa maneira, a líder mundial em serviços de streaming.

American Express

 A American Express, empresa de serviços financeiros, utiliza das vantagens da IA para prevenção de fraudes, detecção de outliers (O que são outliers?) e prevenção à inadimplência. Com algoritmos de aprendizado de máquina e análise de dados embutidos em um processo de precificação dinâmica, a empresa consegue economizar milhões em perdas. Assim, consegue detectar fraudes quase em tempo real e definir o limite de crédito de acordo com o perfil de seus clientes. 

Google

Talvez não seja novidade para ninguém que o buscador do Google utiliza recursos da Inteligência Artificial para recomendações e ranqueamento de sites, mas vai muito além disso. 

Outros sistemas que também utilizam IA são: 

  • assistente virtual, o Google Assistente
  • Google Fotos para reconhecimento e agrupamento de imagens; 
  • Gmail para sugestão de textos na escrita de e-mail; 
  • Google Maps para traçar a menor rota de um ponto ao outro e diversas outras aplicações. 

Infervision

Apesar de não ser tão conhecida, a Infervision ajudou a salvar milhares de vidas na China utilizando Inteligência Artificial (IA). Por meio de aprendizado de máquina e reconhecimento de imagens, a startup de diagnóstico por imagem conseguiu treinar algoritmos capazes de captar sinais precoces de câncer de pulmão com precisão e eficácia, um problema que aflige milhares de chineses todos os anos. Com isso, além de salvar vidas, conseguiu se estabelecer no mercado.

Aquarela + Grupo São Carlos

Em parceria com o grupo São Carlos, desenvolvemos um conjunto de mecanismos inteligentes para indústria e serviços de refrigeração que envolve a prevenção a falhas e a otimização do processo de manutenção. 

Neste cenário, a plataforma Vortx identifica os fatores críticos para a manutenção preventiva e corretiva a partir de dados de operação e IoT, utilizando técnicas de Machine Learning. Por meio de painéis online, monitora-se o estado do equipamento em tempo real e recomenda-se os procedimentos de troubleshooting. Assim, é gerada uma lista otimizada de procedimentos para a prevenção de falhas.

Impactos nos negócios a partir da utilização da Inteligência Artificial (IA):

  • Aumento da segurança;
  • Redução de custos com manutenção;
  • Maior produtividade.

Conclusão

Neste artigo mostramos que a Inteligência Artificial (IA) traz impactos positivos para a sociedade e para a economia. Além disso, é um mercado que vem trazendo retornos financeiros consideráveis para as empresas e indústrias que estão investindo nesse mercado crescente. 

Gostou do artigo? Deixe seu comentário e compartilhe.

Quem é a Aquarela Advanced Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes como Embraer, Grupo Randon, Solarbr Coca-cola e outros.

Fique atento às novas publicações da Aquarela Analytics no Linkedin e assinando Newsletter

Autores:

Normalização geográfica: o que é e quais suas implicações?

Normalização geográfica: o que é e quais suas implicações?

Há grande valor em representar a realidade por meio de visualizações, sobretudo as informações espaciais. Se você já viu um mapa, sabe que os polígonos que constituem os limites políticos de cidades e Estados são geralmente irregulares (ver Figura 1a). Essa irregularidade dificulta a condução de análises e, por isso, não pode ser tratada por ferramentas de Business Intelligence tradicionais.  

Repare o ponto verde na Figura 1b, ele está sobre o polígono (‘bairro’) n.14, situado entre n.16 e n.18. Então responda agora: qual região está exercendo maior influência no ponto verde? É o bairro n.16 ou o n.18? O ponto verde é representativo pela região n.14, região n.16 ou n.18? 

Para responder questões como essas e para minimizar o viés gerado por visualizações com polígonos irregulares, a Plataforma Vortx faz o que se conhece por Normalização da Geografia, transformando os polígonos irregulares em polígonos de tamanho único e formato regular (ver Figura 1c). 

Após a “normalização geográfica”, é possível analisar os dados de determinado espaço por meio de estatísticas absolutas, não somente relativas, e sem distorções provocadas por polígonos de tamanhos e formatos distintos.

normalização geográfica - mapa Florianópolis
Figura 1 – Fonte: Adaptado de Associação Comercial e Industrial de Florianópolis – ACIF (2018) https://www.acif.org.br/a-acif/historico/attachment/mapa-acif-1/

Diariamente, pessoas, empresas e governos realizam inúmeras decisões considerando o espaço geográfico. Qual academia é mais perto de casa para eu me matricular? Em qual local devemos instalar o novo Centro de Distribuição da empresa? Ou, onde o Município deve posicionar as centrais do SAMU? 

Assim, no artigo de hoje, propomos duas perguntas: 

  1. O que acontece quando as informações georreferenciadas estão distorcidas? 
  2. Quão próximo podem chegar nossas generalizações sobre o espaço?

Normalização geográfica

Trabalhando com polígonos e regiões 

Lembrando que o conceito de polígono é derivado da geometria, sendo definido como: “uma figura plana, fechada e formada por segmentos de reta“. Quando o polígono possui todos os lados iguais e, consequentemente, todos os ângulos iguais, podemos chamá-lo de polígono regular. Quando isso não acontece, este é definido como um polígono irregular.

Fazemos o uso da divisão política da organização do território para entender seus contrastes, delimitando entre Nações, Estados e Municípios, por exemplo, mas também podemos delimitar regiões segundo diversas características, como a região da Caatinga, a região da Bacia Amazônica e até mesmo a zona do Euro ou zonas de eleitores do Trump e Biden. Enfim, basta cercar determinado local do espaço por alguma característica em comum. Os polígonos regionais, portanto, são extensamente utilizados para representar determinadas regiões ou a organização do território dessas regiões.

Diversas ferramentas de mercado preenchem polígonos com tonalidades distintas de cores, de acordo com os dados da região, buscando por contrastes entre estes.  Mas, cuidado! No caso dos tamanhos e formatos dos polígonos não serem constantes, pode haver vieses geográficos, tornando a visualização passível a interpretações errôneas. 

Dessa forma, a abordagem de polígonos se torna limitada nos seguintes aspectos: 

  • Comparações entre regiões de forma desigual;
  • Necessidade de relativização de indicadores por número da população, área ou outros fatores;
  • Não permite análises mais granulares;
  • Demanda mais atenção dos analistas ao criarem afirmações sobre determinadas regiões. 

Finalidade da normalização geográfica

Portanto, a razão de existir da normalização geográfica é a superação dos problemas típicos associados a análises de dados relacionadas aos polígonos irregulares, transformando a organização do território em um conjunto de polígonos (no caso, hexágonos) de tamanho e formato regulares.

No exemplo abaixo, comparamos as duas abordagens; 

1) Análise com polígonos de mesorregiões e; 2) Hexágonos sobre a região sudeste do Brasil. 

Normalização da Geografia
Figura 2 – Fonte: Aquarela Advanced Analytics (2020)

A Normalização Geográfica busca minimizar possíveis distorções de análise gerados por polígonos irregulares ao substituí-los por polígonos de formato e tamanho regulares. Isso proporciona uma alternativa elegante, agradável aos olhos e precisa, capaz de evidenciar padrões inicialmente desconhecidos.  

A normalização deixa mais claro e simples a definição de vizinhança entre os polígonos, inclusive, promovendo melhor aderência aos algoritmos de inteligência artificial que buscam padrões e eventos que se autocorrelacionam no espaço. 

Afinal, de acordo com Primeira Lei da Geografia:

“Todas as coisas estão relacionadas com todas as outras, mas coisas próximas estão mais relacionadas do que coisas distantes.” 

Waldo Tobler

A normalização geográfica pode também ser feita de diferentes formas, como por triângulos equiláteros, quadrados ou hexágonos. No entanto, o hexágono proporciona o menor viés, dentre esses, devido ao menor tamanho de suas paredes laterais. 

Com a normalização, torna-se possível a sumarização das estatísticas dos pontos (habitantes, residências, escolas, unidades de saúde, supermercados, indústrias, etc.) contidos dentro desses hexágonos de modo a haver constância na área de análise e, claro, significância estatística dessas sumarizações. Empresas de analytics maduras, com um datalake robusto e bem consolidado, passam a ter a vantagem nesse tipo de abordagem. Confira também nosso artigo sobre Como escolher uma empresa de analytics.

Utilização da geografia normalizada

A geografia normalizada pode também ser utilizada por meio de mapas interativos. Mapas desse tipo possibilitam um nível de aproximação bastante interessante nas análises, como podemos ver na animação abaixo, onde mostramos uma visualização da Plataforma Vortx que apresenta as escolas na cidade de Curitiba. 

Quanto mais escuro o hexágono, maior a quantidade de escolas. Perceba que também podemos ter acesso a outros dados através do pop-up e alterar o tamanho do hexágono a gosto. 

“Quanto maior a quantidade de dados pontuais disponíveis em uma região, menor o tamanho possível dos hexágonos”. 

Limitações da análise normalizada

Como toda a representação da realidade, modelos que utilizam a análise normalizada – apesar de grande valia na tomada de decisão – não substituem por completo a ilustração dos dados espaciais em polígonos irregulares, sobretudo quando: 

  • Há uma divisão política clara a ser considerada;
  • Não há razoável volume de dados;
  • Não há um consenso sobre o tamanho dos polígonos regulares.

Além disso, o processamento computacional para produzir mapas normalizados também deve ser levado em consideração, posto que o processamento dos dados nesse não se resume ao número de observações do fenômeno analisado, mas também ao tratamento da geografia sob análise. Por exemplo, workstations ou notebooks convencionais podem levar horas para processar cálculos geoestatísticos básicos das 5573 cidades do Brasil.

Conclusões e recomendações 

Nesse artigo explicamos sobre normalização geográfica, sua importância, vantagens e cuidados para condução de análises espaciais. Além disso, comparamos duas abordagens importantes para análises de dados espaciais. Vale notar que essas abordagens se mostram complementares para haver um melhor entendimento da distribuição dos dados sobre o espaço. Portanto, recomendamos a visualização das análises em múltiplas facetas.

Percebemos que, ao desenhar o espaço geográfico de forma equânime, torna-se factível uma série de benefícios às análises, tais como: 

  • Alinhar o tamanho das visualizações de acordo com a necessidade do negócio;
  • Adaptar as visualizações conforme a disponibilidade dos dados; 
  • Poder fazer comparativos “justos” entre os indicadores absolutos de cada região;
  • Observar zonas de intensidade com menor viés;  
  • Simplificar a definição de vizinhança entre os polígonos, proporcionando, assim, melhor aderência a algoritmos espaciais; 
  • Encontrar padrões e eventos que se autocorrelacionam no espaço com maior acurácia;
  • Utilizar algoritmos de inteligência artificial (supervisionados e não supervisionados) para assim identificar pontos de interesse que não seriam identificados sem a normalização. Mais informações em: Aplicação de Inteligência Artificial em análises georreferenciadas

Por fim: toda ferramenta tem um propósito, as visualizações georreferenciadas podem levar a decisões ruins ou boas. 

Dessa forma, usar a visualização correta, em conjunto com os algoritmos certos e bem implementados, a partir de um processo de analytics adequado, podem potencializar decisões críticas que levarão a grandes vantagens competitivas tão importantes frente aos desafios econômicos atuais.

Quem é a Aquarela Advanced Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes como Embraer, Grupo Randon, Solarbr Coca-cola e outros.

Fique atento às novas publicações da Aquarela Analytics no Linkedin e assinando Newsletter