Tipos de estratégia de precificação dinâmica

Tipos de estratégia de precificação dinâmica

Recentemente, publicamos o artigo Precificação dinâmica: O que é e quais são seus benefícios. Como continuação, a proposta do artigo de hoje é ir além, apresentando aspectos fundamentais à estratégia de precificação dinâmica e outros pontos de interesse aos profissionais de gestão que atuam na busca do melhor preço com apoio de Analytics e Inteligência Artificial

Este artigo apresenta respostas aos seguintes questionamentos: 

  • Qual é a essência da precificação e seus principais componentes?
  • Quais os benefícios das ferramentas de analytics em cada componente de precificação? 
  • Quem são os responsáveis pela precificação e por que esta definição é relevante? 
  • A precificação é relevante apenas para quem precifica? 

A essência da precificação

A precificação ou pricing (definição de preços) é uma atividade bastante presente nos modelos de negócio e exige fortes e contínuas conexões de informação entre os departamentos de gestão, marketing, operação e o time comercial. 

A inter-relação entre departamentos demanda estratégias bem elaboradas, planos de ação alinhados à visão de longo prazo da organização e, evidentemente, ao seu stack tecnológico administrado pela gestão de TI. 

Com a informatização, a precificação se tornou mais poderosa. O que chamamos de Precificação Dinâmica (Dynamic Pricing ou Smart Pricing) trata-se, portanto, da utilização de instrumentos digitais inteligentes de precificação automatizada com a finalidade de maximizar lucros ou vendas ao buscar um ponto de equilíbrio favorável no encontro entre demanda e oferta.  

Em outras palavras: 

“A nova geração de precificadores busca definir o preço de maneira automática levando em consideração fatores como a oferta, demanda, tendências, sazonalidades, estratégia da própria empresa, concorrentes, limitações tecnológicas, entre outros fatores, com o objetivo de maximizar lucros ou vendas”.

Quem é o responsável pela precificação?

A responsabilidade da precificação pode variar muito conforme cada modelo de negócio e qual abordagem de preço adotada. Como exemplo, existem empresas que operam modelos de negócios B2C (orientadas ao comércio com o público de pessoas físicas) e é provável que os responsáveis pela escolha da estratégia de preço sejam do time de marketing. 

Por outro lado, existem empresas B2B (fornecem produtos e serviços para outras empresas) que podem ter estrutura de preços fortemente baseadas em seus custos de capital, trazendo a responsabilidade de precificação para os times comerciais e a própria contabilidade.

A precificação dinâmica é boa só para quem precifica?

Uma estratégia de precificação dinâmica bem aplicada pode ser benéfica não somente para a empresa, mas também para seus clientes, pois, ao buscar a otimização, este bem ou serviço poderá ser acessado por uma quantidade maior de consumidores, atingindo o chamado ponto ótimo. Um exemplo é o caso da Precificação Dinâmica na otimização do metrô de Londres.

Uma melhor compreensão do comportamento do consumidor, portanto, pode promover maior aproximação com o mesmo, assim como gerar insumo para o mapeamento do comportamento atual e estimação do comportamento futuro. Assim, pode-se prever cenários futuros, dado determinado evento. Confira nosso artigo sobre o que são as análises preditivas, prescritivas e cenarização?

Preço na visão da estrutura de custo

O custo estabelece o piso para o preço que a empresa pode cobrar por seu produto ou serviço. Sendo assim, é importante investigar de forma detalhada os componentes do custo (custos de produção, distribuição, venda e outros) e o método utilizado na contabilidade destes valores. Além disso, a empresa precisa adicionar uma margem (taxa de retorno) para compensar o risco da operação. 

“A principal virtude desta estratégia é mitigar riscos financeiros, evidenciando o menor preço necessário para a operação se manter”. 

As estratégias e ferramentas de analytics podem auxiliar no levantamento dos custos, porém a intensidade do seu uso pode variar de acordo com o nível de maturidade analítica de cada empresa, como já apresentamos neste artigo sobre os 5 níveis de maturidade de dados na visão da Aquarela

As ferramentas de analytics podem ajudar na automação do processo de precificação, extraindo e integrando indicadores de custo dispersos que servem de insumo para análises de detecção de padrões, de sazonalidade, situações atípicas (O que são outliers?) e simulações de cenários de alta complexidade. 

Preço na visão da percepção de valor

No outro extremo da precificação está a precificação baseada na percepção de valor pelo cliente, que, de certa maneira, estabelece o teto de preço (os clientes não estariam dispostos a pagar mais do que X unidades monetárias). 

A percepção de valor é de fato menos tangível e complexa de se calcular, mas com o uso intensivo de técnicas de analytics é possível inferir estas informações com relativa assertividade, dependendo do modelo de negócio. Anteriormente escrevemos, de forma mais técnica, um comparativo dos métodos tradicionais de marketing em relação aos métodos elaborados no mundo de analytics (acesse o link). 

“A principal virtude da precificação por valor é a aceitação do mercado”. 

Nesta visão, é possível criar testes automatizados de mensuração da percepção de valor dos produtos, principalmente em negócios digitais. Já para produtos ainda não digitais, segue a recomendação de entrevistas relacionadas ao público-alvo, com indicadores que podem ser integrados aos indicadores de custo (7 dicas de ouro sobre design de indicadores).

Preço na visão da demanda do mercado

Uma grande demanda por um produto ou serviço certamente influenciará a estratégia de preço. Contudo, a demanda não é fixa, variando de acordo com o orçamento e preferência dos consumidores, assim como a quantidade demandada pode variar de acordo com o próprio preço. Embora no senso comum a demanda seja interpretada como quantidade demanda, há uma diferença técnica entre as duas sendo que:

Demanda (desejo) ≠ Quantidade demandada (capacidade de compra e outros fatores)

Entender a relação entre estes fatores é fundamental para se estimar a demanda, assim como a quantidade demanda em função de dado preço.

A área de ciência de dados, nas suas várias atribuições, pode ser utilizada para inferir com maior precisão a demanda e também o grau de importância dos componentes que formam a demanda. Além disso, testes estatísticos podem ajudar a elucidar situações de causa e efeito que, por vezes, até desmistificam premissas operacionais antigas. 

“A principal virtude da precificação pela demanda do mercado é a capacidade de contextualizar o preço ao próprio mercado”.  

Preço na visão da concorrência (espaço concorrencial)

A concorrência ou até sua ausência impactam na escolha do preço. A concorrência pode gerar impacto na demanda dos produtos e serviços e por isso se torna importante tanto para análises de precificação como também de posicionamento de marca. 

“A principal virtude da precificação por concorrência é a capacidade de contextualizar o preço frente às alternativas oferecidas pelos concorrentes”. 

Com a digitalização da economia e os preços se tornando cada vez mais onipresentes, as ferramentas analíticas de precificação mais avançadas podem fazer buscas e estatísticas com sugestões de preços em tempo real e filtros de interesse, como fazem o Buscapé e a Zoom

Atenção! Vale salientar que a prática de capturar dados (web scraping) pode se tornar ilícita se desrespeitar as regras de utilização dos sites consultados.

Preço na visão estratégica

As alterações de preço baseadas em visões estratégicas ou regras Top Down são muito comuns e, em muitos casos, podem ser até contra intuitivas e atuarem contrariamente aos resultados das análises de custo e até da percepção de valor e concorrência. 

“A principal virtude da precificação por estratégia é a oportunidade de alcançar objetivos estratégicos baseados na intuição gerada pela inteligência coletiva da organização” 

As regras Top Down derivam do conhecimento coletivo da operação. Elas são cultivadas durante anos pelas organizações e por isso se torna necessário a execução de processos de harmonização de indicadores e dicionarização (o que é um dicionário de dados de analytics?) para que cada regra se integre corretamente aos sistemas precificadores. 

Esta camada, diferentemente das demais, é especial, pois ela gera viés intencionais diretamente ligados ao mercado de operação e que mudam de acordo com o posicionamento e o objetivo da organização. 

Resumo da análise – Estratégia de precificação

Abaixo apresentamos resumidamente os principais componentes ligados à estratégia de precificação. 

tabela de estratégia de preço

Conclusão – Estratégia de precificação dinâmica

Como vimos, a precificação é parte inseparável da atividade econômica. Seja qual for o modelo de negócio adotado pela organização, deve-se definir claramente qual é o departamento e quem são os responsáveis pela atividade da precificação, podendo ser definida por meio de processos automatizados.

Aos gestores interessados no tema, concluímos que, para o sucesso de uma estratégia de determinado bem ou serviço, a precificação deve vir acompanhada de uma série de cuidados com fatores externos ao preço a fim de otimizar a receita do produto ou serviço.

Ainda assim, seja qual for a estratégia de precificação adotada pela organização, seja o preço definido automaticamente ou de maneira analógica, essa prática deve sempre levar em consideração alguns fatores, como custo e demanda. Entender a diferença entre demanda e quantidade demandada, ou seja, saber que a quantidade demandada é função da demanda para dado preço, é essencial para a prática da precificação. (Demanda != Quantidade demandada).

Lembre-se de que o preço baseado na percepção de valor do cliente é geralmente considerado uma melhor estratégia do que o preço baseado no custo. Vale considerar estratégias mistas com a necessidade interações entre os departamentos comercial, marketing e contabilidade.

Gostou do artigo? Ficou com dúvidas? Deixe o seu comentário.

Quem é a Aquarela Advanced Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes como Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

Normalização geográfica: o que é e quais suas implicações?

Normalização geográfica: o que é e quais suas implicações?

Há grande valor em representar a realidade por meio de visualizações, sobretudo as informações espaciais. Se você já viu um mapa, sabe que os polígonos que constituem os limites políticos de cidades e Estados são geralmente irregulares (ver Figura 1a). Essa irregularidade dificulta a condução de análises e, por isso, não pode ser tratada por ferramentas de Business Intelligence tradicionais.  

Repare o ponto verde na Figura 1b, ele está sobre o polígono (‘bairro’) n.14, situado entre n.16 e n.18. Então responda agora: qual região está exercendo maior influência no ponto verde? É o bairro n.16 ou o n.18? O ponto verde é representativo pela região n.14, região n.16 ou n.18? 

Para responder questões como essas e para minimizar o viés gerado por visualizações com polígonos irregulares, a Plataforma Vortx faz o que se conhece por Normalização da Geografia, transformando os polígonos irregulares em polígonos de tamanho único e formato regular (ver Figura 1c). 

Após a “normalização geográfica”, é possível analisar os dados de determinado espaço por meio de estatísticas absolutas, não somente relativas, e sem distorções provocadas por polígonos de tamanhos e formatos distintos.

normalização geográfica - mapa Florianópolis
Figura 1 – Fonte: Adaptado de Associação Comercial e Industrial de Florianópolis – ACIF (2018) https://www.acif.org.br/a-acif/historico/attachment/mapa-acif-1/

Diariamente, pessoas, empresas e governos realizam inúmeras decisões considerando o espaço geográfico. Qual academia é mais perto de casa para eu me matricular? Em qual local devemos instalar o novo Centro de Distribuição da empresa? Ou, onde o Município deve posicionar as centrais do SAMU? 

Assim, no artigo de hoje, propomos duas perguntas: 

  1. O que acontece quando as informações georreferenciadas estão distorcidas? 
  2. Quão próximo podem chegar nossas generalizações sobre o espaço?

Normalização geográfica

Trabalhando com polígonos e regiões 

Lembrando que o conceito de polígono é derivado da geometria, sendo definido como: “uma figura plana, fechada e formada por segmentos de reta“. Quando o polígono possui todos os lados iguais e, consequentemente, todos os ângulos iguais, podemos chamá-lo de polígono regular. Quando isso não acontece, este é definido como um polígono irregular.

Fazemos o uso da divisão política da organização do território para entender seus contrastes, delimitando entre Nações, Estados e Municípios, por exemplo, mas também podemos delimitar regiões segundo diversas características, como a região da Caatinga, a região da Bacia Amazônica e até mesmo a zona do Euro ou zonas de eleitores do Trump e Biden. Enfim, basta cercar determinado local do espaço por alguma característica em comum. Os polígonos regionais, portanto, são extensamente utilizados para representar determinadas regiões ou a organização do território dessas regiões.

Diversas ferramentas de mercado preenchem polígonos com tonalidades distintas de cores, de acordo com os dados da região, buscando por contrastes entre estes.  Mas, cuidado! No caso dos tamanhos e formatos dos polígonos não serem constantes, pode haver vieses geográficos, tornando a visualização passível a interpretações errôneas. 

Dessa forma, a abordagem de polígonos se torna limitada nos seguintes aspectos: 

  • Comparações entre regiões de forma desigual;
  • Necessidade de relativização de indicadores por número da população, área ou outros fatores;
  • Não permite análises mais granulares;
  • Demanda mais atenção dos analistas ao criarem afirmações sobre determinadas regiões. 

Finalidade da normalização geográfica

Portanto, a razão de existir da normalização geográfica é a superação dos problemas típicos associados a análises de dados relacionadas aos polígonos irregulares, transformando a organização do território em um conjunto de polígonos (no caso, hexágonos) de tamanho e formato regulares.

No exemplo abaixo, comparamos as duas abordagens; 

1) Análise com polígonos de mesorregiões e; 2) Hexágonos sobre a região sudeste do Brasil. 

Normalização da Geografia
Figura 2 – Fonte: Aquarela Advanced Analytics (2020)

A Normalização Geográfica busca minimizar possíveis distorções de análise gerados por polígonos irregulares ao substituí-los por polígonos de formato e tamanho regulares. Isso proporciona uma alternativa elegante, agradável aos olhos e precisa, capaz de evidenciar padrões inicialmente desconhecidos.  

A normalização deixa mais claro e simples a definição de vizinhança entre os polígonos, inclusive, promovendo melhor aderência aos algoritmos de inteligência artificial que buscam padrões e eventos que se autocorrelacionam no espaço. 

Afinal, de acordo com Primeira Lei da Geografia:

“Todas as coisas estão relacionadas com todas as outras, mas coisas próximas estão mais relacionadas do que coisas distantes.” 

Waldo Tobler

A normalização geográfica pode também ser feita de diferentes formas, como por triângulos equiláteros, quadrados ou hexágonos. No entanto, o hexágono proporciona o menor viés, dentre esses, devido ao menor tamanho de suas paredes laterais. 

Com a normalização, torna-se possível a sumarização das estatísticas dos pontos (habitantes, residências, escolas, unidades de saúde, supermercados, indústrias, etc.) contidos dentro desses hexágonos de modo a haver constância na área de análise e, claro, significância estatística dessas sumarizações. Empresas de analytics maduras, com um datalake robusto e bem consolidado, passam a ter a vantagem nesse tipo de abordagem. Confira também nosso artigo sobre Como escolher uma empresa de analytics.

Utilização da geografia normalizada

A geografia normalizada pode também ser utilizada por meio de mapas interativos. Mapas desse tipo possibilitam um nível de aproximação bastante interessante nas análises, como podemos ver na animação abaixo, onde mostramos uma visualização da Plataforma Vortx que apresenta as escolas na cidade de Curitiba. 

Quanto mais escuro o hexágono, maior a quantidade de escolas. Perceba que também podemos ter acesso a outros dados através do pop-up e alterar o tamanho do hexágono a gosto. 

“Quanto maior a quantidade de dados pontuais disponíveis em uma região, menor o tamanho possível dos hexágonos”. 

Limitações da análise normalizada

Como toda a representação da realidade, modelos que utilizam a análise normalizada – apesar de grande valia na tomada de decisão – não substituem por completo a ilustração dos dados espaciais em polígonos irregulares, sobretudo quando: 

  • Há uma divisão política clara a ser considerada;
  • Não há razoável volume de dados;
  • Não há um consenso sobre o tamanho dos polígonos regulares.

Além disso, o processamento computacional para produzir mapas normalizados também deve ser levado em consideração, posto que o processamento dos dados nesse não se resume ao número de observações do fenômeno analisado, mas também ao tratamento da geografia sob análise. Por exemplo, workstations ou notebooks convencionais podem levar horas para processar cálculos geoestatísticos básicos das 5573 cidades do Brasil.

Conclusões e recomendações 

Nesse artigo explicamos sobre normalização geográfica, sua importância, vantagens e cuidados para condução de análises espaciais. Além disso, comparamos duas abordagens importantes para análises de dados espaciais. Vale notar que essas abordagens se mostram complementares para haver um melhor entendimento da distribuição dos dados sobre o espaço. Portanto, recomendamos a visualização das análises em múltiplas facetas.

Percebemos que, ao desenhar o espaço geográfico de forma equânime, torna-se factível uma série de benefícios às análises, tais como: 

  • Alinhar o tamanho das visualizações de acordo com a necessidade do negócio;
  • Adaptar as visualizações conforme a disponibilidade dos dados; 
  • Poder fazer comparativos “justos” entre os indicadores absolutos de cada região;
  • Observar zonas de intensidade com menor viés;  
  • Simplificar a definição de vizinhança entre os polígonos, proporcionando, assim, melhor aderência a algoritmos espaciais; 
  • Encontrar padrões e eventos que se autocorrelacionam no espaço com maior acurácia;
  • Utilizar algoritmos de inteligência artificial (supervisionados e não supervisionados) para assim identificar pontos de interesse que não seriam identificados sem a normalização. Mais informações em: Aplicação de Inteligência Artificial em análises georreferenciadas

Por fim: toda ferramenta tem um propósito, as visualizações georreferenciadas podem levar a decisões ruins ou boas. 

Dessa forma, usar a visualização correta, em conjunto com os algoritmos certos e bem implementados, a partir de um processo de analytics adequado, podem potencializar decisões críticas que levarão a grandes vantagens competitivas tão importantes frente aos desafios econômicos atuais.

Quem é a Aquarela Advanced Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes como Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal!