Por que a elasticidade de preços é importante à IA e aos negócios?

Por que a elasticidade de preços é importante à IA e aos negócios?

Vários setores econômicos estão passando por intensos processos de transformação digital rumo à Indústria 4.0

Com a digitalização dos processos, um dos departamentos que não pode ficar de fora deste movimento é o de gestão de receitas e precificação (revenue / yield management). Ela pode estar ligado direta ou indiretamente às áreas financeiras, diretoria executiva, inteligência de mercado, comercial e marketing. Como impacto, haverá uma maior dinamização dos preços de produtos considerando um conjunto cada vez maior de fatores precificadores (itens de estratégia ou custo que definem os preços). 

Dentre diversos fatores que podem ser selecionados para geração de preço (usando ou não algoritmos de precificação), encontra-se o estudo de elasticidade de preço da oferta ou da demanda. Portanto, neste artigo, vamos falar da importância dessa variável para a estratégia de negócio e da inserção dela em processos de precificação dinâmica inteligente (Dynamic Pricing o que é o quais seus benefícios?).

O que é a elasticidade de preço? 

Podemos explicar a elasticidade de preço de diversas formas. Ela está relacionada aos estudos de economia/finanças e, mais especificamente, dentro da área de microeconomia, em que há um vasto material na internet sobre o tema, principalmente em inglês. Abaixo, criamos duas definições possíveis; uma simples e uma padrão: 

Definição simples: 

“A elasticidade mede o quanto mexe o ponteiro das vendas (quantidade) quando altero o preço. Portanto, há produtos que posso variar mais o preço do que outros. Cada produto ou serviço possui uma elasticidade em seu contexto de negócio e mudam ao longo do tempo.”

Definição detalhada: 

“A elasticidade é uma medida (cálculo) que avalia a capacidade de resposta da quantidade demandada ou ofertada de um bem (produto) frente a uma mudança de seu preço. Esse conceito é empregado de forma similar para demanda e oferta, sendo o primeiro relacionado ao consumidor e o segundo ao produtor. O cálculo da elasticidade é dado pela razão entre a variação percentual da quantidade demandada (ou ofertada) pela variação percentual do preço. Uma boa maneira de se dividir a elasticidade é em três categorias: elasticidade elástica, elasticidade unitária e elasticidade inelástica”. (Khanacademy, 2022).

Tipos de elasticidade

Altamente inelástica

Produtos de demanda altamente inelástica são aqueles que os compradores não têm outra fonte ou outro produto concorrente para fazer a substituição. Por exemplo: itens básicos da alimentação e também a gasolina (combustíveis).

Características principais: produtos com baixa possibilidade ou tendência de serem trocados por itens substitutos. 

Na figura abaixo, apresentamos um comparativo bastante simplificado mostrando o comportamento das vendas quando alteramos o preço ao longo do ano. Neste primeiro gráfico, temos uma situação de demanda inelástica que nos diz: independente do preço, as pessoas continuam consumindo o produto. Um dos exemplos mais clássicos de produtos com demanda inelástica são os combustíveis, que são de necessidade primária e não possuem substitutos de fácil troca. 

Demanda elástica

Por outro lado, produtos com maior elasticidade-preço tendem a mudar o comportamento de compra quando se altera o valor. São exemplos importantes de produtos com alta sensibilidade ou elasticidade de preço os artigos de luxo, os eletrônicos e os produtos com alta concorrência.

Características principais: Produtos com alta possibilidade de serem trocados por substitutos. 

Já neste outro diagrama, temos a variação do consumo (demanda) após as alterações de preço. Esse comportamento é mais comum e bastante intuitivo, entretanto é importante lembrar que cada produto tem a sua escala de sensibilidade e sua própria concorrência por produtos substitutos. Um exemplo é a carne de gado, que pode ser substituída por carne de porco, frango ou ovos em uma frequência de consumo semanal ou até diária.

Considerações

É importante ter em mente que a elasticidade da demanda é um indicador que reflete a variação da quantidade demandada pelos consumidores referente a uma variação de preço. Sendo assim, é necessário compreender que esse conceito pode e muito provavelmente irá variar ao longo do tempo, devido ao comportamento do consumidor (o que é considerado necessário ou desejado e o quanto ele está disposto a pagar). Por isso, colocamos no gráfico o eixo X como o tempo mensurado em meses.

Além da influência do comportamento humano, outros fatores podem influenciar no comportamento de compra, como, por exemplo, os diferentes grupos de consumidores. É lógico pensar que um grupo de consumidores com menor poder aquisitivo tende a ser mais influenciado pela variação de preço do que consumidores com maior poder aquisitivo. Dessa forma, o percentual que um produto representa na renda do consumidor também influencia na elasticidade.

O tipo de estabelecimento também exerce influência na decisão de compra do consumidor devido às diferenças de preço. Produtos alimentícios tendem a ser mais caros em restaurantes do que em supermercados, por exemplo. Sendo assim, é provável que a quantidade demandada por determinado produto alimentício seja diferente inclusive para o mesmo perfil de consumidor dado o tipo de estabelecimento.

Como a área de gestão de receitas pode se beneficiar da elasticidade do preço e da IA? 

O objetivo da gestão de receita é calibrar o valor dos produtos em relação à sua quantidade disponível e a sensibilidade de interesse dos compradores (limitações). Em outras palavras, é uma constante busca por vender o produto certo, na quantidade certa no tempo certo.  

A essência do trabalho de revenue management é estudar e reagir adequadamente à percepção dos clientes sobre o valor do produto sendo ofertado. Logo, notamos que o grau de complexidade da tarefa ultrapassa os limites da cognição humana rapidamente. 

Tendo em vista a complexidade de gerenciar todos esses parâmetros, a utilização de soluções baseadas em dados e impulsionadas por inteligência artificial encontra um importante ramo de atuação. Por isso, a recomendação é a utilização de “Solução baseada em dados e impulsionada por Inteligência Artificial”.

Como a área de gestão de receitas é baseada em análises de dados em sua essência, o correto uso de entendimento do comportamento de preço colabora para a construção de processos ligados à precificação dinâmica, previsão de demanda, otimização de estoques por meio de simulações computacionais, dentre outros business cases

Dessa forma, a utilização de inteligência artificial na gestão de receita propicia uma análise de dados complexos e inferências que possibilitam um acervo de informações para auxílio na tomada de decisões importantes para o gestor. Os modelos de precificação desenvolvidos pela Aquarela, por exemplo, cruzam dados de setores distintos para estabilizar e normalizar comportamentos de mercado e, então, apoiar da forma mais abrangente possível a alteração de preços dos produtos no tempo da movimentação do mercado.  

O cálculo de elasticidade se apresenta como uma ferramenta importante para potencialização de receita. Essa medida permite que os responsáveis pela gestão de receitas tenham informações de como a demanda dos produtos reage a diferentes variações de preços.

Quais setores possuem potencial precificação baseada em elasticidade e IA?

Estas formas cada vez mais digitalizadas de quantificar a relação da oferta e da demanda afetam os principais setores econômicos, e podem ser empresas com as seguintes características:

  • Elevado número de produtos (SKUs);
  • Grandes quantidades de transação comercial pedidos;
  • Grande variedade de clientes e grupos de clientes (operações de larga escala);
  • Operações de vendas com grande cobertura territorial; 
  • Mercados altamente competitivos e fases de digitalização.

Elasticidade de Preços – Conclusões e recomendações

Como vimos, a elasticidade é um atributo de grande importância para otimização de preço, receita, demanda e estoque. 

Aqui apresentamos um pouco da nossa visão sobre o conceito e a utilização de elasticidade de demanda versus preço. Além disso, abordamos as oportunidades desse tipo de análise dentro dos processos de precificação dinâmica que utilizam Inteligência Artificial. 

É possível perceber que diversas variáveis, como comportamento do consumidor, a variação de preço, influência cruzada de produtos, poder de compra e tipo de estabelecimento, influenciam no cálculo da elasticidade. Entretanto, por questões didáticas, simplificamos bastante as equações para focar nos impactos de negócio dessas abordagens. Toda a matemática e computação envolvida para a mensuração é bastante extensa e complexa e, por isso, há a necessidade de algoritmos de Inteligência Artificial nos times de gestão de negócios quando se fala em precificação.

Em nossa experiência, as decisões de preço se tornam muito mais adequadas ao contexto de negócio e às reuniões mais orientadas ao processo do que as influências diretas da percepção de cada um dos participantes, principalmente na percepção do comportamento do preço em itens com grande quantidade e operações de grande escala.  Nesse sentido, escolher um bom fornecedor de Data Analytics e Inteligência Artificial pode ajudar no desenvolvimento desses modelos e também ser uma forma de aumentar a competitividade em menos tempo.

Gostou do artigo? Então, deixe o seu comentário.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

Web scraping: coleta de dados automatizada

Web scraping: coleta de dados automatizada

Web scraping é uma ferramenta que permite a coleta de dados automatizada de websites. Essa técnica possibilita a aquisição de grandes quantidades de dados em tempo reduzido, permitindo assim análises e estudos para desenvolvimento de modelos de inteligência artificial. Diversos setores fazem uso e se beneficiam dessa ferramenta, portanto vale a pena conferir melhor o que é, como funciona e qual é a sua utilidade.

Digamos que você queira obter informações de um site. Basta entrar nesse site, procurar a informação desejada e então copiá-la para um arquivo. Imagine agora que você precisa obter informações de dezenas de sites. O processo se torna muito mais demorado e cansativo de ser realizado manualmente. E se pudéssemos automatizar esse processo de busca, adquirindo e armazenando diversas informações de diversos sites distintos? É nesse cenário que entra o conceito de web scraping.

O que é web scraping?

Web scraping pode ser entendido como uma coleta de dados automatizada de websites. Dessa forma, é possível adquirir e armazenar grandes quantidades de dados disponíveis publicamente em diversos sites. Posteriormente, podemos utilizar esses dados para análise e obtenção de insights, comparação de dados, criação de modelos de inteligência artificial e outras aplicações. Alguns exemplos de dados coletados por web scraping podem ser preços de mercadorias, dados de monitoramento climático e ações.

Como funciona?

É muito comum que os dados de diversos sites sejam não estruturados, misturando informações de textos, imagens e links. Dessa forma, a utilização de web scraping converte esses dados para um formato estruturado, agrupando informações semelhantes em uma planilha, por exemplo, para melhor visualização e acesso.

O conceito básico envolvido no web scraping é: 

  1. Especificar o site do qual se deseja obter informações;
  2. Solicitar o código HTML da página do site;
  3. Identificar no código a marcação das informações a serem coletadas;
  4. Salvar os dados no formato desejado.

Pode-se aplicar essa metodologia utilizando a linguagem de programação Python em conjunto com algumas bibliotecas voltadas para web scraping.

Qual a utilidade do web scraping?

Podemos utilizar o Web scraping em diversas áreas para a mesma finalidade: coleta de dados.

Pesquisa de mercado: é muito comum a utilização da coleta de dados automatizada para obtenção de informações de concorrentes, por exemplo: preço, vendas e demanda. Essas informações são de grande interesse para auxiliar na decisão de estratégias de precificação e promoções.

Monitoramento de notícias: outra aplicação é para obtenção e estruturação de notícias. Muitas empresas utilizam notícias para tomada de decisão, por isso é tão importante o monitoramento automatizado dessas informações.

Monitoramento do tempo: dados climáticos são de extrema importância para os setores agropecuário e de energia, tendo assim grande impacto em sua produção e geração. Diversas empresas utilizam a coleta de dados do tempo para a construção de modelos de inteligência artificial e tomada de decisão.

Sistemas de recomendação: grandes empresas de redes sociais coletam grandes quantidades de dados para o desenvolvimento de sistemas de recomendação de seus produtos para os usuários, considerando o seu histórico de buscas e interesses.

Conforme mencionado, o web scraping automatiza a coleta de dados e, posteriormente, utilizam-se esses dados para alguma finalidade dentre tantas áreas.

Web scraping – Considerações finais 

Para uma grande geração de dados, é necessário ferramentas para lidar com coletas e armazenamento. A técnica de web scraping é amplamente utilizada por empresas para coletar e armazenar automaticamente grandes quantidades de dados de diversas fontes que são posteriormente utilizadas para o benefício da empresa.Vale ressaltar que o web scraping é uma ferramenta única para cada site, sendo que sua construção varia de acordo com o site a ser examinado. Além disso, se o site sofrer alguma atualização ou alteração, é muito possível que o scraper (código que implementa o web scraping) desse site também precise ser alterado. Portanto, apesar da facilidade trazida pelo scraper, é necessário um constante monitoramento para garantir seu bom funcionamento.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Dados desbalanceados: como equilibrar as ocorrências das classes?

Dados desbalanceados: como equilibrar as ocorrências das classes?

A ciência de dados é uma área da inteligência artificial que tem crescido muito nos últimos anos. Essa área é responsável pelo estudo e análise de dados de diversos ramos para obtenção de ideias, identificação de padrões, desenvolvimento de modelos matemáticos e estatísticos para inferir sobre novos dados, entre outros. A partir disso, hoje iremos falar um pouco sobre um problema associado a ela, os chamados dados desbalanceados.

Veja também: 7 tendências em ciência de dados

Dados desbalanceados

Podemos pensar em um banco de dados (dataset) como uma tabela em que cada coluna representa uma informação sobre determinado tópico e as linhas são as quantidades de dados disponíveis. No mundo da ciência de dados, é comum encontrar datasets que relacionam os dados com uma classe (também chamada de categoria ou rótulo).

Na grande parte dos problemas cotidianos, é frequente que haja mais dados de uma classe do que de outra, conforme no exemplo da Figura 1, em que temos muito mais ocorrência de dados na classe A do que na classe B. Um exemplo mais prático disso seria na área da saúde, em que há mais exemplos disponíveis de pessoas saudáveis do que com algum problema de saúde (câncer, arritmia cardíaca, convulsões, entre outros); ou então em fraudes de pagamento, sendo mais comum a não ocorrência de fraude. 

Figura 1: Exemplo de dados desbalanceados em duas classes hipotéticas, A e B.
Figura 1: Exemplo de dados desbalanceados em duas classes hipotéticas, A e B

Dessa forma, o desbalanceamento de dados é justamente a questão de termos mais informações a respeito de uma classe (majoritária) do que da outra (minoritária). Pode-se expandir a mesma lógica para problemas com múltiplas classes. 

Problemas causados pelos dados desbalanceados

Quando o assunto é análise exploratória de dados, o desbalanceamento não chega a ser tão comprometedor. Se a quantidade de dados disponível for o suficiente para buscar insights, o desbalanceamento não chega a ser um problema, uma vez que podemos obter algumas conclusões sem uma grande quantidade de dados. Entretanto, quando o assunto são modelos de aprendizado de máquina, a influência do desbalanceamento de dados fica evidente. 

Digamos que um cientista de dados esteja trabalhando para desenvolver um modelo de aprendizado de máquina para algum problema de classificação ou previsão e ele possui um banco de dados desbalanceado. Caso nenhuma medida seja tomada a esse respeito, é muito provável que o modelo projetado tenha facilidade em identificar os dados referentes à classe majoritária (afinal, ele teve mais exemplos de dados dessa classe), mas tenha dificuldade na identificação dos dados da classe minoritária. Isso pode gerar uma má interpretação do modelo, pois, a princípio, ele está tendo um bom desempenho no acerto geral (acurácia), mas, se a intenção for justamente identificar os dados da classe minoritária, ele se torna um péssimo modelo.

Para visualizarmos isso de forma mais simples, vamos olhar para a Figura 2, que mistura imagens de cachorros da raça Chihuahua com muffins.

Figura 2: Cachorros Chihuahuas e muffins.
Figura 2: Cachorros Chihuahuas e muffins (Google Imagens)

Apesar de serem coisas completamente diferentes, os rostos dos Chihuahuas e os muffins da figura apresentam algumas características em comum, como formato, tamanho e cor. Para um modelo de aprendizado de máquina, essas características da classe Chihuahua e da classe muffin podem ser parecidas ao ponto de haver certa dificuldade para diferenciá-las. Nesse sentido, se por acaso tivermos muito mais imagens de Chihuahuas do que de muffins, o modelo apresentará dificuldades na classificação.

Tratando o problema

Vimos com um exemplo simples como o desbalanceamento de dados pode dificultar o trabalho de um cientista de dados. Portanto, é de suma importância que haja uma forma de lidar com esse problema de forma a minimizar a maior influência da classe majoritária sobre a minoritária. A busca de mais dados seria a forma mais simples e óbvia.

Retomando como exemplo a Figura 1, bastaria buscar mais dados da classe B até se igualar à da classe A. Acontece que nem sempre é tão fácil quanto parece. No exemplo da Figura 2, essa abordagem é perfeitamente viável, mas quando um profissional está trabalhando com o banco de dados de um cliente nem sempre isso é possível. Logo, outras ferramentas são necessárias para balancear os dados.

Undersampling

A técnica de undersampling consiste em retirar dados da classe majoritária para se igualar à da majoritária, conforme mostrado na Figura 3.

Figura 3: Exemplo da técnica de undersampling, com diminuição de dados da classe A para se igualar à quantidade de dados da classe B.

Ainda na técnica de undersampling, existem diversos métodos que podem ser aplicados para selecionar quais dados serão retirados. Por exemplo: retirar dados de maneira aleatória ou seguindo alguma métrica matemática de distância entre os dados de cada classe no plano amostral. Outras técnicas de undersampling procuram agrupar dados correlatos, podendo retirar algumas amostras sem comprometer muito a quantidade de informação da classe.

Oversampling

Já a técnica de oversampling consiste em gerar dados sintéticos da classe minoritária a partir dos seus dados originais de forma a se igualar com o número de dados da classe majoritária. As principais técnicas de oversampling são SMOTE e ADASYN, que utilizam cálculos matemáticos para gerar novas amostras que se assemelham às originais, aumentando a quantidade de dados e mantendo as características da classe.

A Figura 4 exemplifica a ideia geral da técnica de oversampling, em que foram gerados novas amostras de forma a igualar o número de ocorrência da classe B à da classe A.

Figura 4: Exemplo da técnica de oversampling, com a inserção de dados sintéticos na classe minoritária para de igualar à quantidade de dados da classe majoritária.

Dados desbalanceados – Considerações finais

O desbalanceamento de dados é um tema comum no dia a dia das pessoas que trabalham nesse meio, entretanto pode ser um empecilho nos momentos de construção de modelos de classificação ou regressão. A identificação e o tratamento de dados faltantes é essencial para o bom desenvolvimento das atividades de um time de cientistas de dados, visto que o desbalanceamento de dados é muitas vezes responsável por acrescentar um viés nos modelos de aprendizado de máquina, distorcendo suas análises de desempenho.

Dessa forma, o objetivo deste texto foi apresentar a problemática envolvida no desbalanceamento de dados, bem como indicar algumas técnicas e métodos utilizados para contornar esse problema. Assim, chega a ser instigante pensar que, em um mundo cada vez mais rodeado de acesso à informação e geração de grande quantidade de dados, ainda tenhamos um tema que trata justamente de classes com maior ocorrência de informação do que outras.

Gostou do artigo? Então, deixe o seu comentário.

Leia também: Web 3.0 e a democratização do acesso à informação.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor