Mulheres na tecnologia: desafios e oportunidades

Mulheres na tecnologia: desafios e oportunidades

Não é novidade para ninguém a discrepância entre a quantidade de homens e de mulheres na área da tecnologia. A notícia boa é que estão acontecendo muitos movimentos para apoiar e ensinar meninas e mulheres a programarem, como o Pyladies, Rladies, Include.gurias, Manas Digitais, Tech Power e muitos outros. E quem pode participar desse grupo? Todas que estiverem com vontade de aprender. Mesmo que você não tenha nenhum conhecimento na área, não precisa ter medo, esses ambientes são sempre acolhedores. Você só precisa ter paciência e persistência.

“Independente da sua trajetória acadêmica, se você deseja aprender a programar, tenha paciência e persistência. Não tenha medo de errar e de começar de novo, porque depois de passar a curva de aprendizado, você abrirá as oportunidades dentro da sua profissão ou até mesmo migrará para outra área de atuação”.

Daniela Zanesco – People na Aquarela Advanced Analytics

Por uma questão cultural, muitas de nós fomos criadas para fazer tudo perfeito, com pouco espaço para nos permitir errar, então, quando vamos para a programação, temos que aprender a lidar com o erro (tentativa e erro). Às vezes, dedicamos muito tempo para conseguir escrever apenas algumas linhas. 

Historicamente, o mercado tecnológico sempre foi desafiador para as mulheres. Há pouco tempo, por exemplo, éramos incentivadas a procurar uma profissão nas áreas humanas e biológicas, enquanto a área de exatas era indicada aos homens. Entretanto, os desafios do setor nunca impediram grandes conquistas, como veremos abaixo.

Mulheres que fizeram história na tecnologia

Apesar do mercado de tecnologia ter sido constituído predominantemente por homens, muitas mulheres foram essenciais para o desenvolvimento da área e fizeram história. Pensando nisso, selecionamos três mulheres que revolucionaram a tecnologia e que, mesmo depois de tanto tempo, continuam nos influenciando e inspirando. Confira:

Ada Lovelace

É impossível falar de tecnologia e não citar Ada Lovelace. Ela foi a responsável pela criação do primeiro algoritmo a ser processado por uma máquina, tornando-se a primeira programadora da história.

Todos os anos, entre os dias 8 e 15 de outubro, é celebrado o Ada Lovelace Day, com a finalidade de encorajar e dar visibilidade à participação feminina na ciência, tecnologia, engenharia e matemática.

Grace Hopper

Conhecida como a Rainha da Computação, Grace Hopper inventou o primeiro compilador para linguagem de programação, o que possibilitou a criação do COBOL, a primeira linguagem para bancos de dados comerciais. 

Falando em pioneirismo, a Rainha da Computação foi a primeira mulher a se formar na reconhecida Universidade de Yale, nos Estados Unidos, com um PhD em matemática, e a primeira almirante da Marinha dos EUA. Além disso, de acordo com historiadores, Grace inventou o termo “bug”, após identificar uma mariposa causando problemas dentro de uma máquina.

As garotas do ENIAC

Os primeiros computadores dependiam de pessoas e aparatos mecânicos para funcionarem, principalmente quando se tratava de cálculos mais complexos, como os da área militar. Assim, surgiram as garotas do ENIAC. 

Trabalhando em um supercomputador criado na Escola de Engenharia Moore, Betty Snyder, Marlyn Wescoff, Fran Bilas, Kay McNulty, Ruth Lichterman e Adele Goldstine fizeram história. As garotas do ENIAC eram as responsáveis pela configuração do ENIAC, dando a ele as instruções para realizar os cálculos necessários. Elas lidavam diariamente e de forma manual com milhares de interruptores e botões que ligavam um hardware de 80 toneladas.

Leia também: As 4 invenções preferidas do time Aquarela.

Mudanças no cenário

Mesmo que a passos lentos, o papel da mulher na tecnologia vem mudando. Até 2017, as mulheres correspondiam a apenas 10% das contratações na área de TI. Em 2020, esse número subiu para 12%. 

“Apesar de desafiador, é extremamente gratificante atuar na área de tecnologia e sentir que há espaço para fazer a diferença. É um caminho difícil, mas com prática, paciência e persistência é possível chegar lá.”

Caroline Zago – Cientista de dados na Aquarela Advanced Analytics

Nos grupos de mulheres na tecnologia do qual participamos, encontramos muitas mulheres das áreas humanas aprendendo a programar e analisar dados, seja pelo desejo de mudança de área de atuação ou pela vontade de expandir o conhecimento para potencializar as habilidades no trabalho. Colegas de RH, por exemplo, formadas em psicologia e administração, estão aprendendo a programar e analisar dados para melhorarem suas análises, controle de métricas e estarem ativas no People Analytics da empresa. 

E as mudanças não param por aí. Podemos observar mulheres conquistando posições de liderança no mercado tecnológico, como por exemplo Marissa Meyer, que ocupou cargos estratégicos no Google como cientista da computação e hoje alcançou a posição de CEO do Yahoo!. Ginni Rometty também conquistou uma posição de liderança na área da tecnologia, sendo CEO da IBM e a primeira mulher a ocupar essa cadeira na companhia. 

Em se tratando do setor tecnológico, nós, mulheres, ainda temos uma luta pela frente. Mas, quando conhecemos exemplos como estes que nos inspiram, de mulheres entre os executivos mais poderosos do Vale do Silício, temos a certeza de que um cenário mais positivo para o futuro das mulheres no mercado da tecnologia nos espera. 

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores:

Autoras

Aquarela no NASA Space Apps Challenge São Paulo

Aquarela no NASA Space Apps Challenge São Paulo

Nos dias 18, 19 e 20 de Outubro de 2019 aconteceu o maior hackathon do mundo. O NASA Space Apps Challenge, que aconteceu simultaneamente em 200 cidades de 80 países, desafiou 29 mil pessoas a desenvolver soluções para desafios propostos pela agência, tudo isso a partir dos dados públicos e gratuitos da NASA. 

Este projeto traz a oportunidade de estudarmos e desenvolvermos soluções a partir de dados altamente complexos e bem catalogados. Por isso, nós não poderíamos ficar de fora. Junto a nossos parceiros Embraer e Atech, criamos um time que reuniu engenheiros e cientistas de dados das três empresas para participar da edição que aconteceu na cidade de São Paulo.

Neste artigo trazemos um pouco sobre como foi a experiência de desenvolver uma solução que pode impactar milhares de vidas, em apenas 48 horas, boa leitura!

O que é o NASA Space Apps Challenge

Criado em 2012, o Hackathon tem o intuito de estimular a utilização da grande quantidade de dados gerados pela NASA. Estes dados compreendem informações sobre a terra e o espaço, e muito disso é disponibilizado de forma pública e gratuita. 

Ao todo são 25 desafios divididos em 5 categorias, mais uma categoria livre. Cada equipe deve escolher um desafio para propor uma solução e implementar um MVP, e isso tudo deve ocorrer dentro de 48 horas. Os projetos foram avaliados da seguinte forma:

  • Nos dias 19 e 20 (sábado e domingo) devem ocorrer 3 entregas: de negócio, design e tecnologia.
  • As 10 equipes classificadas a partir destas três entregas fazem um pitch para a banca avaliadora, que então define o pódio do hackathon.

O desafio – From Curious Minds come Helping Hands

A equipe foi formada por cientistas de dados, desenvolvedores e engenheiros da Aquarela, Embraer e Atech, que escolheram trabalhar no desafio From Curious Minds Come Helping Hands (De mentes curiosas surgem mãos que ajudam).

O desafio consistia em elaborar uma plataforma que integrasse informações de satélites para identificar populações que estão em situação de risco. Diferente da maioria dos hackathons, os desafios do Space Apps Challenge são revelados antes do início da competição, devido à complexidade e grau de exigência do desafio. Dessa forma, a equipe chegou em São Paulo já sabendo qual seria o desafio a ser enfrentado. 

A partir da temática escolhida, a equipe desenvolveu o MVP de uma ferramenta que detecta e prevê enchentes em países africanos, especificamente a Tanzânia.

A escolha deste país se deu pelo fato de que um dos membros da equipe tem contato com um conhecido que vive lá, e este compartilhou as dores que a população local sofre com enchentes. Inclusive, este contato havia perdido o melhor amigo em uma enchente na cidade de Arusha.

A solução – Human+AId

O projeto foi batizado de Human+AId, pois o objetivo da equipe foi criar uma plataforma para auxiliar tanto as pessoas nas áreas de risco quanto as organizações responsáveis pela execução do atendimento de emergência.

Outra funcionalidade é possibilitar que as informações geradas ao longo dos atendimentos sejam armazenadas, de modo a possibilitar que o conhecimento das pessoas que atuam nessas situações (inteligência coletiva) seja utilizado para geração de uma inteligência artificial que, futuramente, atue na recomendação de boas práticas de acordo com as circunstâncias.

Membros da equipe formada por colaboradores da Aquarela, Embraer e Atech

A ideia foi utilizar dados em tempo real sobre eventos (chuvas, tempestades, incêndios, etc.) que são detectados pelos satélites da NASA, junto com mapas sobre a superfície de água do planeta. Em outras palavras, detectar onde há uma chuva forte e, sabendo para onde a água vai a partir daquele ponto, é possível identificar se há no percurso algum local que possa inundar. Deste modo, estima-se as zonas de risco e as zonas seguras. A imagem abaixo mostra como as zonas de risco (vermelha) e de segurança (verde) são plotadas no mapa.

Áreas de risco em vermelho, áreas seguras em verde.

Mas a pergunta que fica é a seguinte: E o que fazer com as pessoas que estão na zona de risco? A solução foi: a partir do momento que a autoridade responsável pela área (prefeitura, por exemplo) quiser, é disparado via SMS (ou redes sociais) o link de um aplicativo web que indica o caminho que a pessoa deve fazer para sair da zona de perigo.  

Tela do aplicativo que indica a direção para as áreas seguras.

O esforço, empenho e qualidade das entregas da equipe foi reconhecido pelo time de jurados, e fomos classificados entre os 10 finalistas do evento, para depois do pitch, a equipe Human+AId receber o prêmio de 2º Lugar no Space Apps Challenge São Paulo. 

Equipe 27, 2º Lugar no Space Apps Challenge São Paulo. 

O clima do evento é uma mistura de Startup Weekend com Hackathon, e resulta em um ambiente de muita criatividade e empenho dos participantes, onde o maior resultado do evento é a integração entre as pessoas trabalhando para criarem a validarem ideias que podem impactar o mundo.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores:



Da visualização à tomada de decisão: Como criar negócios mais data driven.

Da visualização à tomada de decisão: Como criar negócios mais data driven.

Novas tecnologias aliadas à redução dos custos computacionais resultam no contínuo boom de Big Data e Data Analytics que estamos presenciando. Diariamente produzimos, armazenamos e processamos grandes quantidades de informação, e estes processos trazem dois desafios:

  • Como gerir de todo este conhecimento (saiba mais sobre isso aqui); e
  • como interpretar essas informações para transformá-las em valor para os nossos negócios.

Armazenar e processar dados, por si só, pode não gerar valor. Precisamos “entendê-los”, para saber o que os números significam e “reportá-los”, para que essas informações possam ser usadas na tomada de decisão. Nesse artigo vamos mostrar como a visualização de dados pode ajudar no entendimento e na tomada de decisão dos negócios que são (ou querem se tornar) Data Driven.

O que é visualização de dados

Visualização de dados é, literalmente, mostrar de forma compreensível informações que têm alto valor agregado. Este valor se encontra no fato de que pessoas, principalmente em um ambiente Data Driven, criam argumentos e tomam decisões baseadas em informações.

Portanto, identificar de forma clara e rápida qual é a relevância de cada dado é crucial para transformá-lo em conhecimento. Por exemplo, abaixo trazemos duas formas distintas de visualizar a taxa de desemprego e a média do salário por nível de educação no segundo trimestre de 2019 no Brasil, os dados foram extraídos do IBGE.

Nìvel de EscolaridadeTx. de DesempregoRendimento médio
Ensino fundamental incompleto ou equivalente11,1R$ 1.219,00
Ensino fundamental completo ou equivalente13,9R$ 1.458,00
Ensino médio incompleto ou equivalente20,5R$ 1.349,00
Ensino médio completo ou equivalente13,6R$ 1.774,00
Ensino superior incompleto ou equivalente14,1R$ 2.222,00
Ensino superior completo ou equivalente6,1R$ 5.039,00

Perceba que, pela tabela, pessoas com nível de educação superior completo possuem maior média de renda mensal  e este grupo apresenta também menor taxa de desemprego. Mas, outras informações importantes são menos óbvias de se extrair da tabela, o que torna o gráfico muito mais interessante. 

No gráfico a disparidade entre a renda de pessoas com superior completo e as outras categorias é mais evidente. Fica também mais visual que a taxa de desemprego não segue a de nível de escolaridade, como seria de se esperar. Extrair estas e outras informações da tabela exigiria muito mais dedicação, principalmente para análises de comparação entre as diferentes categorias.

Neste exemplo simples, fica claro que se dedicar à visualização de dados ajuda na geração de insights, criando também formas mais efetivas de comunicação. Pensar em visualização de dados é pensar em como os outros terão acesso a essas informações, se será mais fácil ou mais difícil para estes dados se transformarem em conhecimento. 

As imagens geradas podem atuar como facilitadoras ou bloqueadoras na disseminação da informação, e isso depende do quanto você investe em visualizar os seus dados. Essa preocupação pode ser chave na hora de tomar decisões, ou mesmo de se comunicar com seu cliente.

Visualização de dados com Inteligência Artificial

Mas a visualização de dados não significa apenas transformar tabelas em gráficos. Imagine analisar, fazer sentido e construir gráficos com base em tabelas com milhares ou mesmo milhões de entradas, elaborar visualizações a partir de horas de audios ou mesmo gravações de vídeos.

É nessas situações que abordagens de inteligência artificial (I.A) são muito úteis. Elas facilitam a extração de conhecimento de grandes volumes de dados, descobrindo informações que mesmo humanos não seriam capazes de perceber.

Com o crescimento acelerado dos negócios rumo a processos mais data driven, surgem soluções flexíveis e customizáveis para praticamente toda e qualquer operação. E o uso de I.A trás a capacidade de prototipação rápida de visualizações e a escalabilidade dessa forma de analisar os dados permite que sejam criadas diferentes formas de se observar a informação, mas sem aumentar a complexidade da análise.

Projetos de Advanced Data Analytics permitem que um grande volume de dados (por exemplo: nas áreas de logística com inúmeros SKU´s) seja processado e analisado a fim de otimizar a tomada de decisão. Integrações em tempo real entre grandes bancos de dados de operações complexas se tornam muito mais tangíveis quando abordadas com soluções de I.A.

Extraindo valor dos dados na prática

É comum que as empresas, lojas e fábricas tenham metas de venda. E há inúmeras maneiras de definir essas metas, como por exemplo por faturamento líquido ou por quantidade vendida. 

Vamos pensar no seguinte caso: o CSO (Chief Sales Officer) da South American Toys™ (uma multinacional que produz e vende brinquedos), está interessado em descobrir se há diferença entre basear as metas de vendas das lojas no faturamento e na quantidade vendida.

A dúvida surgiu porque, no mercado em que a South American Toys atua, a rotatividade dos produtos é alta, devido a constantes lançamentos, e quando os produtos demoram a serem vendidos, é necessário aplicar descontos.

Para avaliar as metas, a empresa contratou duas consultorias para responder a pergunta: Basear as metas de vendas em quantidade faturada tem resultados financeiros diferentes de se basear as metas de vendas no faturamento?

Para sanar a dúvida da South American Toys, ambas as consultorias, por coincidência, fizeram o mesmo estudo e tiveram o mesmo resultado: lojas cujas metas de vendas estão atreladas a quantidade vendida geram mais descontos quando comparadas às baseadas em faturamento. Isso se dá por elas esperarem mais tempo para colocar os brinquedos nas prateleiras, de modo que vendam mais. Entretanto, cada consultoria apresentou o resultado de uma maneira diferente. 

A primeira consultoria apresentou a tabela abaixo, com resultados estatísticos indicando que metas atreladas ao faturamento diminuem o desconto dado pelas lojas. 


Resultados dos estudos da primeira consultoria

Confuso, não? Por outro lado, a segunda consultoria apresentou uma visualização do efeito que diferentes metas têm sobre o tempo que leva para as lojas venderem os brinquedos: 

  • As barras laranjas indicam fábricas;
  •  As verdes rotas;
  •  As azuis distribuidores; e
  • As vermelhas lojas. 

Número de dias em relação ao tempo total necessário para se vender dos brinquedos

Mas temos ainda mais informações ali: a largura das barras indica a quantidade de tempo que o brinquedo passou em cada etapa.

Foram selecionados fábricas, rotas, distribuidores e lojas similares, sendo apenas a meta de venda diferentes.

No lado esquerdo temos as lojas cuja meta de vendas eram baseadas no faturamento e, do lado direito, as baseadas na quantidade vendida.

É visível a diferença entre as duas abordagens. As lojas com metas por faturamento mantêm um fluxo bom de escoamento de mercadoria, vendendo rapidamente (e a um preço cheio) tudo o que chega em seus estoques.

Perceba que a barra laranja é muito maior que a vermelha, indicando que o produto fica pouco tempo na loja.

Essa capacidade de não formar estoques locais diminui o uso de descontos, pois remove a necessidade de dar descontos para fazer o estoque girar, ou seja, a oferta se equilibra com a demanda.

Em contrapartida, nas lojas com metas por quantidade há um volume muito maior de estoques locais, seja nos centros de distribuição, seja nas lojas.

Com o passar do tempo, esses produtos em estoque começam a perder valor pois não é interessante para o negócio mantê-los parados por muito tempo. Assim aplicam-se descontos, pois a oferta é muito maior que a demanda. Estes descontos fazem aumentar o volume vendido, mas às custas de um ticket médio menor.

Visualização de dados e transferência de conhecimento

O exemplo acima traz uma pequena amostra de como a visualização de dados pode ajudar na tomada de decisão e entendimento dos negócios. O conhecimento, como o gerado na segunda análise, não seria impossível (ou pelo menos muito difícil) de se obter com os dados estatísticos apresentados pela primeira consultoria.

O resultado é o mesmo, mas o segundo é muito mais visual, completo e intuitivo. Os métodos gráficos ofereceram mais valor neste caso, por serem capazes de abstrair milhões de transações em um esquema simples e visual. Em casos reais, uma empresa gera milhões de transações em menos de 1 mês, o que torna a análise de tabelas inviável.

Com as empresas produzindo mais e mais dados, as ferramentas tradicionais de análise de dados para tomada de decisão se tornam ineficientes, exigindo que os pessoas e processos se adaptem a trabalhar com tecnologias que expandem a capacidade de absorver informação, o uso de I.A e Advanced Data Analytics são exemplos disso. 

Dados podem esconder informações importantes, e técnicas de visualização gráfica ajudam tanto a traduzir estes em conhecimento quanto a transferi-lo de maneira suave para outros stakeholders.

A capacidade de visualização de dados avançada é um pilar fundamental dentro de uma cultura Data Driven madura, pois possibilita que a intuição que vem da experiência no mercado seja cada vez melhor auxiliada pelo entendimento de padrões escondidos da percepção humana, de modo que as decisões tomadas tornam-se cada mais mais otimizadas.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores:


Autor



Recuperação de Informação: Como a Inteligência Artificial pode melhorar a gestão de conhecimento da sua empresa

Recuperação de Informação: Como a Inteligência Artificial pode melhorar a gestão de conhecimento da sua empresa

Você consegue imaginar um sistema de busca otimizado de todo o conteúdo importante produzido por sua organização?

É isso que queremos te mostrar nos próximos parágrafos.

A complexidade dos sistemas

A complexidade dos sistemas industriais das empresas e negócios têm produzido cada vez mais informações.

As informações produzidas têm origens e destinos diversos, sejam manuais, bancos de dados, anotações, planilhas, dados georreferenciados, imagens, etc. Logo, a gestão do conhecimento se tornou um desafio para qualquer empresa, transformando dados em informação para a tomada de decisões.

com o rápido avanço dos conceitos da indústria 4.0, todo dado é informação de alto valor agregado, criando uma necessidade latente de análise e compreensão destas informações.

Para mitigar esses desafios, sistemas de recuperação de informação se tornaram indispensáveis, devido à necessidade crescente de ressignificar e extrair valor das massivas quantidades de dados que são produzidas. 

Podemos pensar no sistema de busca do Google, no qual é possível encontrar informações sobre inúmeros conteúdos colocados na web. Ao utilizá-lo, podemos obter sem esforço resultados ranqueados de acordo com o quanto a informação é relevante para cada usuário.

(Falta de) Disseminação do conhecimento

Um dos problemas mais comuns é a falta de retenção e disseminação do conhecimento obtido ao longo dos anos pelas organizações. Geralmente, esse aprisionamento acaba fazendo com que informações importantes não cheguem aos novos integrantes da organização, causando um retrabalho desnecessário.

Fenômenos deste tipo são comuns. Esse “gerenciamento pobre” das informações sempre impacta na produtividade das equipes e pode vir de várias formas: desde a gestão ineficiente dos recursos humanos, dos recursos de produção, dos recursos financeiros, chegando até mesmo a afetar os próprios clientes.

Um estudo publicado no relatório do M-Files 2019 Global Intelligent Information management Benchmark consultou 1500 trabalhadores de múltiplas regiões para estabelecer um benchmark de como a informação dos negócios é organizada e acessada, alguns dos resultados são:

  • 82% Afirmaram que é necessário navegar por diferentes sistemas e locais para encontrar a versão correta de um arquivo;
  • 42% Citaram que a nomenclatura incorreta dificulta as buscas;
  • 41% Dos entrevistados afirma que as informações estão frequentemente armazenadas no local errado;
  • 29% Afirmam que as informações estavam perdidas ou foram deletadas/extraviadas; e
  • 26% Encontram desafios ao determinar em qual sistema ou repositório devem pesquisar.

De forma geral, podemos concordar que: a falta de gerenciamento da informação torna o trabalho de todo mundo mais difícil, afetando a operação da organização como um todo.

Gestão do conhecimento, por onde começar?

Há diversas formas de melhorar a capacidade de recuperação de dados. A primeira delas é a quebra dos silos de informação (quando as informações são armazenadas em diferentes locais, sem nenhum tipo de ”troca” entre as fontes). Este é um passo importante que possibilita a correlação de dados de diferentes sistemas e origens. 

Nesta etapa, abordagens de Machine Learning e Inteligência Artificial (I.A.) são fundamentais para a criação de visualizações e análises, podendo ser realizadas para conectar informações até então desconexas contidas nestes silos.

Uma análise aprofundada destes dados pode revelar conexões valiosas entre documentos, lugares, pessoas, testes, projetos, áreas, praticamente qualquer coisa que gere valor para o negócio em questão.

À medida que inserimos todos os dados em um sistema só (esse super sistema pode ser chamado de Data Lake – lago de dados) e aplicamos técnicas de Data Analytics, podemos capacitar esse sistema a fim de realizar pesquisas por projetos específicos, pessoas, testes e/ou resultados de testes de uma forma muito mais simplificada, otimizando o tempo dos membros envolvidos no projeto.

Inteligência Artificial (I.A.) para Recuperação de Informação.

I.A. é uma das ferramentas usadas para resolver problemas de Recuperação de Informação (RI). É possível fazer dois tipos de sistemas de RI: 

  1. Mais simples, indexando os documentos (geralmente texto) e permitindo com que sejam encontrados facilmente;
  2. Mais aprimorado, que possibilita uma pesquisa mais significativa em diversos tipos de documento: textos, imagens, resultados de sensores, conteúdos de páginas web, etc. 

Sistemas de Recuperação de Informação como o Vortx são geralmente construídos com base em duas etapas principais, como apresentado na figura abaixo.

Modelo de recuperação de informação tradicional
Figura 1: Modelo de Recuperação de Informação Tradicional

Em cima temos o offline, que realiza a indexação de todos os documentos e arquivos a serem pesquisados. Abaixo o online, que acontece em tempo real de busca. 

Gestão do conhecimento é Inteligência Coletiva

Sistemas de Recuperação de Informação permitem a construção de uma Inteligência Coletiva mais forte, principalmente se incluirmos conhecimento humano em conjuntos.

Não apenas dados gerados pela empresa devem ser armazenados, mas também conhecimento humano, as boas práticas, o know-how de anos dos funcionários. Estas experiências tácitas também podem ser explicitadas, e conectadas às bases de dados, transformando informações brutas em uma arquitetura de conhecimento.

No contexto de uma indústria 4.0, a Inteligência Coletiva desenvolvida em empresas pode ser condensada em ontologias, que são uma formalização do conhecimento, e utilizadas em um Sistema de Recuperação de Informação. Com isso, a informação pode ser conectada e recuperada de forma mais eficiente e com mais valor, ampliando imensamente a capacidade de geração de insights da organização.

A implementação da cultura data-driven permite a retenção, gestão e disseminação de conhecimento para todos. Assim, podemos evitar retrabalho, erros desnecessários e perda de conhecimento, além de descomplicar o treinamento de novos funcionários, recuperação intuitiva de informação, consistência das informações e centralização das buscas.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores:

Autora

Marketing tradicional vs Marketing com Inteligência Artificial

Marketing tradicional vs Marketing com Inteligência Artificial

Vivemos o boom do marketing como forma de prospecção e venda nos meios digitais. Serviços, produtos e experiências ficam cada vez mais conectados e inteligentes, e nessa era da Indústria 4.0, essas conexões são mais complexas e volumosas.

Neste cenário, utilizar soluções de Inteligência Artificial e Machine Learning podem otimizar muito o processo de tomada de decisão.

Neste artigo vamos explicar as diferenças chaves entre o workflow da abordagem tradicional de marketing e da abordagem com uso intensivo de inteligência artificial.

O exemplo abrange as áreas de e-commerce e da indústria de serviços digitais, baseados na venda de assinaturas online.  

O cenário final visa mostrar que: a união de métodos de aleatoriedade condicional à inteligência artificial, pode mudar significativamente a forma como ocorrem as operações nesses ambientes (assinatura de serviços digitais), que tentam responder a perguntas como: 

  • Qual layout de um anúncio leva a mais cliques? 
  • Uma cor ou posição diferente do botão de compra levaria a uma taxa de conversão mais alta? 
  • Uma oferta especial realmente atrai mais clientes – e em qual fase da jornada de compra isso tem mais impacto?
  • Quantos e quais artigos você deve deixar cada perfil de leitor ler para assinar um serviço de conteúdo digital (paywall dinâmico)?
  • Qual algoritmo faz a melhor recomendação de produtos? 
  • Qual ação é a mais efetiva em cada fase da compra? 

Workflow 1: Marketing na visão tradicional

Os analistas de marketing frequentemente utilizam testes A/B para avaliar o desempenho de suas estratégias de campanha.

O objetivo é ter este feedback para melhorar constantemente as campanhas, de modo a atrair mais clientes para as ações desejadas. Como resultado, a taxa de conversão aumentará. Alguns dos itens a maximizar podem ser: 

  • Aquisições concluídas;
  • pedidos de cotação;
  • downloads de documentos digitais;
  • subscrições de boletim informativo;
  • cliques em anúncios ou banners; e 
  • qualquer outra ação estratégica no site. 

Trabalhando desta forma, as ações se tornam bastante manuais (artesanais) e o aprendizado de cada fase e/ou mudança da estratégia fica primeiramente associado ao conhecimento dos operadores, podendo estes ter dificuldade em expressá-las e até em operacionalizá-las;. 

Workflow 2: I.A no funil de conversão

O teste da aplicação da inteligência artificial começa com a análise do funil de conversão, identificando qual página precisa ser aprimorada.

Além disso, você precisa identificar exatamente o elemento que, uma vez alterado, fará uma diferença real no envolvimento do cliente.

Uma boa compreensão do comportamento do cliente, combinada ao conhecimento da ergonomia do site, pode apontar para esse elemento-chave, que pode ser: 

  • Marketing: preços, ofertas, call to action;
  • Redação: manchetes, estilo de cópia, duração do texto;
  • Design: layout, cores, fundo, fotos.

A hipótese deve implicar uma conquista de metas. Por exemplo, você pode criar uma hipótese que indique “O endereçamento direto para os clientes através do conteúdo do site aumentará a taxa de conversão em até 5%” ou “A remoção de um campo do formulário de contato aumentará os leads em 4%”.

Seleção das bases de treinamento da I.A

Um percentual dos usuários do site deve receber uma flag (uma nova coluna) marcando que fazem parte do grupo de testes. O sistema deve fazer a atribuição, aleatoriamente, ao longo do dia para que os usuários marcados e não marcados estejam nas mesmas proporções em todas as faixas de horário. Inicialmente separamos os dois grupos:

  • Grupo 1 Método tradicional (50%): Conjunto formado de usuários que recebem as políticas de abordagem padrão vigente, ou seja, o grupo dos usuários normais;
  • Grupo 2 – I.A Exploration (50%): Conjunto de usuários marcados aleatoriamente para receberem testes de intervenções aleatórias com fins de descoberta de padrões. 

Ações aleatorizadas e aprendizado de máquina

Nesta etapa o grupo “Exploratório” começa a receber a aplicação de abordagens aleatórias a depender de qual foi a escolha dos comportamentos a serem aplicados. Vamos dizer que determinado produto tem 3 tipos diferentes de abordagem de venda: 

  1. Compre agora e ganhe desconto de 30%;
  2. Promoção 30% desconto até terminar os estoques;
  3. 30% desconto à vista.  

Ao longo do tempo, os diferentes perfis de compra começarão a emergir, revelando assim diferenças estatísticas entre os perfis. Inclusive, podem acontecer casos onde o grupo 2 (I.A Exploration) tenha um melhor desempenho que o grupo 1 (Método Tradicional). 

I.A aplicada na prática

Com os grupos 1 e 2 selecionados, é possível aplicar a I.A para estudar os comportamentos existentes entre todos os perfis levantados. Neste exemplo, ter apenas 3 opções para cada perfil é algo que pode ser facilmente realizado por analistas humanos.

Porém, quando se multiplica a quantidade de produtos pela quantidade de novas ações a serem realizadas, a I.A faz toda a diferença na automação e na escalabilidade do comportamento inteligente, potencializando as descobertas dos perfis de clientes e os resultados. 

marketing tradicional vs marketing com inteligencia artificial
Fluxo de funcionamento do I.A Exploration Exploitation

A escolha das proporções do roteamento de cada grupo é tarefa dos cientistas de dados durante a fase de exploração dos datasets. Agora, o grupo que passou pelo processo de I.A (Que chamamos de Exploration & Exploitation),  deve gerar recomendações em tempo real, mais adequadas a cada perfil, e consequentemente, ter um desempenho de conversão superior ao grupo tradicional, ou seja: O método com I.A gera muita variabilidade, mais aprendizado e mais ganho (conversões).

Talvez você se pergunte – Por que devemos ainda manter um grupo aleatório? A resposta é simples, a aleatoriedade estará sempre fazendo a pesquisa sobre novos comportamentos, desta forma a I.A pode aprender continuamente com o comportamento dos usuários, mesmo que este mude com o tempo. Comportamentos sempre mudam.

Testes das abordagens

As experiências de ambas as abordagens devem ser conduzidas sob regras estritas para que os resultados sejam precisos e preciosos. Assim, existem alguns fatores a serem levados em conta:

  • Tempo: ambos os grupos devem ser atendidos no mesmo período. Caso contrário, os resultados podem ser influenciados pela sazonalidade, tendências e outros eventos externos;
  • Duração do teste: as páginas que receberão comportamentos inovadores (aleatórios ou baseadas na I.A) devem ser executadas por um período de tempo que permita que o teste forneça resultados robustos. A relevância é determinada pelo número total de visitas, o número de visitas incluídas no teste e a meta estabelecida;
  • Quantidade de visitantes: Dependendo do tamanho total de visitantes do serviço, é possível que as variações aleatórias não formem uma quantidade de observações para que os modelos de I.A sejam capazes de aprender. 

O que muda no Marketing após a I.A? (quadro comparativo) 

Logicamente, o processo de implantação de de I.A não é tão simples como exposto neste artigo.

Buscamos ser o mais genérico possível uma vez que entendemos que cada negócio apresenta uma complexidade e individualidade característica das tecnologias e modelo de negócio usados.

Abaixo fazemos um sumário de como vemos a mudança da forma como o marketing tradicional deve ser alterado pela influência dos modelos que utilizam Inteligência Artificial. 

CaracterísticaTradicionalI.A
Escalabilidade de descoberta de insightsManual 
Os testes AB são manuais. O crescimento é linear, ou seja, para cada x testes é necessário um número x de pessoas. Embora campanhas possam ser automatizada. 
Automático contínuo
A aleatoriedade produz um grande número de tentativas e erros que geram aprendizados de forma constante, apontando tantos os pontos com maior tendência de conversão como também situações totalmente improváveis de conversão. 
Duração dos testesPontual
Os testes A/B tradicionais são pontuais conforme a intuição e capacidade de elaboração de cenários da equipe. 
Contínuo
O processo mineração de novos padrões está acontecendo em tempo real em grupos específicos de usuários pela aplicação de aleatoriedade em pelo menos uma faixa do canal de conversões.
Volume de testesTestes específicos
A combinação de fatores limitada. Ex. Teste A/B onde o produto X é selecionado para persona Y durante tempo Z.  estes A/B
Testes em faixas combinatórias
Os testes podem ocorrer em faixas de valores com múltiplas possibilidades de combinações. Chamamos de teste XX que significa eXploration/eXploitation. Ex. Vamos permitir que a o valor de X varie de 30 a 80 para todas as personas durante tempo Z. 
Fatores de sucesso ou fracassoSubjetivo
O conhecimento dos principais fatores do sucesso ou fracasso de cada tentativa é limitada a um conjunto pequeno de fatores isolados e em muitos caso é incorporado ao conhecimento tácito dos membros da equipe.  
Objetivo
A inferência é quantitativa sobre um conjunto de fatores de análise é quase ilimitado já que este pode pode crescer ao longo do tempo com a ampliação das integrações de dados às bases externas, tais como dados do clima, do trânsito e da economia por exemplo. Dependendo dos algoritmos utilizados para a descoberta de padrões é possível se extrair até as regras de negócio para utilizar na forma tradicional. 
Vire seu dispositivo para visualizar a tabela!

Conclusões

Neste artigo tratamos da comparação metodológica que envolvem dois cenários contrastantes na área de marketing.

No primeiro cenário, tratado como marketing tradicional, tem-se com base regras fixas, bem como a experiência dos profissionais marketing, o que torna difícil a replicação e aprimoramento da operação e a escalabilidade dos testes e descobertas de insights. 

No segundo cenário utiliza-se inteligência artificial + técnicas de aleatorização condicional de dados aplicadas de forma intensiva, para explorar e descobrir oportunidades de otimização da conversão de leads.

Com este método de exploração reunimos mais informações que podem nos levar a melhores decisões no futuro e ao mesmo tempo executamos a exploração, que é a melhor decisão tomada no momento mais propício.

Ainda, é importante salientar que a estratégia de aleatorização depende de análises exploratórias profundas para a customização ideal da plataforma na operação. 

Hoje vemos que apesar do aumento da complexidade do stack tecnológico envolvido na aplicação da IA, há uma tendência de investimentos bastante forte neste sentido para aumentar escalabilidade aos negócios digitais de forma cada vez mais inteligente e personalizada. 

Por fim, mas não menos importante. Ressaltamos a necessidade de revisar os indicadores de desempenho para então trabalhar em sua otimização.

Recomendamos um estudo de seu processo de geração e testes, pois os indicadores podem estar descalibrados, algumas dicas já foram escritas neste outro artigo 7 dicas de ouro sobre design de indicadores.

Em nossa experiência, acompanhamos diversas situações de indicadores com problemas conceituais desajustados às políticas e as expectativas da gestão e com isso nenhuma das abordagens traziam resultados.  

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores:

Autores