Neste artigo, falaremos sobre dois questionamentos chaves que acontecem na maioria dos projetos e que podem ser resolvidos com os alinhamentos propostos pela Lean Inception:
Como resolvemos o que precisa estar no MVP para iniciar o projeto ágil o mais rápido possível?
Como nos asseguramos que o time comece a criar o produto com um entendimento compartilhado e um plano efetivo?
Mas antes de chegarmos às resoluções destes questionamentos, precisamos entender o que é Lean Inception e sua importância, assim como o que é um MVP.
O que é Lean Inception?
No movimento Lean Startup (Eric Ries, 2011), temos o MVP como peça-chave do ciclo “construir – medir – aprender”, no qual após ser construído, ele é colocado à prova. Com isso, o time terá dados para medir o seu uso e gerar o aprendizado desejado.
Porém, muitos sentiram falta de um direcionamento referente a “o que construir”, e foi assim que surgiu a Lean Inception. Dessa forma, a nova proposta é que se inicie com um kick-off, seguido por uma sequência de atividades intensas, terminando com um showcase do workshop, no qual será feito o alinhamento entre as áreas de negócios e técnicas. A equipe envolvida na construção do MVP deve participar de todas as atividades, já os demais envolvidos (stakeholders) participam do kick-off e do showcase, onde são respectivamente apresentadas as expectativas e os resultados obtidos no workshop.
Por que é chamada de Lean Inception?
É uma forma diferente de se iniciar um projeto com a proposta de um novo estilo de inception (começo, em tradução livre), e é lean (magro, em tradução livre) por dois motivos:
A duração da inception é menor, eliminando tudo o que não diz respeito ao produto (como arquitetura, por exemplo) deixando-a enxuta.
O resultado final da inception é a compreensão do MVP, um conceito fundamental do movimento Lean Startup.
Quando fazer uma Lean Inception?
A Lean Inception é útil quando o time precisa desenvolver um MVP e criar um produto de forma iterativa e incremental. Apesar de o termo ser frequentemente mal entendido, a característica principal de um MVP é que se faz algo para aprender se vale a pena continuar construindo o produto ou não.
Também é um processo que ajuda na escolha de funcionalidades para validar o que é valioso para nossos usuários. Para isso, é necessário entender quem são os usuários, se o produto consegue se adequar às atividades que estes usuários realizam e como medir se eles acham o produto útil ou não.
Beleza, mas o que é um MVP?
O MVP (Minimum Viable Product ou Produto Mínimo Viável na tradução livre) está na interseção entre valioso (interesse do negócio), usável (aceitação e admiração dos usuários) e factível (o que é possível construir). O fator “uau” é a cereja do bolo.O fator “uau” é o que diferencia o seu produto no mercado. Aquilo que é capaz de conquistar seus usuários e transformá-los em ávidos promotores do produto.
Assim deve ser com os MVPs. Cada um deve ter os fatores factível, valioso, usável e “uau” e deve ser construído contendo uma fatia pequena da visão do todo, que contempla esses quatro fatores.
Validar e aprender rápido!
A primeira impressão é muito importante, pois queremos evitar uma péssima avaliação do cliente.
Pensar num cenário completo é bastante complexo, por isso valide e aprenda rápido com as informações obtidas através do MVP. Dessa forma, é possível avançar com melhorias mais rápidas e assertivas no desenvolvimento do produto.
Por que fazer uma Lean Inception?
Não é nada fácil elaborar o MVP. Para obter sucesso no desenvolvimento de um bom MVP é preciso:
Ter uma visão ampla do produto e do negócio;
Validar uma hipótese;
Elaborar os incrementos;
Garantir que o MVP contenha os 4 fatores principais (factível, valioso, usável e “uau”);
Organizar blocos que se encaixem;
Contemplar todo o funil de venda.
E todos esses pontos ficam mais claros com uma Lean Inception. Podemos observar no quadro abaixo um resumo de como fica a organização da Lean Inception quando a equipe já discutiu sobre o que compõe o MVP e já conversou sobre o que se espera dele.
Canvas MVP
Nesse modelo de organização, é necessário:
Dividir a equipe em dois grupos e solicitar que cada um preencha o Canvas MVP;
Cada grupo deve apresentar o seu MVP no seu respectivo template;
A equipe vai consolidar os sete blocos do Canvas MVP utilizando e alterando as anotações anteriores.
Conclusão da criação de um MVP na Lean Inception
Para finalizar, o MVP é demonstrado para os stakeholders. Essa é hora de conversar sobre os artefatos gerados na Lean Inception e compartilhar o entendimento do grupo sobre as hipóteses para validar o melhor caminho a ser seguido.
Mãe do Benício e do Miguel, Poduct Owner na Aquarela Analytics, CSPO®, Certifield Lean Inception Facilitador, Product Backlog Building (PBB), Digital Product Leadership – Tera, Scrum Master, Cursando Processos Gerenciais na Unifran.
Formada em Engenharia da Computação e mãe de pet. Possui certificação Scrum Fundamentals certified (SFC), Certificação Lean Agile Coach Professional (LACP) e Certificado Roda Ágil Professional (RAP). Atua como Product Owner/Scrum Master na Aquarela Analytics.
Todo Analista de Infraestrutura, DevOps ou mesmo o próprio Analista de Monitoramento desenvolve um plano de monitoramento para um serviço e inclui alguns objetivos de monitoramento.
O primeiro objetivo é garantir que os consumidores de monitoramento dentro da organização de T.I atinjam um alto nível de conforto ou de confiança com a solução que está sendo planejada para eles assim que possível.
O outro objetivo é avaliar continuamente os SLOs (Objetivos de nível de serviço) e os SLIs (indicadores de nível de serviço) correspondentes para o serviço específico e se esforçar para otimizá-los por meio de iterações de planejamento.
Como a observabilidade e o monitoramento têm bastante ligação, há uma distinção entre eles. O monitoramento coleta informações e informa que detectou um problema com base foi configurado para monitorar tais condições. Simplesmente declarado, onde é monitorado falhas conhecidas ou previsíveis.
Já a observabilidade é mais focada em combinar todos os dados coletados por suas ferramentas de monitoramento e buscar oportunidades para entender o comportamento desses sistemas. Por sua vez, pode ser usado este conhecimento para ajustar ainda mais o monitoramento detectando os sintomas e condições.
Por que a observabilidade é tão importante
A observabilidade é o primeiro paradigma do consumidor de monitoramento, pois ele reconhece o que é considerado ou percebido como operação normal de um serviço. Em outras palavras, ele busca visibilidade total, um princípio de monitoramento chave, assim que possível.
Assim que a observabilidade é alcançada, com base nesse nível inicial de visibilidade para desenvolver alertas acionáveis, é criado painéis úteis e avaliações de soluções AIOps (um acrônimo de “Artificial Intelligence for IT Operations”, ou seja, inteligência artificial para operações de TI). Isso acaba fornecendo tempo para que os analistas se sintam confortáveis com a métrica subjacente e os dados de monitoramento de logs.
A visibilidade total significa apenas alcançar e sustentar, porém a visibilidade suficiente contém três dimensões ou aspectos:
Monitoramento em profundidade
Monitoramento em amplitude
Monitoramento em todo o modelo de integridade
Um analista de observabilidade não apenas foca na T.I, mas sim em garantir que os usuários finais possam consumir o conteúdo e que os SLOs sejam atendidos.
Monitoramento de sistemas e observabilidade
O monitoramento da infraestrutura e dos aplicativos é bastante complexo, mesmo com a computação em nuvem sendo mais presente em nosso dia a dia, o influenciamento do monitoramento na nuvem vem ganhando mais força e deixando o nível de complexibilidade bem mais alto e necessário.
Para arquitetos, o diagnóstico forma um núcleo de sua exploração de estruturas de monitoramento nativas de nuvem mais econômicas que permitem que o TI gerencie serviços em diferentes modelos de nuvem. Os arquitetos precisam, como os operadores, entender quais informações de diagnóstico um componente de infraestrutura ou um aplicativo emite. Combinar fluxos de log multivariados, dinâmicos, de série temporal, com eventos, com estado e telemetria em uma inteligência valiosa depende do seguinte:
Conhecimento e experiência da pessoa desenvolvedora ou engenheira de software, que tenha um entendimento profundo do destino de monitoramento.
Experiência de solução de problemas e suporte reais usando os dados para encontrar problemas ou localizar as causas de problemas
Revisão de incidentes anteriores para encontrar motivos não tecnológicos que podem ser corrigidos automaticamente mais tarde.
Na nuvem, o analista tem uma flexibilidade enorme nos tipos de serviços que pode escolher. O monitoramento inclui como eles mudam ao longo do tempo e podem ser dinâmicos, globais e resilientes.
Diferença entre Monitoramento e Observabilidade
A observabilidade funciona de modo em que as plataformas descobrem e coletam telemetrias de desempenho. São encontradas em quatro tipos de telemetria:
Logs: são registros granulares, com carimbos de data/hora, completos e inalterável de eventos de aplicativos.
Métricas: são medidas fundamentais da integridade do aplicativo e dos sistemas durante um determinado período de tempo.
Rastreamento: registram a jornada ponta a ponta de cada solicitação do usuário.
Dependências: revelam como cada componente do aplicativo depende de outros componentes, aplicativos e recursos de TI.
Já o monitoramento significa observar e verificar um progresso ou qualidade de algo por um certo período de tempo. A monitoração foi mudando conforme a infraestrutura e ferramentas disponíveis ao longo do tempo.
Como medir o monitoramento e a observabilidade
Ao implementar um sistema de monitoramento e observabilidade dentro da organização, é necessário acompanhar algumas métricas internas para visualizar o desempenho.
Existem algumas opções que podem ser acompanhadas com uma pesquisa mensal ou possivelmente analisar automaticamente os registros de alerta.
Alterações feitas no monitoramento da configuração. Quantas solicitações de pull ou alterações por semana são feitas no repositório que contém a configuração de monitoramento? e com que frequência essas alterações são enviadas ao sistema de monitoramento?
Alterações de ‘Fora do horário de funcionamento’. Verificar qual porcentagem dos alertas é gerenciada a noite. Em algumas empresas globais têm um modelo de suporte 24 horas, o que não torna isso um problema, mas pode indicar que não foi dada atenção suficiente aos principais indicadores de falhas.
Falsos positivos. Quantos alertas resultaram em nenhuma ação ou foram marcados como ‘Trabalhando como pretendido’.
Falsos negativos. Quantas falhas do sistema ocorreram sem alerta ou alerta depois do esperado.
Alertas não funcionais. Qual porcentagem de alertas foi considerada ‘não aceitável’. Ou seja, o analista alertado não consegue tomar nenhuma medida imediata, devido a incapacidade de entender a implicação do alerta ou devido a um problema conhecido.
Conclusão – Monitoramento e Observabilidade
Quando se aplica a observabilidade e o monitoramento, os benefícios são imensos dentro da sua empresa, fazendo com que a inovação e implementação andem lado a lado deixando tudo mais rápido, custos reduzidos e melhor compreensão de como priorizar seu tempo e atenção dentro dos aplicativos.
Tudo isso leva a um entendimento mais profundo dos dados, sistemas e dos clientes. Além de agregar o crescimento nos negócios a medida que se tem visualizaçẽos em tempo real de como o sistema funciona.
DevSecOps Engineer na Aquarela Advanced Analytics. Formação Superior em Análise e Desenvolvimento de Sistemas e Pós-Graduando em DevOps and Cloud Computing. Apaixonado pela Cultura DevOps e entusiasta nas seguintes stacks tecnológicas: Cloud – AWS and GCP; Infraestrutura como Código – Terraform and Ansible; Containers – Docker and Kubernetes; Repositórios de código – Gitlab, Git and GitHub; Monitoramento – Grafana and Prometheus;
A união da gestão de produtos com os produtos de dados não é uma tarefa simples para Product Owners que se aventuram nessa missão. Quando lidamos com dados como base do produto, há uma grande sensibilidade no desenvolvimento do projeto.
É muito provável que POs enfrentem algumas dificuldades ao longo do processo de gestão. Por isso, neste artigo, elencamos 5 desafios na gestão de produtos de dados que, possivelmente, acontecerão com profissionais da área.
Definir o escopo
Como a área de dados envolve muitas variáveis, é comum a formulação de hipóteses que poderão ser respondidas a partir da transformação e análise dos dados disponíveis. Por isso, há uma dificuldade em saber até onde o produto ou projeto vai e quais os problemas a solução irá resolver.
No desenvolvimento de softwares comuns é frequente a mudança de escopo ao longo do processo de Discovery. Porém, quando envolvemos dados, esse processo se torna ainda mais complexo e passível de mudanças, já que existem as possibilidades de não ser viável da forma que foi inicialmente imaginada, dos dados não estarem disponíveis, de ir contra alguma norma ou legislação, entre inúmeros outros desafios.
Quantidade e qualidade de dados
É comum ver nas redes sociais algumas piadas e memes relacionados à expectativa e realidade em relação ao trabalho envolvendo dados. Isso porque muitos cientistas, quando iniciam a carreira, acreditam que irão trabalhar com modelagem e estatística. Mas, apesar de existirem essas tarefas, grande parte do operacional está em transformar e limpar dados.
Não apenas isso, mas também a parte de desenhar uma estrutura e escolher as ferramentas necessárias é uma etapa de grande importância para uma boa gestão de um produto de dados.
Isso significa que a complexidade de um produto de dados está diretamente relacionada à origem desses dados, quantos dados serão necessários para construir a solução e como esses dados estão organizados.
Time multidisciplinar
Além dos profissionais que estão envolvidos em um software comum, como: desenvolvedores backend e frontend, QAs, UX/UI Designers, um produto de dados abrange outros perfis. A estrutura pode variar de uma empresa para outra, mas no geral é comum encontrar analistas, engenheiros e cientistas de dados fazendo parte da equipe que irá construir o produto.
Devido ao aumento dos stakeholders, a gestão do projeto se torna mais complexa e, portanto, precisa levar em consideração as necessidades e particularidades desses profissionais na hora de montar o backlog e criar o roadmap.
Comunicação com clientes e fornecedores
Devido a multidisciplinaridade que um produto de dados envolve, é comum que a comunicação sobre o produto para os clientes e fornecedores precise ser cheia de informações e, ao mesmo tempo, clara e objetiva.
Nem todos os envolvidos conhecem as tecnicidades e nem precisam conhecer. Mas todos precisam estar alinhados para que o processo siga sem grandes obstáculos. A comunicação entre os stakeholders do produto é um processo contínuo e precisa ser constantemente revisado.
Agilidade
Há uma certa dificuldade no uso de metodologias ágeis na gestão de produtos de dadospor conta da complexidade dos processos e, em muitos casos, uma constante mudança no escopo do projeto.
As metodologias ágeis são ferramentas muito úteis para o processo de gestão. Entretanto, é necessário compreender a melhor forma de utilizá-las como suporte, não permitindo que o projeto seja prejudicado por conta das limitações de uma metodologia.
Por isso, é muito comum que o desenvolvimento de um produto de dados utilize mais de uma metodologia ao longo do projeto, adaptando diferentes etapas e processos às diretrizes que mais se adequam às necessidades da equipe.
Conclusão – Desafios na gestão de produtos de dados
A gestão de produtos de dados, de uma forma geral, irá envolver processos complexos e desafios ao longo do desenvolvimento do projeto. O envolvimento de diferentes personagens ao longo do desenvolvimento, sejam eles parte da equipe interna, clientes ou fornecedores, irá demandar uma comunicação clara para todos os níveis de conhecimento dos envolvidos.
Além disso, é preciso ter grande atenção quanto à origem, volume, organização e qualidade dos dados para enxergar com clareza os problemas que o produto poderá solucionar ou, em alguns casos, os problemas que ele não poderá solucionar e qual o melhor caminho a seguir, mesmo frente à adversidades e empecilhos ao longo dos processos.
O desenvolvimento de soluções que fazem uso de inteligência artificial (IA) está intimamente ligado aos dados que estas soluções utilizam. Na era da transformação digital, a qualidade dos dados (data quality) desempenha um papel essencial nas tomadas de decisões e gera valor para o negócio.
Nesse contexto, o processamento dos dados utilizados na construção da IA tem uma notável importância para garantir seu bom funcionamento. Neste conteúdo, iremos falar sobre limpeza e estruturação de dados e sua relevância no processo de elaboração de soluções em IA.
Limpeza de dados
A limpeza de dados (data cleaning ou data cleansing) é um dos processos que garantem uma boa qualidade dos dados utilizados para estratégias de decisão e que geram valor. Esse processo se baseia em corrigir, remover, selecionar e padronizar os dados de uma determinada fonte.
A Tabela 1 apresenta um exemplo fictício da quantidade de itens vendidos por uma loja em determinados meses. É possível notar que a representação da quantidade de itens vendidos está na forma decimal; entretanto, sabemos que esse valor é sempre um número inteiro.
Além disso, o mês de maio apresenta valor duplicado. Sendo assim, o processo de limpeza de dados para este exemplo seria converter a coluna “Quantidade de itens vendidos no mês” para valores inteiros e remover o valor duplicado do mês de maio da tabela.
Tabela 1 – Exemplo de dados a serem corrigidos
Data
Quantidade de itens vendidos no mês
01/01
20,00
01/02
18,00
01/03
5,00
01/04
4,00
01/05
6,00
01/05
6,00
Tabela 1
Alguns outros problemas que poderiam ocorrer nesse exemplo e que deveriam ser corrigidos são: valor de vendas negativo e valor de vendas em branco (sem valor).
Diferentes estratégias podem ser adotadas no processo de limpeza de dados. Tais estratégias são definidas pelos responsáveis pelo procedimento em conjunto com o conhecimento do problema de negócio em questão.
Estruturação de dados
Outro ponto importante no processamento de dados é sua estruturação. De forma simplificada, damos o nome de estruturação às diversas formas de organização e agrupamento de dados. Todo esse processo depende muito de questões como eficiência de busca, volume e relacionamento entre dados e deve ser levado em consideração na criação de banco de dados no desenvolvimento de soluções de IA. Além disso, a estruturação de dados também tem o objetivo de realizar operações como inserção/exclusão, busca e ordenação.
Esse tópico é de muita importância no desenvolvimento de aplicações de inteligência artificial e possibilita uma maior eficiência na utilização e processamento dos dados, além de também ser uma grande área de estudo no campo da ciência da computação.
Exemplo prático
O mercado livre de energia é um ambiente em que os consumidores podem negociar as condições de contratação de energia com os fornecedores, o que traz diversos benefícios. Um dos principais desafios dessa modalidade é prever com precisão a quantidade de energia que determinado consumidor irá consumir no futuro, para que este possa negociar um contrato com as melhores condições possíveis. Uma das soluções para esse problema é a previsão de séries temporais.
O histórico de consumo de energia elétrica de todos os consumidores inseridos no mercado livre de energia é disponibilizado publicamente na página da Câmara de Comercialização de Energia Elétrica (CCEE).
Sendo nosso objetivo prever o consumo de energia de determinado consumidor para os meses seguintes, com base no seu consumo histórico, precisamos garantir que os dados utilizados estejam com uma boa qualidade para que a previsão seja a melhor possível. Essa qualidade pode ser obtida através da limpeza e estruturação dos dados.
Inicialmente, é preciso analisar os dados disponíveis e identificar quais colunas das tabelas são essenciais para a tarefa a ser realizada. Posteriormente, é preciso analisar se essas colunas possuem algum tipo de problema como dados duplicados, erro de formatação, campos em branco, se o nome das colunas permanece o mesmo em todos os arquivos, entre outros.
Feitas as correções necessárias (limpeza dos dados), os dados selecionados para a previsão podem ser estruturados em uma tabela ou até mesmo em um banco relacional para que possam ser utilizados posteriormente no desenvolvimento da IA de previsão de consumo.
Dessa forma, podemos observar que as tarefas de limpeza e estruturação dos dados desempenham um papel essencial no desenvolvimento de uma aplicação de inteligência artificial, como, por exemplo, a previsão de consumo de energia elétrica através de séries temporais.
Conclusão – A importância do processamento de dados na IA
É notória a importância da utilização de dados para a construção de soluções em inteligência artificial. Além do mais, é necessário que os dados utilizados retratem bem o problema de negócio associado à solução desenhada e proposta. Nesse sentido, o processamento de dados desempenha uma função de suma importância para garantir o bom funcionamento dessas soluções.
Neste texto, foi possível entender um pouco dos procedimentos de limpeza e estruturação dos dados e como estes contribuem no processo de inteligência artificial e, também, analisar de forma prática a contextualização desses procedimentos.
Cientista de dados na Aquarela. Graduado em engenharia elétrica pela UFSC. Entusiasta nas áreas de ciência de dados, aprendizado de máquina e processamento de sinais.
Diante da história das Revoluções Industriais, desde a era Ford – conhecida por Indústria 2.0 – no início do século 20, vivemos momentos de padronização e uniformidade graças à produção em escala associada às linhas de montagem, passando pela automatização com ênfase na robótica na década de 70. Agora, muito tem se falado sobre a Indústria 4.0. Você, que trabalha na indústria, com certeza sabe do que estou falando…
A Indústria 4.0, também conhecida como Quarta Revolução Industrial, é uma tendência atual que envolve a utilização de tecnologias avançadas, como a inteligência artificial (IA), para aumentar a eficiência e eficácia da produção industrial.
A IA tem um papel importante na Indústria 4.0, pois permite que os processos industriais sejam automatizados e otimizados, resultando em ganhos de produtividade e redução de custos.
MAS COMO A IA TEM AFETADO O CONTEXTO DAS INDÚSTRIAS ATUAIS?
IA na automação de tarefas e monitoramento de processos industriais
Uma das formas em que a IA favorece a Indústria 4.0 é através da automação de tarefas repetitivas e de baixo valor agregado. Por exemplo, a IA pode ser utilizada para controlar sistemas de produção automatizados, como linhas de montagem, reduzindo o tempo e o esforço humano necessários para realizar essas tarefas.
Além disso, a IA também pode ser utilizada para monitorar os processos industriais em tempo real, identificando problemas ou falhas e alertando os operadores para que possam tomar medidas corretivas.
Como um exemplo disso temos o SmartVaC. Com ele, através do monitoramento em conjunto com hardwares (sensores) instalados, podemos prever e alertar com antecedência o usuário quanto a possíveis falhas nos equipamentos da sua empresa.
IA com ênfase na tomada de decisão embasada em dados
Outra forma é através da análise de grandes quantidades de dados gerados pelos processos industriais. A IA pode utilizar técnicas de aprendizado de máquina para detectar padrões e tendências nos dados, permitindo aos gerentes tomar decisões informadas e otimizar os processos de produção.
Além disso, a IA também pode ser utilizada para prever falhas ou problemas futuros, permitindo que as empresas tomem medidas preventivas para minimizar o impacto desses problemas.
IA e a impressão 3D: como aliar marketing com produção customizada
Termos como agilidade, flexibilidade e personalização compõem o modelo idealizado por Lester Wunderman, tido como o “pai do marketing direto”, em que coloca o consumidor final como protagonista no processo, através da customização em massa da produção.
Com o emprego das tecnologias, como a IA, a coleção e análise de dados passam a fazer parte da rotina empresarial, possibilitando a entrega de produtos altamente segmentados e sob demanda. Permitindo, assim, que as empresas atendam às necessidades específicas dos seus clientes de maneira eficiente, em massa e rentável. Um bom exemplo disso é o Projeto Adidas FutureCraft 4D. Através da impressão 3D, a Adidas desenvolveu um processo de customização da sola com a produção impressa em 3D, aumentando a performance dos esportistas e se aproximando das necessidades de cada um.
IA no desenvolvimento de produtos
Pensando na minimização de erros e consequente gastos extras, a IA também pode ser utilizada para desenvolver novos produtos e processos de produção.
Por exemplo, a IA pode ser utilizada para simular e prototipar novos processos de produção e avaliar sua viabilidade antes de serem implementados, o que pode resultar em economias de tempo e dinheiro.
IA para previsão de demanda na Indústria 4.0
Além dessas, mas não como última, a IA pode favorecer a Indústria 4.0 através da previsão de demanda. A IA pode utilizar técnicas de aprendizado de máquina para analisar dados históricos de demanda e identificar padrões e tendências que podem ajudar a prever a demanda futura.
Isso pode ajudar as empresas a planejarem suas produções de maneira mais eficiente e a garantirem que elas tenham os produtos certos disponíveis para atender à demanda dos clientes.
Além disso, a previsão precisa da demanda também pode ajudar as empresas a evitar o excesso de estoque, o que pode reduzir os custos de armazenamento e diminuir o risco de produtos ficarem obsoletos.
Com o uso de dados e dashboards customizados, alinhados com o mercado, conseguimos prever o impacto no lucro e na demanda baseado nos preços aplicados.
E COMO O SEU NEGÓCIO PODE GANHAR COM ISSO?
Nós da Aquarela Analytics entendemos que as necessidades de cada indústria são padrões, porém a forma como cada uma conduz a sua evolução e o seu mercado são únicas e a solução deve ser personalizada, adaptando-as da melhor forma ao seu negócio, seja no processo, na produção ou no produto.
Uma estratégia bem feita pode economizar um investimento inicial, eliminar estoques ou mesmo te posicionar como empresa inovadora em um mercado absolutamente novo.
Teve um insight que gostaria de dividir? Conte conosco! Adoramos novos desafios 🙂
Product Owner na Aquarela, é pós graduada em Design Estratégico com mais de 15 anos atuando na industria e 5 deles como CEO de startup. É entusiasta da gestão de produtos na indústria de tecnologia, com uma abordagem data-driven e centrada no usuário.
Antes de falar sobre a aplicação de IA e Analytics para otimização de decisões, é preciso falar sobre como funciona a tomada de decisão, levando em consideração a energia cerebral consumida no processo e o grande volume de informações que temos acesso atualmente.
Existe uma limitação humana diante do consumo de informação. Seja pela visão, audição ou outros sentidos, o impacto nos ambientes de negócios é gigantesco. Alguns fatores do cenário atual acabam por agravar essa limitação, como:
Excesso de informações disponíveis;
Falta de recursos humanos para analisar os dados;
Saturação cognitiva pelo excesso de informações;
Mas como podemos lidar com essas dificuldades e ainda assim utilizar informações relevantes e úteis para apoiar as estratégias de negócio?
Neste artigo, refletiremos sobre o processo de decisão, definiremos seus tipos e vamos analisar como funciona o processamento de uma decisão. Além disso, traremos algumas opções para quando há falta de informações ou quando a capacidade humana não consegue lidar com o excesso de informações disponíveis.
Níveis de Conhecimento
Simplificando, temos um horizonte dos níveis de conhecimentos associados ao valor da informação na tomada de decisão, como demonstrado na figura abaixo:
As formas de tomar decisões
Como funciona o processo de tomada de decisão? Escrito por um dos maiores especialistas do mundo em pensamento estratégico, o livro do Daniel Kahneman “Thinking Fast and Slow” é uma das melhores referências nesse tema. Nele o autor descreve dois tipos de pensamento envolvidos em processos decisórios que dependem do tipo de decisão a ser tomada. São eles: o rápido e o devagar.
Livro: “Thinking Fast and Slow” de Daniel Kahneman
Pensamento Rápido
O sistema de pensamento rápido (Fast Thinking) é inconsciente e automático. O utilizamos todos os dias, e normalmente nem percebemos quando ele é utilizado na tomada de decisão. Acionamos este modelo normalmente em momentos de risco, pane ou crise, como num acidente de trânsito, por exemplo.
Esse tipo de pensamento é um dos motivos que garantiu nossa sobrevivência até os dias de hoje. Mas, apesar de ser extremamente útil, veloz, o pensamento rápido não permite ser medido e planejado em detalhes. Isso acontece porque não sabemos o que o aciona ou muito menos qual foi o caminho percorrido para a decisão. Elas acontecem de forma instintiva.
Pensamento Lento
O sistema lento, por outro lado, é consciente e possível de ser mensurado. Esse sistema demanda alto consumo energético e significativo esforço cognitivo para a tomada de decisão. Ele é composto por três formas de decisão, mas não controlamos qual utilizar. São elas:
Aleatoriedade: forma aleatória ou criativa Ou seja, nosso cérebro testa pontos relevantes e irrelevantes. É um processo mais longo e que utiliza muita capacidade criativa.
Estruturada: é uma estratégia processual. Por exemplo, você chega no guarda roupa, tem várias coisas disponíveis, você já sabe que irá usar calça jeans e camiseta preta mas mesmo assim ainda pensa na programação do dia e analisa fatores como chuva ou se terá algum evento no dia. Desta forma você desvia dos pontos irrelevantes, foca nos relevantes para a decisão.
Sistêmica: é a forma analítica. Separando pontos relevantes e simplesmente decidindo.
Sabendo disso, surgem algumas dúvidas: sabemos que quem escolhe o modo como tomamos decisões é o cérebro, mas que critérios ele usa? Ele utiliza vários itens, mas não conseguimos identificar exatamente o porquê ele escolheu A, B ou C em cada forma de decisão. Se controlássemos esse processo, poderíamos direcionar e pensar de maneira mais sistêmica sobre nossas escolhas. Porém, não existe um critério padrão para o cérebro, justamente por sua capacidade criativa. As variáveis mudam em cada processo.
Apesar de não termos total certeza sobre o modo que o cérebro toma decisões, outros fatores interferem nesse processo, trazendo mais variáveis e complexidade. Um dos fatores é a quantidade de dados e informações disponíveis para a tomada de decisão. Em uma situação em que é preciso tomar decisões com poucas informações disponíveis, é possível que a decisão não leve em conta fatores importantes envolvidos por não abranger todas as possibilidades. Porém, em uma situação com muitas informações disponíveis encontramos outro cenário.
Crescimento do Volume de Dados vs Capacidade Humana
Com o avanço tecnológico dos meios de comunicação e sistemas de bancos de dados interligados via internet, as informações se tornaram abundantes.
Repositórios de conhecimento como a Wikipedia baseada no conceito Web 2.0 revolucionaram o mundo das enciclopédias físicas gerando uma democratização do conhecimento tanto no aspecto de criação de conhecimento como em sua disseminação.
Na visualização a seguir, já apresentada no artigo “Dos Dados à Inovação“, vale observar o crescimento da complexidade e o valor da informação gerada a partir dos dados.
Além disso, importantes evoluções computacionais em todos os níveis do gráfico apresentado se conectam a processos de inovação. Essa dinâmica impulsiona melhorias na:
Captura de dados do mundo real por sistemas de IOT;
O fato é que a capacidade humana de análise e geração de sentido é limitada. Com a saturação cognitiva causada pelo crescente fluxo de dados e novas tecnologias é importante refletir sobre qual estratégia ou metodologia de dados adotar para apoiar o processo decisório e gerar impactos nos negócios.
Parálise na tomada de decisão
Quando temos excessos de visualizações e pouca decisão, temos um caso de PARÁlise que é a paralisia decisória por excesso de análise.
Na imagem a seguir temos um gráfico demonstrando a capacidade de análise de dados ao longo do tempo utilizando sistemas de BI e novas possibilidades de análises quando impulsionadas com tecnologias de IA e Advanced Analytics.
Essas tecnologias são peça fundamental para acelerar a jornada em tornar empresas orientadas a dados, ou seja, torná-las Data Driven.
Métodos para a tomada de decisão assertiva
No exemplo citado para o processo decisório da escolha de roupa, pode-se considerar que a variável “previsão do tempo” para uns é relevante, mas talvez para você não seja. E pode ser que você tenha outras que sejam relevantes: pegar ou não roupa extra? Será que após sair do trabalho irei para um happy hour? Se sim, é importante levar uma roupa adequada.
Todos esses inputs chegam ao cérebro, ele absorve tudo, variáveis relevantes e irrelevantes, processa e você toma a decisão. Então significa dizer que mesmo para quem tem duas calças e quatro camisetas escolher roupa pode ser uma decisão complexa? Sim! Essa decisão faz parte da categoria de modelo de pensamento lento.
Steve Jobs se vestiu de 1999 a 2010 a partir de um guarda roupa super reduzido. Todos os dias ele colocava calça jeans, tênis e camiseta preta. Ele criou um framework (um padrão), pois determinou quais variáveis eram relevantes e automatizou isso. Ele já sabia o que ia colocar, mas isso não significa que ele não pensava sobre. De fato existem pessoas que sistematizam o processo de escolha da roupa. Mas, observe que mesmo para o modelo de pensamento lento é possível fazer uso de abordagens e mecanismos para ganhar escala e agilizar a tomada de decisão.
A falta ou o excesso de informações são problemas que se relacionam aos processos decisórios. Estamos mais acostumados mentalmente a lidar com a falta de informação do que com o seu excesso. Já que intuitivamente conseguimos trabalhar muito bem formas de buscar informação sobre algo e fazer o juízo de relevância a partir de experiências passadas. Porém, quando temos informação demais, as abordagens são mais escassas e demandam métodos científicos.
IA e Analytics na busca pela relevância da informação
Uma das formas mais efetivas de trabalhar o excesso de informação é com o uso de técnicas estatísticas para criar amostragens e recortes de dados, simplificando as análises. Dessa forma é possível dar o contexto correto sem perder a possibilidade de identificar padrões.
Neste sentido, apontamos que ferramentas de inteligência artificial (IA) e Data Analytics podem ser usadas de forma estratégica para encontrar atalhos e obter impactos reais na vantagem competitiva ao negócio, seja na redução de riscos, aumento de faturamento e/ou ganho de market share.
Falar no uso de ferramentas de IA e Analytics é compreender que dispositivos eletrônicos são capazes de funcionar de maneira similar ao pensamento humano. A descoberta da relevância da informação também pode ser apoiada por Inteligência Artificial para gerar scores probabilísticos com base em séries históricas. Este apoio pode ser usado tanto para descobrir informações não disponíveis como em análises preditivas e, inclusive, para sintetizar a informação.
Isso implica perceber variáveis, tomar decisões e resolver problemas. Ou seja, operar em uma lógica que remete ao raciocínio, proporcionando a realização de atividades sem a interferência humana.
Conclusão – Tomada de decisão
Neste artigo falamos de modelos de pensamentos e formas de tomar decisões. Comparamos o crescimento do volume de informação e as limitações humanas de análise com a aplicação de artifícios científicos para ajudar na falta e/ou excesso de informações, até priorizações para o alcance de decisões ótimas e qualificadas.
Analisamos como é veloz atingir nossos limites físicos e biológicos como seres humanos ao consumir, processar e analisar a quantidade de informação que temos à nossa disposição a partir das novas tecnologias.
Vimos que a Inteligência Artificial é um dos principais recursos utilizados nos negócios para uma análise de dados mais precisa, útil e relevante. E recursos de computação avançados são aplicados para identificar padrões e testar cenários para reduzir riscos e aumentar as chances de acerto, qualificando a tomada de decisão. Além disso, também podemos perceber que com a aplicação de filtros adequados sobre os dados, o peso das impressões intuitivas e o esforço cognitivo são reduzidos.
Na prática, IA e Analytics colaboram com a qualidade de decisões durante o processamento de grande volume de informações com rapidez e assertividade, proporcionando a evolução do negócio na direção do incremento da maturidade analítica.
Independentemente do segmento de atuação, uma organização é uma fábrica de decisões. Em geral há muito por se fazer para qualificar o processo de tomada de decisões.
Engenheira de Negócios na Aquarela. Graduada em Sistemas de Informação pela Universidade Federal de Santa Catarina (UFSC), com experiência em projetos corporativos de Data Lakes, adoção e liderança de Escritório de Dados e definição de Arquitetura de Sistemas Analíticos e Transacionais. Atua como professora na área de Engenharia de Software e Advanced Analytics.
Fundador e Diretor Comercial da Aquarela, Mestre em Business Information Technology com especialização em logística – Universiteit Twente – Holanda. Escritor e palestrante na área de Ciência e Governança de Dados para indústria e serviços 4.0.