Em setembro de 2017 realizamos um curso em parceria com o SENAC/Palhoça de Introdução à cultura de dados. Neste evento, ao invés de utilizarmos dados sintéticos ou de problemas de outros países, optamos por trabalhar com dados das obras administradas pela gestão pública, com o propósito de ajudar no aprendizado dos alunos, mas também gerar valor à comunidade. Em nossa visão, integrar estudantes, profissionais, empresas e governo é uma prática que deveria ser disseminada no país.
Na sequência está o resumo deste trabalho realizado a pelo menos 40 mãos. Vale aqui também pontuar os seguintes apoios:
Time da fazenda estadual de Santa Catarina, responsável pelo portal da transparência, e a equipe responsável pela gestão do Sistema Integrado de Controle de Obras Públicas (SICOP), que prontamente nos atenderam para escolher, explicar e disponibilizar um conjunto de dados no formato adequado para as análises. Além disso, acompanharam os resultados iniciais e repassaram feedbacks essenciais para o amadurecimento do estudo.
Time da Wegov que ajudou a fazer a ponte entre a Aquarela e Fazenda ainda no ano passado (2016).
Nota: Este artigo foi publicado inicialmente no dia 16 de outubro de 2017, tendo sido revisado dia 26 de janeiro de 2018, após feedback enviado à Aquarela pela Fazenda/SC. A Fazenda pontuou alguns equívocos na apresentação dos dados que estavam elevando os valores de algumas agregações das obras. Este era o caso, por exemplo, da agregação dos dados por municípios, que inicialmente havia sido feita, mas foi substituída por uma nova tabela (Tabela 1) com o detalhamento no nível do Contrato, não do município – o mesmo contrato pode se referir a mais de um município. As análises de clusterização não foram alteradas, pois os padrões permanecem os mesmos, mas foram adicionados detalhes na interpretação dos clusters com base no feedback recebido. Assim, ressaltamos a importância de um governo transparente e agradecemos o retorno que tivemos da Fazenda do Estado de Santa Catarina.
Agora vamos para as análises!
Organização das análises
Objetivo
Utilizar técnicas avançadas de análise de dados para a descoberta de padrões de obras públicas do estado de Santa Catarina, tornando-as acessíveis à população em complemento ao portal da transparência do governo.
Perguntas chaves
Quais são os maiores contratos de obras públicas no estado de Santa Catarina?
Como são distribuídos os gastos por áreas (saúde, educação, transportes, etc) ao longo dos anos e entre os municípios?
Quais são as características mais comuns das obras no estado?
Os dados das obras estaduais
O conjunto de dados (dataset)escolhido foi disponibilizado pelo portal da transparência do governo de Santa Catarina neste link. Ao todo foram 6.663 registros de obras públicas estaduais desde 2005. Os dados brutos podem ser baixados na sequência deste relatório em formato .CSV.
Análise parte 1: gráfico interativo, tabelas e rankings
Para responder as duas primeiras perguntas-chave levantadas, a seguir mostramos o gráfico da latitude e longitude das obras realizadas no Estado de Santa Catarina nos últimos 5 anos, bem como tabelas que resumem e viabilizam filtros nos dados. No gráfico, escolha o ano que deseja analisar para atualizar o gráfico. As cores dos círculos representam as áreas das obras. Os tamanhos dos círculos são definidos pelo Valor Total da obra, que contempla a soma do valor original de contrato mais valores aditados no decorrer do projeto.
Vale ressaltar que a visualização a seguir não ocorre em tempo real, mas sim de forma estática, utilizando dataset cedido pela Fazenda do Estado de Santa Catarina atualizado para outubro de 2017.
Visualização por ano e por situação das obras nos últimos 5 anos (2012-2017)
Veja por exemplo, que no ano de 2014 (copa e eleições presidenciais) o Estado de Santa Catarina teve muito mais obras do que nos outros anos demonstrados no gráfico. Ou ainda, veja as obras que estão paralisadas (com referência em outubro de 2017), ano a ano, desde 2012. Os detalhes e motivos de cada uma dessas situações dependem de uma análise mais detalhada que contemple outros datasets e um olhar dos auditores e especialistas responsáveis.
Respostas às duas primeiras perguntas-chave
Primeiramente, ao realizarmos uma ordenação por valor das obras na Tabela 1 (agregada por contratos), conseguimos responder quais são as obras com maiores volumes de investimentos em obras públicas no estado de Santa Catarina. Na sequência, as descrições das cinco maiores obras:
Restauração e Reabilitação da Ponte Hercílio Luz – Florianópolis/SC – R$ 275 milhões – Ano 2014;
Ampliação da Capacidade da Rodovia SC-486 trecho: Antônio Heil (BR-101 – Brusque) – R$ 155 milhões – Ano 2014;
Implantação e pavimentação SC-108 trecho: Acesso norte de Blumenau – R$ 141 milhões – Ano 2014;
Centro de Eventos Balneário Camboriú – R$ 114 milhões – Ano 2014;
Pavimentação SC-477 – Volta Grande – Dr. Pedrinho / Moema (Volta Triste) – Inicio Variante – R$ 114 milhões – Ano 2014.
Acerca da segunda pergunta-chave levantada, sobre como são distribuídos os gastos públicos por áreas (saúde, educação, etc) ao longo dos anos, conseguimos obter a resposta realizando filtros no gráfico dinâmico e interativo apresentado anteriormente, mas também pela Tabela 2. Ao ordenarmos às obras por Valor Total e por áreas percebe-se que as 5 áreas com maiores gastos são: transporte rodoviário; educação; agricultura; justiça e cidadania e saúde. Já as 5 áreas que receberam menos investimentos nos últimos 5 anos foram (da menor para a maior): saneamento; meio ambiente e recursos hídricos; habitação; infraestrutura administrativa; e transporte aeroviário.
Análise parte 2: perfil das obras por clusterização com o VORTX
Para responder à quarta pergunta-chave, sobre as características mais comuns das obras do estado de SC, realizamos análises de inteligência artificial com o VORTX. O VORTX é uma ferramenta de clusterização da Aquarela, que encontra padrões nos dados. A partir daí identificamos pontos comuns nas obras de cada cluster.
a. Análise genérica de clusterização
Ao rodarmos o VORTX para todo o dataset foram encontrados 17 clusters, cuja distribuição geográfica pode ser visualizada no gráfico a seguir. Na parte esquerda do gráfico são identificados os clusters: os números representam a identificação de cada cluster e o tamanho dos círculos representa a proporção de itens que compõem determinado cluster em relação ao todo. Já na parte direita do gráfico as obras são apresentadas sobre o mapa de Santa Catarina. Os números em cima dos círculos, neste caso, representam a quantidade de obras naquela região. A presença dos clusters ao longo do estado é identificada no mapa, pelas cores.
Distribuição das dos grupos de obras do estado
b. Análise dos clusters mais distintos dos demais
O VORTX encontrou alguns clusters interessantes, como um cluster outlier (veja mais sobre o que é um outiler), que separou as obras da reforma da ponte Hercílio Luz das demais. Este cluster é identificado pelo número 16 na imagem a seguir. O valor total elevado e o alto número de dias de duração do projeto foram alguns dos fatores que levaram o algoritmo a segregar esta obra separadamente.
Foco em obras fora do padrão estadual.
Outro cluster interessante é o de número 7, que é um dos mais distintos dos demais, e é composto apenas por projetos paralisados, sendo todas elas classificadas como “Transporte Rodoviário”. São trabalhos, em média, longos (563 dias de tempo de contrato), mas acabam durando muito mais do que o previsto, pois ficam paralisadas por mais 653 dias, em média. Na figura a seguir é possível ver a distribuição geográfica destas obras ao longo do mapa de Santa Catarina.
Estatísticas sumarizadas por grupo e peso de influência das variáveis.
Resumo das características dos principais clusters
O algoritmo do VORTX realiza a clusterização mesmo sem conhecer de obras públicas. Ou seja, o modelo trabalha com Inteligência Artificial e modelos estatísticos e aprende quais projetos possuem características mais similares umas das outras. Porém, depois da definição dos clusters o analista de dados precisa fazer uma análise item por item para identificar medidas que possam ser tomadas.
Neste caso, para facilitar a compreensão resumimos alguns dos pontos principais sobre os clusters mais representativos das obras públicas do estado de Santa Catarina:
Cluster 1: composto apenas por obras de edificação para a área de educação, que já estão concluídas e que custaram em média R$ 1 milhão. São projetos com duração contratual média de 164 dias, com mais 100 dias médios de acréscimo e cerca de 6 dias de paralisação das obras.
Cluster 2: obras de transporte rodoviário que estão concluídas ou em andamento, com valor médio de R$ 8,6 milhões. A média de dias de contrato é de 326, com média de 80 dias aditados e paralisação de 46 dias.
Cluster 3: projetos de edificação de variadas áreas (educação, segurança pública, justiça e cidadania, transporte rodoviário e saúde), com valor total médio de R$ 2 milhões, concluídas ou em andamento. A duração de contrato é de 186 dias em média, com mais 163 dias de acréscimo e 13 dias de paralisação.
Cluster 4: composto predominantemente (90%) por contratos de edificação em praticamente todas as áreas, mas com predominância em agricultura e educação. O valor total médio é de R$ 6 milhões. A média de dias contratuais é de 200 dias, com acréscimo de 158 dias e paralisação de 45 dias. Um ponto que chama a atenção neste cluster é que existem alguns valores repetidos de aditivos negativos em diferentes obras. Um exemplo é o valor de R$ – 1.631.220,30, que se repete em obras de várias cidades. Este valor refere-se, de acordo com nota da Fazenda/SC repassada à Aquarela, ao valor de supressão referente ao atraso na entrega de matéria prima para o projeto, devido ao período de recesso de férias e ao longo período de chuvas do total do Contrato, que foi de R$ 6,78 milhões. Outro caso similar de obras do mesmo cluster foi de um contrato referente a construção de cisternas em vários municípios do Estado, no valor total de R$ 6,5 milhões, com R$ 1,6 milhões de aditivo negativo.
Cluster 5: cluster bastante composto por obras de diversas áreas, mas com predominância para defesa civil, educação e saúde. A maior parte está em andamento. São obras públicas menores, com valor médio de R$ 150 mil.
Cluster 6: contratos classificados como “projetos”, composto por obras pequenas – média de R$ 176 mil –, todas concluídas e pertencentes às áreas de Segurança Pública e Educação. Duração aproximada de 100 dias, com 33 dias aditados e apenas 3 dias médios de paralisação.
Cluster 7:cluster já comentado, composto totalmente por obras paralisadas na área de transporte rodoviário, com valor total médio de R$ 8 milhões por obra. São obras com duração original de contrato de 563 dias, mas que ficam em média 653 dias paralisadas.
Cluster 8: são contratos classificados como consultoria em transporte rodoviário, de obras em andamento ou concluídas. São valores bastante elevados: R$ 36 milhões em média. Os dias originais de contrato são 353 em média, com cerca de 129 dias aditados e 111 dias paralisados.
Conclusão
Nesta análise procuramos responder três perguntas que foram levantadas em curso da Aquarela junto ao SENAC/Palhoça. Diversas outras questões foram também elucidadas em um primeiro momento, mas para fins de delimitação reduzimos o número de perguntas-chave. Apresentamos gráficos e tabelas interativas e também resultados de análise com o VORTX.
As obras possuem divisões marcantes, visualizadas com forte distinção pelo algoritmo do VORTX. Um dos pontos mais interessantes é que todos os clusters são bem distribuídos ao longo do mapa de Santa Catarina. Ou seja, com exceção do projeto da ponte Hercílio Luz e de Florianópolis como um todo – que contém uma alta concentração de projetos –, não parece haver uma distinção regional entre os clusters.
Existe sim uma maior distinção em relação à área do projeto, status do contrato, e a outras variáveis numéricas, como: valor total do contrato, valor aditado, dias de contrato e dias paralisados.
Por fim, vale destacar que aqui apresentamos os dados e realizamos alguns insights. Porém, a partir deste ponto cabe uma análise mais detalhada sobre os aspectos levantados, que deve ser feita pelos especialistas no assunto em questão.
Doutor e Mestre em Finanças pela Universidade Federal de Santa Catarina – Brasil. Pesquisador em finanças / economia comportamental e mercado de capitais. Atualmente Data Scientist aplicando estratégias de aprendizado de máquina em problemas de negócios de grandes organizações no Brasil e no exterior.
Fundador e Diretor Comercial da Aquarela, Mestre em Business Information Technology com especialização em logística – Universiteit Twente – Holanda. Escritor e palestrante na área de Ciência e Governança de Dados para indústria e serviços 4.0.
Nos últimos meses nós da Aquarela estivemos trabalhando pesado em uma série de projetos dentro e fora da empresa, como por exemplo, no desenvolvimento de novos cursos de capacitação, na finalização de projetos em clientes públicos/privados e até em participações voluntárias de apoio a projetos de Data Analytics como já relatei em nosso último artigo OPERAÇÃO SERENATA DE AMOR CAPÍTULO FLORIANÓPOLIS.
Este artigo é um resumo dessas atividades aos curiosos leitores interessados no desenvolvimento da Aquarela no vasto tema de Data Analytics em nosso país.
1 – Capacitação e Palestras em Data Analytics
Depois de analisar o mercado nacional de TI, participar de dezenas de reuniões e verificar artigos como este “The rise of autonomous data platforms” que revela que menos de 4% dos projetos de Data Analytics têm sucesso. Assim chegamos a duas conclusões importantes:
Conceitos bem formados, simplificados e incorporados à cultura das empresas podem reduzir o tempo, o custo e os riscos de projetos de Data Analytics. Como resultado, há uma elevação no nível de maturidade da gestão de dados.
A fase de limpeza e organização dos dados é a parte mais trabalhosa e importante do processo de análise, porém tem o menor valor percebido pela gestão. Felizmente existem diversas plataformas gratuitas e maduras para essa atividade (vide: Saindo do limitado Excel para R ou Python).
Recentemente lançamos o curso “Introdução à Cultura de Dados com Inteligência Artificial” com um foco bastante introdutório e didático (mão na massa) para técnicos e gestores, com o objetivo de ajudá-los a estruturar e comunicar a estratégia de dados de acordo com seus níveis de maturidade de gestão de dados, tecnologias e modelos de negócio.
No vídeo gravado ao vivo compartilhado via Facebook, meu sócio, Marcos Santos apresenta os fundamentos da DCIM (Data Culture Introduction Methodology) que é uma metodologia que criamos para dar foco e robustez nos projetos de Data Analytics.
2 – Aprimoramento da plataforma Aquarela VORTX Big Data Analytics
Antes de falar dos recentes aprimoramentos da plataforma VORTX, gostaria de fazer alguns esclarecimentos importantes baseado nas perguntas mais frequentes que recebemos, tais como:
De qual país é a plataforma VORTX? A Aquarela é a representante oficial do VORTX no Brasil?
Aquarela é a criadora do VORTX, plataforma que foi concebida totalmente em inglês visando o mercado internacional. Futuramente teremos ela disponibilizada em outros idiomas. Entendemos o estigma que existe em relação às ferramentas e tecnologias nacionais quase inexistentes a nível global, mas preferimos seguir a linha de pensamento e trabalho do querido Gustavo Kuerten aqui de Florianópolis. Assim, a Aquarela está se consolidando como referência e uma das poucas empresas (no Brasil e no mundo) que desenvolvem seus próprios algoritmos de base para uso geral na área de inteligência artificial. Parece um pouco complicado de entender, mas na verdade é mesmo. De maneira bem sucinta, grande parte das empresas de analytics atua na área de criação de modelos (planilhas) ou captura de dados e utilizam algoritmos open source disponibilizados em diversas plataformas de processamento como comentado no artigo anterior falando do termo “Repacking”.
Os algoritmos do VORTX são baseados em quais algoritmos?
Com os resultados de nossos testes em algoritmos open source, ainda na época das pesquisas de mestrado em 2008, verificamos uma grande incompatibilidade destes códigos abertos em relação aos problemas reais das empresas. Assim sendo, muito poucas empresas aplicam ou publicam de fato decisões tomadas a partir destes algoritmos. Quem chega de alguma forma a bons resultados de Analytics, por regra, não conta o segredo.
Nossa decisão foi então criar novos algoritmos do zero, baseados em paradigmas de Inteligência Artificial, ao invés de se basear em artefatos pré-fabricados. Também optamos por utilizar uma linguagem robusta e de alto desempenho chamada Scala que, uma vez compilada, roda na já consolidada infraestrutura do mundo Java, isso nos possibilitou ultrapassar barreiras técnicas impostas pelas limitações do paradigma de orientação a objetos que gera dois problemas importantes: i) o excesso verbosidade (burocracia na programação); e ii) a limitação de escalabilidade para processos paralelos e distribuídos (Não queria ser tão técnico, mas não tive como).
Quais paradigmas são utilizados pelo VORTX?
A plataforma usa técnicas de Swarm Intelligence, Ensemble Learning, Genetic Algorithms e IA Simbólica (falamos delas aqui), as quais permitem que um usuário com pouco ou nenhum conhecimento de Advanced Analytics consiga fazer análises avançadas de dados sem apertar muitos botões, aliás sem apertar mais do que 1 botão, chegando a resultados consistentes. Dentre os problemas que nossa plataforma resolve, estão:
Clustering – para descobrir registros gêmeos para chegar à uma segmentação ótima de mercado.
Scenario Discovering – Descobrir fatores que levam a determinados comportamentos do mercado e os caminhos que levam a determinados desfechos como a falta em um agendamento médico ou o surgimento de uma doênça como o câncer.
Datascoping – Visualização dinâmica com até mais de 400 variáveis dentro de um plano cartesiano (duas dimensões).
Prediction – Prever acontecimentos (em fase de experimentos laboratoriais)
Prescription – Sugerir ações administrativas autônomas a partir das ponderações dos dados (um conselheiro digital) (em fase de experimentos laboratoriais).
Deteção automática de outliers sistêmicos – registros que fogem da normalidade ponderando a combinação de todas suas características. Escrevemos neste link o que é um outlier.
Feedback da qualidade do dado de entrada no algoritmo, informar o usuário sobre a qualidade ou índice de previsibilidade de cada variável ajuda muito a não perder tempo com dados não relevantes.
A combinação destas técnicas permitem que a própria plataforma escolha a melhor abordagem ou algoritmo para cada análise de forma automática, bem como seus parâmetros. Essa inovações vão ao encontro da visão do senhor Thomas Davenport que relata sobre quão artesanal ainda são as análises de dados atualmente e a tendência de novos paradigmas para automação destes processos (Move Your Analytics Operation from Artisanal to Autonomous).
Vocês estão dizendo que possuem uma tecnologia que a Amazon, IBM e outras grandes não têm?
Sim, isso mesmo. Como já trabalhamos em empresas desse porte tanto eu como o Marcos, vemos que hoje grande parte destas empresas software ocupam grande parte do tempo em manutenção de processos ou fazendo pesquisas voltadas para o registro de patentes que são visões de longo prazo. As inovações de fato, hoje estão sendo bancadas pela coragem dos empreendedores mundo a fora (movimento startup). Quando uma solução sobrevive e emerge no mercado, os grandes preferem comprar ela pronta, mesmo pagando uma boa nota, acaba saindo mais barato no final.
Melhorias da plataforma
Das melhorias da plataforma em si, seguem algumas novidades importantes:
A partir de agora o VORTX permite que os conjuntos de dados (dataset) possam conter dados categóricos (campos de texto) e numéricos (escalares). Anteriormente o trabalho de transformação de dados era muito maior para gerar planilhas somente numéricas.
Integração do motor de inferência VORTX em sistemas parceiros, ou seja, já pode ser encapsulado a outras ferramentas para gerar produtos mais competitivos via API.
Aumento da velocidade de processamento com a otimização dos recursos em nuvem. Anteriormente um dataset que levava de 15 de a 24 horas para ser processado agora, o mesmo dataset está levando aproximadamente 30 minutos.
Processamento de dados georreferenciados com a criação automática de mapas.
Disponibilização do algoritmo Classifier que recebe novos registros do cliente e retorna automaticamente os cenários no qual o registro pertence.
Protótipo testado e validado aplicação da IA VORTX em redes sociais. Em breve mais informações.
Crescimento da equipe e definição da nova sede em processo.
Novos modelos de negócio de negócio sendo criados e validados.
NewsLetter implementada: Assine aqui e fique por dentro das novidades!
Diversas palestras pelo Brasil.
Bom pessoal, obrigado pelo apoio de sempre em nosso trabalho. É um trabalho de formiga, mas acreditamos muito nele. Além disso, como foi exposto, são muitas as oportunidades sendo tratadas, cada uma ao seu tempo, para trazer inovações impactantes em nosso país. Um forte abraço e até o próximo artigo!
Fundador e Diretor Comercial da Aquarela, Mestre em Business Information Technology com especialização em logística – Universiteit Twente – Holanda. Escritor e palestrante na área de Ciência e Governança de Dados para indústria e serviços 4.0.
Amanhã, dia 28 de abril de 2017, ao invés de greve (não necessariamente contra ou a favor dela), 70 cientistas de dados, matemáticos, estatísticos, jornalistas, programadores e outros talentos estarão reunidos de forma voluntária até sábado a noite minerando dados governamentais para a redução imediata de desvios indevidos do dinheiro público federal que poderiam certamente melhorar escolas, hospitais e também garantir a aposentadoria de muita gente vem perdendo esse direito por simples má gestão dos recursos nacionais.
Fundador e Diretor Comercial da Aquarela, Mestre em Business Information Technology com especialização em logística – Universiteit Twente – Holanda. Escritor e palestrante na área de Ciência e Governança de Dados para indústria e serviços 4.0.
Em nossa publicação – Otimizando a gestão de pessoas com advanced analytics – apresentamos uma visão macro de como é possível identificar padrões robustos do comportamento de colaboradores de forma automática utilizando Inteligência Artificial (IA). E agora, vamos aprofundar a análise aplicando a mesma estratégia de decodificação, dos dados isolando os indivíduos por departamento para responder a seguinte pergunta:
Quais fatores mais influenciam a satisfação profissional nos 10 diferentes departamentos de uma empresa?
Os dados utilizados nessa análise foram disponibilizados na plataforma Kaggle – uma rede colaborativa para projetos de data Science. O dataset apresenta informações de uma empresa Canadense, portanto os resultados são diferentes da realidade brasileira, mas mesmo assim podemos traçar um padrão nas informações encontradas, percebendo como é o comportamento dos colaboradores dentro da realidade Canadense.
Análise
Tipicamente, os processos de análise de dados multivariados (com diversas variáveis) são complexos, isso por que a possibilidade de combinações entre as variáveis se torna extraordinariamente grande. Quem nunca se perguntou sobre a influência do salário no desempenho ou satisfação dos profissionais e ficou sem resposta por pensar em várias outras coisas relacionadas?
Durante o processo de confecção da análise, sempre recomendamos fazer cruzamento simples entre os fatores para tentar inferir a olho nu se existe alguma tendência, pois a visão/cognição humana é uma máquina de detecção de padrões.
Na figura abaixo cruzamos as médias de satisfação de cada setor.
Vemos que existem dois grupos de satisfação, mas a diferença é muito baixa e é quase impossível tomar qualquer decisão sobre esses resultados por dois motivos.
Não há uma ligação direta entre os resultados e otimização da performance da empresa, pois as atividades de cada departamento são muito diferentes.
Não é possível identificar ou inferir os motivos dessa desigualdade neste nível de visualização.
Abaixo fizemos mais um cruzamento, agora os níveis de satisfação foram separados por departamento em relação às faixas salariais (visão ainda macro).
Nesta visualização, temos mais algumas pistas sobre os fenômenos de satisfação. Por exemplo, os pesquisadores no P&D e a turma da Produção estão aparentemente satisfeitos com salários mais baixos e os Contadores e TI não tornam-se mais felizes com o aumento da faixa. Por outro lado, Recursos Humanos, Suporte e Vendas valorizam mais a questão salarial. Todas essas hipóteses ainda são bastante genéricas, porém já nos guiam em direção de saber quais fatores que levam a esses resultados.
Ranking de fatores por departamento
Utilizando a plataforma de inteligência artificial VORTX chegamos aos seguintes resultados de ranqueamento de fatores:
Estes departamentos tem em comum a grande influência da satisfação na continuidade da empresa.
Agrupamos todos os departamentos em que a variação na satisfação motivaram uma alta variação na decisão de sair ou permanecer na empresa. Para não ficar muito longa a análise, escolhemos apenas Marketing para mostrar o que o algoritmo encontrou por baixo deste ranking.
Ao todo, foram dois grupos com as seguintes diferenças:
Profissionais de Marketing com baixa satisfação. Cor escura = horas trabalhadas por mês em escala de 100-310), cor clara = notas recebidas na última avaliação em escala de 0-10).Profissionais de Marketing com boa satisfação. Cor escura = horas trabalhadas por mês em escala de 100-310), cor clara = notas recebidas na última avaliação em escala de 0-10.
A seguir são apresentados os demais departamentos:
Conclusões e recomendações
Acreditamos que a Inteligência Artificial pode gerar ambientes melhores de trabalho, com pessoas mais felizes e produtivas, fazendo aquilo que são mais aptas a fazer. Nossa pesquisa buscou insights sobre o que move as pessoas em cada departamento e chegamos nas seguintes conclusões:
O nível de satisfação é possivelmente o principal fator de saída dos profissionais de Administração, Contabilidade, Marketing e Recurso Humanos. Necessitando novas rodadas de processamento omitindo a variável: “deixou a empresa”.
A equipe de P&D, Suporte e a área Técnica apresentaram grande sensibilidade a nota da última avaliação feita pelos seus superiores.
A equipe Técnica e de TI têm sua satisfação bastante atrelada ao tempo de empresa, abrindo a possibilidade de um novo estudo para buscar a causalidade desta relação. Ex. se a satisfação aumenta o tempo na empresa ou ao contrário.
A equipe de Suporte não tende a deixar a empresa por motivos de satisfação profissional.
O Departamento de TI é o mais sensível às promoções de carreira.
Marketing e Produção apresentam sensibilidade em relação as horas trabalhadas e a nota de feedback dos superiores.
Vendas tem sensibilidade ao tempo de empresa e faixa salarial não importando a quantidade de horas trabalhadas, nem mesmo o número de projetos ou a nota da avaliação.
Como recomendação, vale lembrar que estes dados representam a realidade de uma empresa canadense. Novas pesquisas devem ser executadas em setores específicos no Brasil coletando estas e outras variáveis que possivelmente possam trazer insights ainda mais profundos dos comportamentos encontrados.
Fundador e Diretor Comercial da Aquarela, Mestre em Business Information Technology com especialização em logística – Universiteit Twente – Holanda. Escritor e palestrante na área de Ciência e Governança de Dados para indústria e serviços 4.0.
Fundador da Aquarela, CEO e arquiteto da plataforma VORTX. Mestre em Engenharia e Gestão do Conhecimento, entusiasta de novas tecnologias, tendo expertise em linguagem funcional Scala e em algoritmos de Machine Learning e IA.
Neste post mostramos mais um caso de estudo utilizando a Inteligência Artificial VORTX com dados reais. Aqui demonstramos como a abordagem de descoberta de cenários pode ajudar a tomada de decisão de forma profunda em vários setores. Para conhecer algumas áreas com grande potencial de aplicação, veja este artigo com 14 áreas sugeridas. Nesta análise em específico levamos em consideração perguntas típicas de gestores:
Quais os fatores que mais impactam no meu resultado?
Qual configuração ideal dos fatores (das variáveis) para se atingir o cenário com melhor desempenho?
Neste caso selecionamos 65 índices nacionais de 188 países para descobrir quais deles tem maior peso em relação ao Índice de Desenvolvimento Humano e quais cenários são criados pelas máquina. Para validar a precisão do algoritmo, plotamos no mapa os países de acordo com seu cenário.
As perguntas-chave desta análise:
Quantos cenários de Índice de Desenvolvimento Humano existem no mundo e em quais cenários os países estão alocados?
Entre os 65 índices, quais deles têm maior influência na variação do IDH?
O que é o DNA de um cenário e como eles são utilizados para análise?
Bom, antes de ver os resultados, vejam todas variáveis analisadas abaixo. Então, tente descobrir intuitivamente quais seriam as repostas para pergunta 2. Esta é uma tarefa muito importante para a validação cenários. OK?