Geografia é uma área de conhecimento que estuda a Terra e sua ocupação pelo homem. Os campos de estudo variam em geografia física (relevo, clima, vegetação, etc) e análise de relacionamento (população e ambientes que ocupam).
Dentro da Geografia existe a cartografia, que é uma ciência para representação gráfica da superfície terrestre, tendo como finalidade a criação de mapas para diversos objetivos. Ou seja, procura produzir, difundir, utilizar e estudar os mapas utilizando símbolos, cores, linhas, hachuras, entre outros tipos de representações. Isso tudo é muito importante para entendermos o ambiente em que vivemos.
E a Inteligência Artificial?
Hoje, vivemos uma cartografia digital interconectada, para um âmbito mais minucioso e urbano, que permite localizar os estabelecimentos mais próximos (com telefone e horário de funcionamento) e ainda por cima saber qual a melhor rota para se chegar lá, seja a pé, ônibus ou carro (pelo Waze e Google Maps). Tudo em segundos, agilizando a vida.
Isso é a Inteligência Geográfica baseada em dados, e estes são passíveis de aplicação de Inteligência Artificial (Advanced Analytics, termo sucessor do Big Data).
A Inteligência Geográfica é um termo utilizado pelas empresas para basear suas tomadas de decisões de uma perspectiva que envolve coordenadas geográficas. Portanto, estas variáveis são tão importantes para decisões quanto a perspectiva de tempo (minutos, horas, dias), pois normalmente projetos são pautados em algum lugar e em algum tempo.
Hoje, tornou-se difícil imaginar alguma informação do dia a dia sem algum componente geográfico.
A Inteligência Geográfica pode revelar padrões e aspectos fundamentais do comportamento do negócio de modo muito mais rápido e intuitivo do que qualquer texto, ou seja, uma imagem pode valer mais do que mil palavras.
Análises georreferenciadas nos negócios
Existem várias maneiras de se introduzir as análises geográficas no campo profissional. Uma delas, é o uso de softwares de BI (Business Intelligence) que tenham essa solução embutida e de fácil usabilidade, permitindo que os usuários visualizem o negócio de forma sistêmica, sem nenhuma linha de código e com diversos níveis de audiência e filtros (vale a leitura de nosso artigo sobre as diferenças entre BI, data mining e big data).
Em resumo uma plataforma de BI com funcionalidades de geo-referência, bem customizada e com os dados coletados de forma adequada vão permitir descobrir:
Onde estão os principais clientes?
Onde atua a concorrência com mais ou menos intensidade?
Qual a rentabilidade e resultado das campanhas de marketing por região?
Qual o potencial de mercado ou de fraudes de determinada região?
Limitações dos sistemas de BIs
Com as soluções de BI já é possível criar valor ao negócio em muito pouco tempo, porém há momentos em que os analistas de dados e gestores chegam ao que chamamos de “Stress do Modelo”.
O ponto de stress é uma situação típica que acontece quando são feitas centenas de combinações manuais de variáveis durante dias – e até meses – e não surgem novos insights relevantes. Como resultado, pode haver frustração sobre o investimento em análise de dados e às vezes até questiona-se a qualidade do analista de BI, o que raramente é o caso.
Quando a conta não fecha?
A equação não fecha quando as possibilidades de análise (potencial combinatório) crescem muito mais rápido do que a capacidade dos analistas de testar as hipóteses que crescem exponencialmente.
No gráfico abaixo, demonstramos esse padrão que inicialmente é dominado pela grande área de curiosidade (quadrante 1) que vai se reduzindo ao longo do tempo com os investimentos em análise de dados e ferramentas. Com o tempo, novos dados são gerados e incorporados nas análises fazendo com que se multiplique as oportunidades de cruzamento dos mesmos.
Agora, se introduzirmos a variável gênero “Masculino e Feminino” no conjunto de dados, podemos dobrar os tipos de análise e se introduzirmos mais 30 bairros e 200 tipos de profissão, há uma explosão combinatória analítica.
Este espaço entre a capacidade de análise e a complexidade dos dados (quadrante 2) é onde há muita frustração e um desconforto generalizado, por que é difícil apontar de forma precisa um culpado pelos ausência de novos insights.
As empresas estão buscando nas tecnologias de inteligência artificial uma forma de mitigação drástica da complexidade de análise. Uma das principais barreiras para rápida adoção de IA nos processos de transformação digital é a falta de uma cultura de dados, algo que é anterior às ferramentas.
O quadrante 3 representa o espaço do senso comum ou do conhecimento já incorporando pela organização em seus processos de gestão do conhecimento.
Guia de introdução à cultura analítica
Para ajuda-lo a quebrar essas barreiras no processo de adoção da cultura de dados, nós desenvolvemos um ebook que descreve as etapas e desafios na implementação do Data Analytics, baixe agora e descubra como sair na frente nesta que já é considerada a quarta grande revolução tecnológica!
Inteligência Artificial aplicada em dados geográficos.
O mercado de Inteligência Artificial está em franca expansão. No que tange às estratégias de negócio baseadas em geografia, existem alguns fatores propulsores desse movimento:
maior abundância de dados;
sistemas de informação cada vez mais integrados;
geolocalização democratizada pelos dispositivos móveis;
custo de computação cada vez menor.
O valor das soluções de Inteligência Artificial está no fato delas serem uma espécie de “turbo” que pode ser adaptado aos sistemas tradicionais de BI, e/ou um tipo de “prótese cognitiva” para os analistas de dados. Permitindo que descubram padrões relevantes em menos tempo e também evitem navegar infinitamente em lugares virtuais (combinações de variáveis) que não fazem sentido pro negócio e despendem recursos.
Nos links abaixo demonstramos na prática dois casos de estudo de aplicação da inteligência artificial geográfica:
Exemplo da Secretaria da Fazenda de Santa Catarina
Para exemplificar melhor como é utilizado a Inteligência Geográfica dentro do VORTX, elaboramos uma pesquisa com os dados financeiros de todas as obras executadas pelo estado de Santa Catarina a partir do ano de 2006. Essa pesquisa está neste link – Inteligência Artificial aplicada as obras de Santa Catarina.
Abaixo segue uma prévia e logo na primeira imagem temos uma visão geral do estado de Santa Catarina, como também as proporções dos tipos de obras executadas nos últimos 5 anos. Assim, conseguimos ver que no lado esquerdo existem grupos que vão de 1 até 17, representando tipos diferentes de obras.
Quem descobre os tipos das obras e as proporções?
As descobertas não são feitas por pessoas, mas sim por máquina – por várias máquinas, para ser mais específico. A tecnologia da Aquarela consegue fazer com que os dados geográficos e das obras sejam sintetizados correlacionando e levando em consideração todos os pesos de todas as células da uma planilha com mais de 6.000 linhas e com mais de 20 colunas, o que logicamente seria um trabalho quase que humanamente impossível.
Como ficam as visualizações?
Todas as obras que fazem parte do mesmo grupo podem ser chamadas de obras gêmeas. Assim, torna-se fácil descobrir quais tipos de empreendimentos correspondem a 80% dos investimentos do estado, onde estão distribuídas e também encontrar casos discrepantes/outliers (mais informações sobre eles neste post – O que são outliers).
Aproximando um pouco mais o mapa, conseguimos ter uma visão das proporções de cidade e não região, dependendo do quão preciso é a pesquisa geográfica, isso pode ser uma arma muito importante nas futuras decisões e políticas públicas.
Na terceira imagem aproximamos um pouco mais da região de Florianópolis (onde se encontra a Aquarela), conseguimos ter uma visão mais detalhada, conseguindo pegar regiões de uma cidade e não de um estado, vendo quais semelhanças são mais fortes.
Onde estão os detalhes de cada um dos tipos de obras?
Para entender o comportamento de cada um dos grupos de modo a poder dar nomes a eles. A ferramenta traz sumários estatísticos e visualizações multifacetas como estas abaixo do grupo 5, que são obras com custo total em torno de 60 a 70 milhões de reais e uma média de 121 dias de paralisação, dentre outros valores.
Conclusões
Negócios baseados em estratégias geográficas apresentam um grande potencial de mercado, sobre tudo com a necessidade de transformação digital da indústria.
Devido as diferenças entre as projeções da complexidade dos dados e a capacidade de execução do time de BI ao longo do tempo, há falsas expectativas que devem ser contornadas e tratadas pelo time de gestão.
Profissionais experientes nestas área são escassos. Portanto, recomendamos cuidar bem dos especialistas de BI. O trabalho destes(as) profissionais chega a ser heroico (carregando, transformando, processando e limpando dados) para gerar visualizações relevantes e, as vezes, isso não é possível sem a ajuda de ferramentas de IA na área de Machine Learning.
O nível de maturidade de dados conta muito para que ferramentas de Inteligência Artificial possam ser utilizadas na prática. Por exemplo, os dados disponibilizados pela Secretaria da Fazenda de Santa Catarina, além de estarem completos e organizados, ainda continham todas as coordenadas geográficas de cada uma das obras. Esse nível de qualidade dos dados infelizmente ainda é algo incomum em nosso país.
Fique por dentro
Para receber mais posts sobre Inteligência Artificial é só assinar nossa Newsletter aqui.
Conheça também
VORTX – GEO-Marketing de expansão – Módulo da plataforma especialmente desenvolvido para análises geográficas de alto impacto e grande precisão.
Fundador e Diretor Comercial da Aquarela, Mestre em Business Information Technology com especialização em logística – Universiteit Twente – Holanda. Escritor e palestrante na área de Ciência e Governança de Dados para indústria e serviços 4.0.
Como prometido, segue aqui nossas impressões sobre o processo de contratação de cientista de dados na Aquarela. Por que estamos fazendo isso? Porque sabemos o quão frustrante é não ter um retorno de nossas informações, ou pelo menos um feedback da submissão. Já vivemos muito disso em editais e na época de bolsas de estudo.
Este artigo é, sobretudo, para aqueles que nos confidenciaram suas informações da vida profissional em nosso processo de seleção 07 – 2017. Ainda, sendo bem transparentes, fomos surpreendidos com a quantidade de currículos enviados e isso nos causou um atraso considerável no processo. Queríamos garantir que todas as informações fossem analisadas e respondidos adequadamente. Nosso trabalho é analisar!
Principais percepções
Para vagas mais definidas, como para Back-end e Front-end, houveram candidatos com perfis muito similares, já para analista de dados, foi bem difícil encontrar parecidos pois é de fato algo ainda sem uma formação específica. Isso fez com que a tarefa de análise fosse ainda mais complexa.
Muitas vezes, o currículo que chega na nossa mão não expressa detalhadamente a vida profissional, acadêmica ou social do candidato. Assim, os perfis que mais nos chamaram a atenção foram aqueles que apresentaram claramente experiência nas tecnologias citadas e com publicações de estudos de caso reais. Também, alguns transformaram o próprio CV em um dashboard de habilidades (muito interessante).
Há uma grande tendência na migração de carreira para Data Science, mais de 85% dos candidatos se mostram dispostos a fazer este processo de troca de áreas técnicas e negócios para esse campo.
Nestes últimos anos trabalhando diretamente com Data Science, vemos que os perfis dos analistas advindos do quadrante de negócio apresentam uma curva menor para atingir o planalto de produtividade (plateau de produtividade) nas análise de dados em relação aos perfis do quadrante técnico, possivelmente pela prática de atividades de comunicação, redação de textos e apresentação de resultados e pelo salto na usabilidade das ferramentas de Analytics nos últimos meses.
Não foi possível (pelo menos ainda) afirmar algo consistente sobre uma formação (diploma) ideal para análise de dados, tivemos pessoas excelentes da engenharia, física, administração, estatística, etc. O que é mais aparente, usando uma metáfora, é que o os perfis mais desenvolvedores criam a guitarra e os perfis mais de negócio e de Data Science, tocam a guitarra e ainda cantam. Existem músicos que fazem a própria guitarra a própria músicas, mas são raros.
O inglês é um dos conhecimentos menos comuns dos candidatos, o mesmo continua sendo um diferencial. Data Science é um dos processos mais intensivos de comunicação na atualidade, sobre tudo na tangibilidade de conceitos abstratos, o inglês é necessário em todos os aspectos e um ponto chave no processo de autodidatismo.
Alguns perfis se adaptam bem à vaga de análise de dados, mas não ao perfil de empresa startup (ver na continuação).
Perfil das Startups
Além dos conhecimentos básicos profissionais já amplamente conhecidos, vale a pena um parecer sobre as diferenças dos ambientes de trabalho corporativos e das startups.
Carreiras em startup não se encaixam em modelos acadêmicos e nem corporativos, havendo dificuldade até de atribuir cargos nas mesmas. Pois, as coisas acontecem de forma tão dinâmica que as funções ficam mais amarradas as tarefas definidas para semana do que algo planejado, sequencia em estruturas.
Risco da distância geográfica. O alto grau de complexidade do trabalho e dinâmicas com dados ainda exige (pelo menos para nós) muito a interação presencial já que grande parte do conhecimento está sendo desenvolvido internamente.
Para uma startup cada novo membro representa muito para o todo do grupo, se de um lado em grandes organizações alguns profissionais se sentem apenas um número, em startups eles se tornam praticamente membros da família. Por isso levamos tão a sério esse processo aqui.
Startups são times de vôlei de praia. Se necessário é preciso sacar, bloquear, se jogar na areia, pegar sol e chuva e como os recursos nem sempre são abundantes às vezes podem parecer até futevôlei que é a expressão máxima da habilidade dos jogadores se virando com o que tem. Quem o faz, é por pura paixão. Isso pode causar muitas e severas quebras de expectativas, além da insatisfação laboral. O quanto isso é importante pode ser percebido nesta análise, por meio de Data Analytics, de otimização de gestão de pessoas.
Startups, antes da tecnologia, são essencialmente empresas gestoras de conhecimento, só que de forma muito mais dinâmica e fragmentada do que ambientes de grande porte. No caso da Aquarela, estamos trabalhando na fronteira de processos de engenharia e machine learning no país e esse padrão de necessidade de gestão do conhecimento se repete continuamente. Neste artigo aqui escrevemos como funcionam os diferentes níveis de gerenciamento de dados até à sabedoria organizacional e o diferencial competitivo.
Recomendações
Dando um sul para aqueles que querem atuar como analistas de dados, seguem algumas sugestões de atividades:
Busque dados (datasets) públicos para gerar análises, preferencialmente com informações do nosso país para aprender e a ensinar.
Foque em conceitos mais do que em ferramentas, ferramentas mudam muito rápido, conceitos ficam com vocês.
Invista no inglês para que ele se torne seu amigo no longo prazo.
Refine sua redação e gramática, tanto em português como em inglês voltado a descrição de gráficos, tendências e possíveis interpretações.
Uma forma de facilitar o aprendizado é participando das comunidades de ciência de dados. Por exemplo Data Science Floripa.
Aprimore seus conhecimentos em R, Python ou Scala. Aqui um post falando sobre R e Python.
Defina uma área dentro de ciência de dados para produzir os cases, aqui no blog já escrevemos com algumas sugestões.
Estude seriamente o Linux, por quê? porque ele é muito legal e útil, nós usamos o Ubuntu e CentOS.
Procure estar próximo, fisicamente, dos ambientes das empresas de análise, por mais virtual que seja o mundo a conversa olho no olho ainda faz e fara toda a diferença.
Busque formas de comprovar seu perfil autodidata, transforme seu CV em um dashboard criativo usando técnicas de visualização.
Caso tiver um perfil apenas acadêmico ou apenas empresarial, sugerimos mesclar, só acadêmico ou só empresarial são perfis mais fracos.
Utilizar o processo de ensino para fixar conceitos e práticas com as ferramentas, conseguir expressão o conhecimento em linguagem clara e didática é fundamental. Tornar as coisas simples é o trabalho de todos os cientistas.
O nosso muito obrigado
Foi muito difícil fazer uma escolha com tantos candidatos ninjas e dispostos a crescer conosco. Encaramos este processo não somente como um preenchimento de uma vaga, mas um primeiro contato (em muitos casos) com pessoas de diversas partes do Brasil. A vontade era de poder admitir mais umas quinze pessoas pelo menos nesta onda de contratação, contudo, encaminhamos diversos currículos para nossos parceiros e alguns até já estão sendo empregados. Sim, queremos todos trabalhando e gerando riquezas para esse país!
Caso alguém não tenha sido contactado, por gentileza entre em contato conosco (pelo email daniela.zanesco@aquare.la ou redes sociais).
Desejamos manter contato com as pessoas, abertos para direcioná-las para um caminho de desenvolvimento pessoal e profissional, bem como potencializar os indivíduos que entraram para o nosso time.
Saudações do time de Gestão de Talentos da Aquarela!
Fundador e Diretor Comercial da Aquarela, Mestre em Business Information Technology com especialização em logística – Universiteit Twente – Holanda. Escritor e palestrante na área de Ciência e Governança de Dados para indústria e serviços 4.0.
People Manager na Aquarela Advanced Analytics. Graduada em Psicologia e entusiasta em novas tecnologias e como elas podem oferecer qualidade de vida para as pessoas.
Hoje 1º de maio, termino de compilar as informações geradas na operação Serenata de Amor – Capítulo Floripa, evento que iniciou na sexta-feira, dia 28 de abril de 2017. Neste artigo, descrevo minhas observações pessoais, fotos e vídeos sobre o evento/projeto como um todo, para que outros sintam-se motivados a meter a mão na massa também. Há tantas formas possíveis de contribuir.
Abaixo estão as informações da raiz do projeto Serenata!
Para que eventos como este aconteçam na sua cidade, sugiro:
Ter pelo menos um líder de projeto com profundo conhecimento da arquitetura do projeto. (Aqui tivemos apoio do pessoal da WEGOV subsidiando a vinda da Jessika Temporal de São Paulo).
Ter pelo menos um líder de infraestrutura do ambiente físico (gestor comunitário).
Ter um espaço físico que permita abstrair o mundo externo e que tenha todas as condições para o bem-estar dos participantes (temperatura, internet, alimentação e etc), mais ou menos como um ambiente de shopping.
Ter participantes altamente engajados pela causa e dispostos a contribuir com o repasse de seu conhecimento de forma não hierárquica e com bastante humildade para aprender conceitos de outras áreas e reconhecer erros.
Ter participantes curiosos e com um senso crítico ponderado, ou seja, que tenham a capacidade de fazer julgamentos sobre dados levando em consideração fatores que às vezes podem influenciar completamente as validações de hipóteses de pesquisa e até gerar injustiças.
Não ter preconceito com o idioma inglês, pois a maioria das ferramentas criadas na área de análise de dados (computação em geral) são em inglês, incluindo o próprio repositório do projeto que utiliza esta língua franca que permite que estrangeiros possam colaborar.
Dia 1 – Sexta-feira dia 28 de abril
Contávamos com aproximadamente 70 pessoas registradas, porém, muitas ficaram impossibilitadas de interagir fisicamente com o grupo devido aos protestos e paralisações aleatórias na cidade. Alguns me perguntaram se sou a favor ou contra a tudo isso. Respondo brevemente para não fugir do tema:
Ter o direito de protestar ou não é um direito fundamental e deve ser exercido sempre como ato de cidadania, já destruir ou pichar qualquer patrimônio público ou privado, principalmente de pequenos empreendimentos, nunca.
O capítulo do Serenata de Amor em Floripa (Sprint – Floripa) é apenas uma de milhares de formas de protesto. Se não tivéssemos problemas com as contas públicas do país, os voluntários nem precisariam estar envolvidos. Simples assim!
Com relação ao evento, fomos muito bem recebidos pela empresa Resultados Digitais, que por sua vez, ofereceu a infraestrutura necessária para os trabalhos.
Foi nesta noite que o trabalho colaborativo me permitiu configurar o ambiente de desenvolvimento Python em minha máquina pessoal (Drama da Instalação do Python – Relatado neste post). Mas por que Python? Resposta, esta é a linguagem oficial do projeto. Para quem não está familiarizado com estes mutirões de trabalho de base tecnológica, as primeiras horas do evento são chamadas de “Install Fest”, momento em que todos configuram seus computadores para que fiquem com os sistemas parecidos, ou sejam, para que todos estejam na mesma página.
Dia 2 – Sábado
Demonstração do aplicativo OPS na prática em tempo real
Em meio ao caos natural de eventos com pessoas de diversas áreas de conhecimento e níveis técnicos diferentes, acabei ouvindo e me deparando com um aplicativo fantástico, uma espécie de Tinder de avaliação de gastos públicos, onde cada nota fiscal é postada e o cidadão pode avaliar se esta faz sentido ou não. Este é o link do aplicativo – Operação Política Supervisionada. Baixe já e ajude a controlar o bom senso do gasto público e, por gentileza, seja honesto na avaliação, se não tiver ideia dos valores use o botão “Não sei” e passe para o próximo.
Continuando, aos poucos, o pessoal foi levantando a mão e os grupos de trabalho foram se alocando automaticamente por perfis de complementariedade de conhecimento. Aqueles que programam se juntaram escrevem e estes aos que conhecem da área pública, quem estava para aprender, estava por todos os lados coletando informação. Então com o passar das horas, bastava levantar a mão e pedir para o grupo quem tinha conhecimento no item X ou Y e os grupos se realocavam de forma extremamente dinâmica.
Bom, abaixo coloco um vídeo feito ao vivo pelo Facebook mostrando mais detalhes do que estavamos fazendo no primeiro dia.
Em uma breve interpretação pessoal destes gráficos, é possível dizer que há uma preocupação maior dos parlamentares na visibilidade do trabalho por meio de maiores investimentos em publicidade da atividade parlamentar (27.64%) do que pagamentos em cursos de capacitação, que por sua vez, só representa (0.02%) do orçamento. Outras inferências podem ser feitas, mas estas deixo a cargo dos leitores. Caso queiram conhecer todas as regras de utilização das quotas parlamentares, aqui estão elas neste link Cota Parlamentar.
Proporção dos gastos parlamentares desde 2009 até 30 de abril de 2017 classificadas por tipo de despesas.
Valor bruto em reais gastos por parlamentares desde 2009 até 30 de abril de 2017 dividido por por tipo de despesas.
Quais foram os maiores reembolsos unitários por áreas?
Maiores reembolsos unitários por área, valores em reais. Ex. Maior despesa com alimentação em uma única nota – R$ 6.205,00 ou serviço de assinatura de R$ 30.000,00.
Quais meses as cotas são mais utilizadas?
Flutuação dos gastos totais das cotas parlamentares ao longo dos 12 meses do ano. Autor – Lui Pillmann.
Qual a média de gasto mensal ao longo dos anos?
Flutuação do gasto médio mensal das cotas ao longo dos anos. Autor – Lui Pillmann.
Quanto um congressista gasta em média por partido?
Média mensal de gastos por deputado por partido ao longo de todos os anos. Autor – Lui Pillmann.
Dia 3 (Domingo)
O Sprint tava programado ser apenas na sexta e sábado, mas dada a empolgação do pessoal, muitos decidiram continuar pelo feriado. E aí vieram os trabalhos de concatenação de material, verificação de inconsistências e atualização dos novos achados na base centralizada do projeto – https://github.com/datasciencebr/ .
Grande parte deste trabalho foi feito de forma remota sincronizado no chat em inglês e português da turma. Eu particularmente tirei este dia para descansar e ver a família. O interessante é que teve bastante gente tocando o projeto, era meia noite e meia e as mensagens não paravam de circular.
Dia 4 (Segunda, 1º de maio)
Dia do trabalho, dia juntar as peças e links e finalizar o capítulo com as conclusões.
Conclusões e próximos passos
Esta análise abordou principalmente os aspectos da dinâmica de trabalho do evento Serenata de Amor – Capítulo – Floripa. Acredito que algumas dessas informações são novas para muitos (inclusive empresas de médio e grande porte).
O aprofundamento nas metodologias de trabalho sobre dados é um caminho inevitável para redução de custos de projetos colaborativos, distribuídos de alta complexidade como este.
Hoje a plataforma do Serenata já utiliza alguns algoritmos e está ficando cada vez mais fascinante ver as máquinas descobrindo em segundos e automaticamente certas as nuances comportamentais dos gastos públicos e em alguns casos até prever situações antes que elas ocorram, isso não é TOP?
Das análises em si, levantamos novas hipóteses, como por exemplo:
O que explica a sazonalidade dos gastos parlamentares?
Por que existem pedidos de reembolso acima de 200 mil reais?
Qual o nível de correlação entre os gastos e as taxas de assiduidades dos parlamentares?
Qual a média dos gastos por partido por estado?
Ranking ponderado dos parlamentares com maior e menor gasto.
Existe correlação entre o aumento dos gastos com o mês de aniversário dos congressistas?
Quais profissões estão probabilisticamente mais propensas aos maiores gastos?
O nível educacional e idade apresentam influência nos cenários de alto médio e baixo gasto parlamentar?
Recomendações
O campo de análise de dados já é uma realidade em diversos países e organizações. O Brasil está no caminho, pois a competitividade internacional está ligada a qualidade da gestão. A tendência mundial é que haja um contínuo aumento nos índices de transparência dos dados da gestão pública. Assim, várias oportunidades surgem, aqui deixo algumas dicas.
Busque formas de colaborar com o projeto Serenata, seja metendo a mão na massa ou patrocinando o financeiramente.
Curta e compartilhe estes materiais para que mais e mais pessoas tenham acesso tanto ao projeto quanto aos dados existentes.
Conheça os portais de transparência que estão sendo criados, como exemplo, sugiro este de Santa Catarina – http://www.transparencia.sc.gov.br
Invista em cursos e capacitações na área de análise de dados, não se deixe intimidar pelas ferramentas, linguagens e etc.
Se quiser ver os códigos e as fórmulas matemáticas em Python usadas para gerar as visualizações click aqui. Autor: Lui Pillmann.
Fundador e Diretor Comercial da Aquarela, Mestre em Business Information Technology com especialização em logística – Universiteit Twente – Holanda. Escritor e palestrante na área de Ciência e Governança de Dados para indústria e serviços 4.0.