Digital Twins: simulação digital com IA

Digital Twins: simulação digital com IA

Cientistas do Laboratório de Pesquisa de Inteligência Artificial da Meta (Facebook), nos Estados Unidos, e do Laboratório de Engenharia e Modelagem Neuromecânica da Universidade de Twente, nos Países Baixos, desenvolveram um modelo de IA com o uso de Digital Twins (Gêmeos Digitais), denominado MyoSuite, capaz de replicar movimentos precisos e complexos do corpo humano.

A partir disso, abordaremos neste post os Digital Twins e os principais setores de aplicação dessa tecnologia, apresentando o funcionamento do MyoSuite e seus impactos na área da saúde.

O que são Digital Twins?

O Digital Twins, também conhecido como Gêmeos Digitais, são réplicas virtuais criadas com o objetivo de simular objetos ou pessoas do mundo real com a maior proximidade com a realidade. Essa tecnologia vem sendo aplicada em diversos setores, pois possui um alto nível de detalhamento e aplicabilidade. Assim, possibilita a execução de diversos testes em simulações, evitando que sejam desperdiçados recursos financeiros e vitais. São diversas as áreas que podem se beneficiar com essa tecnologia, por exemplo: Forças Armadas, medicina, perfuração de petróleo e eletrônica aplicada.

Digital Twins – MyoSuite

O uso da modelagem e simulações são essenciais para as tecnologias da saúde humana. Isso se deve à segurança, economia de recursos e à possibilidade de personalização de tratamentos.

Diante disso, o Laboratório de Pesquisa de Inteligência Artificial da Meta, em parceria com o Laboratório de Engenharia e Modelagem Neuromecânica da Universidade de Twente, desenvolveu o MyoSuite.

O sistema consiste em um conjunto de modelos e tarefas musculoesqueléticas que permitem a aplicação de Machine Learning para resolver problemas de controle biomecânico, não sendo apenas uma abordagem virtual com o uso de Digital Twins, mas também para a realização de simulações em dispositivos musculoesqueléticos que interagem fisicamente com exoesqueletos sofisticados.

MyoSuite simulando a ativação de tendões da mão direita. Imagem: Reprodução/Meta AI).

MyoSuite simulando a ativação de tendões da mão direita. Imagem: Reprodução/Meta AI).

Funcionamento do MyoSuite

Ademais, o sistema é uma ótima referência de desenvolvimento, devido aos modelos musculoesqueléticos aplicados ao MyoSuite apresentaram uma velocidade 4 mil vezes maior do que outros simuladores. Esse sistema tem um método de aprendizagem que permite a unificação de inteligência motora e neural.

O comportamento do corpo humano possui um alto grau de complexidade por existir uma grande quantidade de terminações nervosas, sistemas e detalhamentos na estrutura corporal. Portanto, a necessidade de um grau de conhecimento e precisão é essencial para a construção de um modelo aplicável para o ecossistema motor e neural de uma IA com alto grau de proximidade entre o real e o virtual. Outrossim, deve-se levar em consideração uma série de fatores biológicos que são importantes para a otimização do modelo “gêmeo” ao original.

O sistema desenvolvido é rico em detalhes e eficiente por possuir uma boa responsividade às perturbações e reações que possam eventualmente acontecer, tal como acontece com o nosso corpo naturalmente.

O MyoSuite é capaz de realizar a simulação de fenômenos biológicos, por exemplo: fadiga muscular, sarcopenia muscular, ruptura do tendão e reafirmação do tendão.

Com o avanço do desenvolvimento do sistema, o MyoSuite possui perspectivas para a simulações na robótica a fim de auxiliar na recuperação de pessoas debilitadas ou acidentes que causam alguma debilitação.

Ilustração de recuperação de modelo neuromotor. (Imagem: University of Twente, 2022)

Digital Twins – Considerações finais

O MyoSuite é um dos exemplos de avanço da IA no nosso cotidiano que soluciona problemas em que há poucos anos nem imaginávamos que seriam possíveis de resolvê-los de forma tão sofisticada. Desse modo, podemos ficar entusiasmados com o avanço desse sistema, pois os cientistas do Laboratório Meta pretendem desenvolver modelos virtuais de avatares que possam replicar movimentos mais realistas, sendo um ótimo salto para os entusiastas do Metaverso.

Fontes

  1. University of Twente.
  2. https://tech.fb.com/artificial-intelligence/2022/05/myosuite/

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Aprendizado de máquina: subáreas e aplicações

Aprendizado de máquina: subáreas e aplicações

O termo “aprendizado de máquina”ou “machine learning” foi primeiramente usado por Arthur Samuel, em um artigo feito em 1959. Arthur definiu o aprendizado de máquina como “campo de estudo que dá aos computadores a habilidade de aprender sem serem explicitamente programados”.

O aprendizado de máquina pode ser dividido em três principais áreas de estudo, são elas: aprendizado supervisionado, aprendizado não-supervisionado e aprendizado por reforço, conforme pode ser observado na imagem abaixo, que também mostra áreas de aplicação de algoritmos de aprendizado de máquina.

representação do aprendizado de máquina

Aprendizado supervisionado

A área de aprendizado supervisionado é normalmente aplicada quando os dados a serem avaliados são classificados por meio de um rótulo e com isso o algoritmo consegue fazer previsões e procurar por padrões nos dados fornecidos. Dentre as principais aplicações de aprendizado supervisionado que usam modelos de classificação estão: detecção de fraudes, classificação de imagens, retenção de clientes e classificação de diagnósticos. Além disso, aplicam-se modelos de regressão nas áreas de Previsão, Predição, Precificação e Otimização de Processos. 

Veja também nossos textos sobre Previsão de Demanda, Precificação e Predição de falhas.

Aprendizado não supervisionado

O aprendizado não supervisionado é aplicado quando não se sabe o que o dado representa, ou seja, o dado não tem um rótulo para que seja analisado. Normalmente usado para fazer agrupamentos, ele é capaz de descrever uma estrutura de dados complexa, podendo assim descobrir padrões ocultos sem a intervenção humana. Aplicações como: Alvo de Marketing, Segmentação de Clientes e Sistemas de Recomendação estão ligadas com modelos de clusterização. Além disso, o aprendizado não supervisionado engloba modelos de redução dimensional que possuem aplicações como visualização de Big Data, Compreensão Significativa, Descoberta de estruturas e Elicitação de Recursos.

Aprendizado por reforço

A terceira área é o aprendizado por reforço. O termo “reforço” explicita o funcionamento do método por meio da recompensa, ou pontuação, a qual a inteligência artificial ganha após cada ação. O algoritmo se ajusta para melhor atender o objetivo, visando assim maximizar essa pontuação. Comumente, utiliza-se o aprendizado por reforço em jogos, aprendizado de tarefas, decisões em tempo real e também em navegação de robôs.

Aprendizado de máquina – Considerações finais

Neste artigo, abordamos o aprendizado de máquina, suas principais áreas de estudo – aprendizado supervisionado, aprendizado não-supervisionado e aprendizado por reforço – e algumas de suas aplicações.

A Aquarela Analytics está sempre buscando novos conhecimentos e aplicações para problemas, ampliando assim nosso kit de ferramentas para superarmos os obstáculos apresentados com excelência.

Leia também: Como os modelos estatísticos se aplicam no Machine Learning

Gostou do artigo? Então deixe o seu comentário.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Aplicações de IA na Ciência

Aplicações de IA na Ciência

Em um conto do escritor Isaac Asimov, existe uma IA tão avançada que consegue resolver as equações da mecânica quântica e da relatividade geral; e projetar uma nave de dobra espacial (tipo aquelas do Star-Wars) e esta mesma IA a constrói, utilizando uma espécie de impressão 3D com auxílio de robôs. Por mais utópico que possa parecer esse futuro, aplicações de IA na ciência de ponta vêm crescendo tanto (impulsionados também pela indústria) que não é mais tão difícil imaginar tais feitos como deve ter sido para o Asimov ainda na década de 50.

O desenvolvimento da ciência básica é importante não apenas para responder questões fundamentais da natureza e de interesse da humanidade, como também impulsiona o desenvolvimento de novas tecnologias das quais o uso prático ainda nem existe. Sendo assim, motivados em grande parte pela sua popularização na indústria 4.0, o uso de algoritmos de ML e IA vêm favorecendo o avanço de áreas na pesquisa básica de uma forma que ainda nem podemos prever as repercussões dos estudos que estão sendo feitos neste instante. (Afinal, quem diria, no início do séc. XX, que algo tão teórico quanto a física quântica fosse nos levar a uma revolução digital, graças à miniaturização dos transistores?)

IA na ciência básica

Dentre os principais usos da IA na ciência básica, podemos destacar algumas aplicações na física, química e biologia. Porém, adianto que, nos últimos anos, devido à popularização dos algoritmos e à capacidade de processamento computacional, tais aplicações tornaram-se inúmeras nas mais diversas áreas da atividade humana.

Aplicações de ML na física de partículas

O Grande Colisor de Hádrons (LHC, na sigla em inglês), localizado na fronteira da França com a Suíça, é a maior máquina já construída pelo homem. Tem um formato de um anel com 27km de circunferência e seu propósito principal é compreender a estrutura básica da matéria em seu estado mais fundamental.

No LHC, e em institutos de pesquisa que colaboram com o CERN (Organização Europeia para a Pesquisa Nuclear, instituição que administra o LHC), são armazenados, processados e analisados 15 petabytes de dados por ano (não é à toa que foi no CERN que nasceu o protocolo WWW, ainda no século passado, para o compartilhamento dos dados dos primeiros colisores construídos lá). Isso se deve, em grande parte, ao sistema de “gatilhos” (triggers) que seleciona ainda no nível de hardware apenas 200 dos quase 1 bilhão de eventos de interesse por segundo que o acelerador produz quando está ligado. Por isso, em suas últimas atualizações, os grupos de pesquisa vinculados ao CERN vêm testando e aprimorando algoritmos de Machine Learning para selecionar eventos de interesse em todos os níveis de triggers do LHC.

Além de reduzir o custo de processamento e armazenamento dos dados, o processamento com IA evita falhas humanas e intensifica as chances de um evento apresentar uma reação nunca antes vista (vale lembrar que o bóson de Higgs, descoberto em 2012, foi verificado em alguns poucos eventos de trilhões que foram previamente analisados). Atualmente, devido à sua riqueza e complexidade, os conjuntos de dados abertos do LHC são reanalisados por grupos de pesquisa do mundo todo, que podem testar e desenvolver seus próprios sistemas de análise.

O Laboratório Nacional de Luz Síncrotron (LNLS), vinculado ao Centro Nacional de Pesquisa em Energia e Materiais, opera no Brasil um dos maiores aceleradores do mundo, capazes de produzir luz síncrotron, radiação que, segundo as palavras do próprio site da instituição, “pode ser utilizada para investigar a composição e a estrutura da matéria em suas mais variadas formas, com aplicações em praticamente todas as áreas do conhecimento”. Todo o projeto do SIRIUS, além de fomentar o desenvolvimento da tecnologia e inovação nacional desde a planta, promove treinamentos e investe na capacitação de cientistas para que estes possam usar IA e ML para analisar os dados provenientes do experimento, principalmente na representação gráfica dos dados experimentais.

Recentemente, foi publicado um artigo que utilizou dados do experimento para investigar a estrutura interna e a síntese proteica do vírus SARS-CoV-2, estudo importantíssimo para entender possíveis mecanismos de ação contra o vírus que ainda podem ser desenvolvidos.

Aplicações de IA na astrofísica

Outra aplicação interessante que fez avançar mais um pouco a compressão humana sobre a natureza foi o uso da IA para reconstruir a primeira imagem de um buraco negro. A conhecida “foto” do buraco negro que circulou em todas as mídias foi fruto de “toneladas” de dados, cuidadosamente adquiridos, armazenados e processados.

O Prêmio Nobel de física de 2020 foi dividido entre três pesquisadores pelas suas contribuições na descoberta e caracterização de propriedades de buracos negros. Nesse contexto, a primeira foto de um buraco negro, divulgada naquele mesmo ano, foi fruto da coleta de dados provenientes de 8 telescópios espalhados pelo globo (incluindo um na América do Sul e outro na Antártica).

Dito de maneira simples, o algoritmo de IA responsável por recriar a imagem foi alimentado durante anos com os dados destes telescópios que estavam apontados para o centro de uma galáxia a cerca de 50 milhões de anos luz da nossa. Como cada telescópio só via “uma parte” do centro da galáxia, foi preciso usar IA para reconstruir a imagem. Para verificar se o algoritmo não estava apenas reproduzindo aquilo que eles queriam ver, o time responsável no MIT, liderado por Katie Bouman, treinou a mesma IA com diferentes conjuntos de imagens. O resultado foi surpreendente. Quando alimentada com dados dos telescópios, todas as IA convergiam para reconstruir a mesma imagem do buraco negro no centro da galáxia M87.

Diferentes conjuntos de treino criam a mesma imagem do buraco negro. Fonte: TED talk by Katie Bouman 

Uso de IA na estabilização de fusão nuclear

Outro uso interessante de IA, que pode vir a ter implicações de médio prazo em nossas vidas, é o uso de aprendizagem de máquina para controlar um reator de fusão nuclear.

A fusão nuclear é o combustível pelo qual as estrelas (incluindo o nosso Sol) produzem tanta energia. Se dominada pelo homem (ou por uma IA), ela seria capaz de gerar muito mais energia que Itaipu, a maior usina hidrelétrica do planeta. Claro que este ainda é um cenário hipotético, afinal os reatores de fusão atuais ainda enfrentam diversos problemas, tanto na sua construção quanto na manutenção em atividade. Um desses desafios, especialmente em reatores do tipo Tokamak, é manter o plasma de hidrogênio (estado da matéria onde os átomos estão totalmente ionizados) estável, já que para isso é necessário controlar e ajustar vários parâmetros do campo magnético dentro do reator.

A reação de fusão precisa ocorrer em uma câmara de vácuo no interior do reator, e este campo é ao mesmo tempo responsável por fundir os átomos de hidrogênio quanto de evitar com que o plasma ultra-aquecido (que pode chegar a temperaturas mais elevadas que a do núcleo solar) entre em contato com a parede do reator, o que levaria a sérios acidentes.

Pensando nisso, a empresa DeepMind desenvolveu um algoritmo de ML que aprende com os dados obtidos do reator um ajuste ótimo de todos os parâmetros para que se controle o campo magnético interno do processo de fusão. Recentemente, o uso desta IA, ainda em estado de desenvolvimento, conseguiu manter a fusão ativa por 2 segundos no reator do Instituto Federal Suíço de Tecnologia em Lausanne. Esse reator é de testes e foi projetado para manter uma fusão por no máximo 3s, porém o recorde mundial é de um grupo no Reino Unido, que conseguiu manter uma fusão por 5 s, mas ainda com o auxílio de um operador humano.

Sensoriamento remoto e monitoramentos de queimadas

Temos também uma aplicação interessante de IA em solo brasileiro. É o caso do INPE (Instituto Brasileiro de Pesquisas Espaciais), que coleta dados de queimadas e desmatamento na floresta amazônica desde 1984. Nesta época, a coleta ainda era feita utilizando computadores com sistema operacional DOS, e o processamento das imagens era feito num poderoso PC-XT com processador de 4,7 MHz, 32 KB de memória e um HD de 20 MB (verdade seja dita, nada mal para a época).

O primeiro mapa de queimadas na Amazônia foi lançado em parceria com a NASA em 1996. Desde então, existem satélites polares e geoestacionários que coletam dados diariamente da floresta e que são disponibilizados de forma gratuita na plataforma TerraBrasilis, mantida pela instituição.

Dito isso, podemos perceber que esta série temporal de dados que o INPE possui é valiosíssima, e possibilita fazer diversos estudos com aplicação de ML e DL. A principal vantagem desse tipo de análise é combinar os dados das séries temporais do INPE com dados recentes de nano satélites, de altíssima resolução, para fazer regressões, monitoramento e previsão quanto ao bem-estar da maior floresta tropical do mundo. Segundo Lucas Fonseca, CEO da Airvantis, uma empresa de pesquisa espacial, um cenário ideal seria o financiamento de uma startup para desenvolver uma metodologia baseada em inteligência artificial para poder analisar as imagens obtidas em grande quantidade e combiná-las com os dados do INPE.

Emprego de técnicas IA na produção de vacinas e edição genômica

Por fim, a aplicação de IA na Ciência vai além. Sabemos que técnicas de IA foram amplamente utilizadas para investigar o vírus causador da Covid-19 e, principalmente, no desenvolvimento de vacinas.

Dave Johnson, chefe de dados e Inteligência Artificial da Moderna, comenta que graças à automação robótica e algoritmos de IA, eles passaram de 30 para cerca de mil testes com mRNA por mês, com muito mais consistência e qualidade nos resultados. Além disso, ele ainda comenta que outro uso importante no laboratório foi para síntese de proteínas, que, devido à sua complexidade, podem ser construídas numa infinidade de combinações a partir de aminoácidos mais simples.

Graças à riqueza nos dados históricos do laboratório, hoje é possível que um cientista desenvolvendo uma sequência para um tratamento específico possa apenas clicar um botão e a IA retorne a melhor sequência para aquele procedimento. Ademais, técnicas de ML, associadas com procedimentos de edição genética como o CRISPR, já são aplicadas com terapias de gene na área médica e na agricultura para a produção de versões mais sustentáveis de maior rendimento e de alguns transgênicos já amplamente utilizados na indústria.

Leia também: Onde grandes empresas utilizam Inteligência Artificial?

Aplicações de IA na Ciência – Conclusão

Estamos passando por uma nova revolução industrial, e no meio do turbilhão de novos conceitos, aplicações e novas tecnologias, ainda é difícil saber exatamente quais os rumos que a Indústria 4.0 irá tomar. Não obstante, já podemos entrever alguns dos benefícios do uso de IA na Ciência e de análise avançada de processos, não só no terceiro setor, agregando valor em produtos e serviços, como também motivados por governos e instituições de pesquisa básica, em todas as esferas do conhecimento humano, que veem na cultura de dados oportunidades de fazer a vela no escuro da ciência brilhar um pouco mais.

Gostou de saber mais sobre os usos de IA na Ciência? Deixe seu comentário.

Referências:

http://revistaquestaodeciencia.com.br/dossie-questao/2019/11/08/como-os-incendios-amazonicos-sao-medidos-do-espacohttps://www.lnls.cnpem.br/news/first-study-published-with-data-collected-on-sirius/

https://deepaksingh-rv.medium.com/the-ai-behind-getting-the-first-ever-picture-of-a-black-hole-c483e8eb6a21

https://deepmind.com/blog/article/Accelerating-fusion-science-through-learned-plasma-control

https://home.cern/news/news/physics/speeding-machine-learning-particle-physics

http://revistaquestaodeciencia.com.br/dossie-questao/2019/11/08/como-os-incendios-amazonicos-sao-medidos-do-espaco

https://sloanreview.mit.edu/audio/ai-and-the-covid-19-vaccine-modernas-dave-johnson/

https://www.lhc-closer.es/taking_a_closer_look_at_lhc/0.lhc_data_analysis

https://pubmed.ncbi.nlm.nih.gov/34161210/

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Inteligência Artificial nas Quotas Parlamentares

Inteligência Artificial nas Quotas Parlamentares

2018 é um ano importante para o futuro do Brasil, e assim como você caro leitor, nós também temos uma grande preocupação: 

Será que finalmente levaremos o hexa nesta copa?

Brincadeiras a parte, 2018 é ano de eleição, momento no qual vamos decidir quem será nosso presidente pelos próximos 4 anos. Sabemos que as opções não são as melhores até o momento, mas não vamos perder a fé em mudar o nosso país, certo? Neste post, pegamos carona no momento político e, aliando-se ao projeto “Serenata de amor”, traçamos o perfil dos gastos de dinheiro público feitos por nossos deputados. (Veja como o projeto aconteceu em Floripa) 

Utilizamos o VORTX (nossa plataforma de Inteligência Artificial) e ferramentas complementares como R, Python e Java, para encontrar padrões na forma como nosso dinheiro é gasto pelos deputados brasileiros. Perceba que até o momento não falamos em predição ou prescrição baseada em dados, outro ponto que este artigo mostrará é o fato de que Machine Learning também pode ser empregada na procura de padrões de comportamento, sem fazer nenhuma predição.

Dados de entrada

Mais de 1,5 milhões de notas fiscais emitidas de reembolso de 1158 deputados federais desde 2009 — Destes sobraram 1,138 que possuíam informações sobre a idade e o sexo — Fonte (https://serenatadeamor.org/).

O que queríamos descobrir?

  • Qual a idade provável de um cidadão se tornar deputado(a) federal?
  • Quais as características e as proporções de cada perfil parlamentar?
  • Qual o perfil de parlamentares mais gastões e quais os deputados mais econômicos? Como está a distribuição regional?
  • Quais os principais fatores associados aos gastos dos perfis descobertos?
  • Se existe uma relação entre a idade dos parlamentares com o gasto de suas cotas parlamentares?

Resultados utilizando Inteligência Artificial.

Depois de fazer uma série de enriquecimentos da base original, formatamos os dados no modelo requerido pela plataforma VORTX chegando assim aos seguintes resultados e validações.

Probabilidade de ser deputado por idade

Abaixo está o desenho e os cálculos da distribuição probabilística de alguém se tornar deputado de acordo com sua idade.

  • Probabilidade de ser parlamentar com menos de 30 anos é de 1,5%
  • Probabilidade de ser parlamentar com mais de 30 anos é de 98,5%
  • Probabilidade de ser parlamentar com menos de 80 anos é de  97,5%
  • Probabilidade de ser parlamentar com mais de 80 anos é  2,5%
  • Estar entre 30 e 80 é de 96% e fora dessa faixa 4%
Idade mínima = 23. Idade média = 56,87. Idade máxima = 98. Desvio padrão (taxa de variabilidade de idades) = 12,20.

Abaixo está o ranking dos deputados que fogem para baixo do padrão da curva normal, ou seja, os “deputados federais ninjas” que chegaram lá com 1,5% de chances.

Quadro de deputados federais mais novos desde 2009.

Proporções do perfil de gasto da quota parlamentar

No quadro abaixo vemos o perfil comportamental gerado pelo VORTX de todos os deputados analisados, sendo 3 grupos predominantes (1, 2 e 3) contém mais de 90% de todos os parlamentares. Os menos representativos chamados de 4, 5 e 6 são comportamentos anormais. O agrupamento 2 é formado apenas por mulheres ao passo que os demais, apenas por homens. Com isso vemos que existe diferenças consideráveis do comportamento por gênero.

Grupo 1 = 87,61%. Grupo 2 = 10,11%. Grupo 3 = 1,93%. Grupo 4 = 0,18% . Grupo 5 = 0,09% grupo 6 = 0,09%.

Perfil dos parlamentares gastões vs econômicos + região de atuação.

Abaixo apresentamos os sumários estatísticos dos grupos identificados pela ferramenta de forma automática.

A primeira coluna da esquerda é o gasto médio em reais dos parlamentares. Imaginando que quanto maior a média, maior o custo deste para os cofres públicos, então temos o grupo 1 com a média mais alta: acima de R$ 1,2 mil, e os mais econômicos disposto no grupo 3, com gastos abaixo dos R$ 250,00.

As mulheres do grupo 2 tendem a gastar R$157.21 menos que os homens do grupo 1. A proporção dos deputados com baixo custo é gritantemente menor do que os grupos principais.

A título de conhecimento, abaixo dos nomes estão a nota do grau de influência que a coluna tem na variação do valor médio.

Ao contrário do que muitos pensam, encontrar padrões que já conhecemos é fundamental para saber se a ferramenta está interpretando corretamente a realidade, ou seja, felizmente o VORTX que não conhece nada de política ou quotas parlamentares, descobriu uma coisa que já se esperava: que os deputados(as) com médias maiores apresentam uma taxa maior de compras parceladas.

Assim, o VORTX coloca ela como a primeira variável da esquerda para direita com nota 8.7 de influência. Seguida pela contagem do número de fornecedores.

Como parte da estratégia da análise, optamos por não considerar (não entregar para o algoritmo) a informação do estado e/ou partido dos deputados(as), tornando assim a análise sem qualquer viés que não sejam simplesmente o comportamento administrativo de cada um.

Uma vez que conseguimos atrelar a geolocalização dos parlamentares, a ferramenta desenha automaticamente a segmentação diretamente no mapa. Assim, é possível sintetizar os padrões e claro, depois descer (drill down) até encontrar os registros específicos de cada caso.

Ainda respondendo a questão 3, abaixo está um apontamento regional dos deputados que mais e menos gastam.

Em amarelo está a contagem absoluta, ou seja, quantos deputados de baixo custo existem em cada estado. Os amarelos estão apenas em alguns estados do país.
Mapa dos parlamentares do grupo 4 com a maior média de gastos. A letra é a primeira letra da variável que havíamos chamado de “ponto”.

Uma dúvida comum dos analistas é saber se os resultados fecham com a realidade do dado bruto.

Este processo é muito importante em todo e qualquer tipo de análise de machine learning. Assim, fizemos alguns recortes da base sobre os resultados da entrega da inteligência artificial para verificar se os achados faziam sentido ou não.

Abaixo está uma das variáveis consideradas mais fortes no padrão de comportamento do uso das quotas. Com esta visualização podemos afirmar que deputados(as) com o menor custo médio apresentam uma quantidade muito maior de fornecedores do que todos os outros grupos.

Esta variável é tão mais influente do que a idade do parlamentar que a segunda foi excluída automaticamente do modelo pela máquina.

Cada ponto representa um parlamentar. As cores estão relacionadas ao grupo criado pela inteligência artificial.

Na figura abaixo, podemos concluir também que não é possível fazer uma relação do comportamento de gasto por partido político já que há uma grande pluralidade de partidos nos diferentes perfis.

Seria muito interessante, por exemplo, se algum partido tivesse uma política de redução dos gastos bem definida de modo que o grupo 3 tivesse apenas a cor deste partido ou fosse a cor predominante.

Cada ponto representa um parlamentar. As cores são o seu partido político. O eixo X representa o grupo que ele pertence de acordo com a inteligência artificial.

Já na visualização abaixo temos uma informação interessante.

Quando estávamos levantado as perguntas de análise com a equipe de voluntários no evento  Serenata Capítulo Floripa. tínhamos uma intuição bastante forte de que os parlamentares mais jovens tivessem uma tendência a gastar menos, imaginando que houvesse uma melhor conscientização da importância da economia do dinheiro público.

O resultado foi exatamente este, só que no sentido oposto. Verificamos que existe uma pequena tendência (muito fraca) da idade interferir no comportamento dos gastos.

Os deputados(as) mais velhos tendem a gastar menos em média. Uma ressalva, a idade é baseada na diferença em anos da data de nascimento com a data desta pesquisa. Além alguns deputados já são falecidos(as).

Cada ponto representa um parlamentar, os homens são os pontos verdes e as mulheres os pontos vermelhos.

Brasil, todo dia um 7×1

Sabemos que o sentimento possa ser de frustração, afinal, descobrir que nem mesmo os deputados jovens estão conscientes do seu papel político-social é um tanto quanto desanimador.

Mas para que aconteça mudança, temos que encarar a realidade, por esta razão que o projeto Serenata de amor foi criado, agregando o uso de Inteligência Artificial feita no Brasil com a necessidade de mudarmos nosso cenário político. 

Não deixem de seguir a Rosie no Twitter, robô criada pelo projeto que Twitta gastos suspeitos em tempo real, acompanhando de perto como nossos políticos gastam nosso dinheiro.

Acreditamos na mudança e na capacidade do povo brasileiro de inovar com tecnologia, acompanhe em nosso blog outros casos de uso de IA para predição e clusterização com dados públicos, e apoie o projeto Serenata de amor. Só assim faremos um Brasil mais inteligente e menos burocrático.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Como a estratégia de clusterização em Big Data otimiza negócios?

Como a estratégia de clusterização em Big Data otimiza negócios?

O conceito de clusterização, também chamado de clustering, agrupamentos, por análise de grupos é um tema recorrente na área de aprendizado de máquina e inteligência artificial, por isso criamos um vídeo tutorial que, em síntese, demonstra um problema de forma visual, um caso real e algumas conclusões.

Descrição do vídeo em português

Para facilitar a absorção do conceito, utilizamos um exemplo bastante visual. Assim, imagine que você tem em uma fábrica têxtil e quer produzir o maior número de bandeiras de todo os países conhecidos, algo em torno de 200 tipos com cores e formatos diferentes.

Interessa saber quais quais os padrões de cores e formatos para otimizar e organizar a linha de produção? Essa é a ideia, reduzir custos e tempo, mantendo qualidade e volume.

Figura 1. Representação dos dados brutos, sem detecção de padrões.

Um bom algoritmo de agrupamento deve ser capaz de identificar padrões nos dados como nós humanos conseguimos identificar visualmente bandeiras com características comuns, por terem os mesmos padrões, como são as bandeiras da Itália, Irlanda e México, no exemplo abaixo.

Podem existir padrões de cores, forma, figuras, etc. Um fator que diferencia algoritmos de clusterização para os de classificação é que estes não tem a informação do padrão junto com os dados, ou seja, ele deve descobrir automaticamente.

Figura 2 – Cluster zero (0) composto pelas bandeiras Itália, Irlanda e México.

Neste contexto, tão importante quanto identificar os grupos com indivíduos semelhantes são as identificações dos indivíduos que não se assemelham com nenhum outro. Os chamados outliers, que são as exceções, elementos únicos que não compartilham características com outros elementos.

Figura 3 – Cluster seis (6) composto pela bandeira do Nepal. Uma exceção.

Por fim, em um resultado final de clusterização, temos um número de 8 grupos formados pelas bandeiras que apresentam características semelhantes e indivíduos isolados, por serem ouliers.

Figura 4 – Clusters formados ao final do processamento.

Um dos fatores mais importantes de processamento de grupos é número de grupos onde os elementos serão alocados. Em muitos casos, temos observado resultados diferentes quando aplicamos os mesmos dados, nas mesmas condições de processamento e parametrização, em diferentes algoritmos.

sso é muito importante. Veja o que poderia ser o resultado de uma clusterização imprecisa.

bandeiras4

Figura 5: Clusters resultantes de um agrupamento impreciso.

A questão prática é:

Você investiria o seu dinheiro nisso?

Provavelmente não, e resolver esse problema é o desafio dos cientistas de dados. Na prática, já aplicamos em diversos segmentos, em um deles identificamos padrões da características dos pacientes que mais faltam às consultas médicas, gerando custos e ingerência em consultórios, clínicas e hospitais.

O resultado foi um surpreendente grupo com 50% dos dados analisados, o que merece realmente uma política específica para redução dos custos e impactos de operação.

O que pensariam os clientes que ficaram sem horário para consulta? Como não dar razão aos diretores financeiros destas organizações?

 Outras possíveis aplicações estão no post “14 setores para aplicação de Big Data e dados necessários para as análises”. no blog da Aquarela.

Conclusões

  • Nossa visão é muito poderosa para classificação de imagens como no caso das bandeiras.
  • É humanamente impossível fazer análises e correlações lógicas dos números de um grande banco de dados, para isso foram criados os algoritmos de clusterização.
  • A acurácia (exatidão) dos resultados de clusterização são fundamentais para a tomada de decisão de investimentos.
  • Diversos setores podem se beneficiar dessa abordagem de gestão.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores