Inovação: a solução Smart Vac na Mercopar 2021

Inovação: a solução Smart Vac na Mercopar 2021

O que é a Mercopar e qual seu papel para a indústria do Brasil?

A Mercopar é um espaço de geração de negócios, disseminação de conhecimento sobre tendências da indústria e estímulo à economia. Ela é a maior feira de inovação e negócios da América Latina com foco na geração de conexões e negócios entre expositores e potenciais clientes. 

A Feira aproxima empresas nacionais e internacionais, conectando pequenos, médios e grandes negócios da indústria, nos segmentos metalmecânico, tecnologia da informação, energia e meio ambiente, borracha, automação industrial, plástico, eletroeletrônico, movimentação e armazenagem e Startups.

Em 2020, o evento bateu recorde com R$128 milhões em negócios gerados para os segmentos metal mecânico, tecnologia da informação, energia e meio ambiente, borracha, automação industrial, plástico, eletroeletrônico, movimentação e armazenamento e Iniciantes.

A 30ª edição do evento de inovação

Realizada de 5 a 7 de outubro, no Centro de Feiras e Eventos Festa da Uva, em Caxias do Sul – RS, a  30ª Mercopar cumpriu o objetivo de ser um vetor para a retomada da atividade industrial no Brasil. Promovida pelo Serviço de Apoio às Micro e Pequenas Empresas no Rio Grande do Sul – Sebrae RS e pela Federação das Indústrias do Estado do Rio Grande do Sul – FIERGS, a feira superou as expectativas e registrou, até o momento, R$ 224 milhões em negócios gerados, um crescimento de 75% em relação ao ano anterior.

A edição que marcou os 30 anos da maior feira de inovação e negócios da América Latina contou com os patrocínios das empresas Randon, Sicredi Pioneira, Instituto Hélice, Portos RS e SIMECS. Ela reuniu 347 expositores dos segmentos metalmecânico, tecnologia da informação, energia e meio ambiente, borracha, automação industrial, plástico, eletroeletrônico, movimentação e armazenagem, sendo 44 deles startups. Além de empresas gaúchas, estiveram presentes outras do DF, ES, GO, MG, PR, RJ, SC e SP. 

A Mercopar teve, em uma área de 20 mil m², um total de 13.952 visitantes presenciais, respeitando o teto de ocupação de 2.500 pessoas simultaneamente, por faixa de horário (máximo de 15.000 para todo o período da Feira), imposto pelo protocolo de segurança sanitária, e mais 6.125 acessos em sua plataforma online. Ela é, sem dúvida, um dos principais eventos industriais do país, pois é fundamental para que as inovações de processo e produtos cheguem até a realidade dos diversos setores industriais que compõem a economia brasileira. 

A percepção da Aquarela Analytics sobre a Mercopar

Nos dias 5, 6 e 7 de outubro de 2021, participamos da 30ª edição da Mercopar, na cidade de Caxias do Sul – RS. A participação da Aquarela segue as tendências de mercado com a  IA aplicada para a indústria e mais especificamente relacionada à importância da manutenção planejada com apoio de dispositivos de IOT e Inteligência Artificial.

Marcos Coimbra, Gestor de Negócios na Aquarela Analytics.

Além de uma intensa troca de informações e experiências com diversos visitantes e expositores, tivemos a oportunidade de mostrar na prática o funcionamento de nossa solução construída em parceria com o Grupo São Carlos, o SMART VAC. Na feira, foram demonstrados na prática o funcionamento da solução, a qual é capaz de predizer falhas em equipamentos HVAC. 

Em nosso primeiro dia de evento, realizamos os preparativos e trocamos informações com o nosso parceiro, Grupo São Carlos. Depois de mapearmos as empresas de nosso interesse, iniciamos as visitas aos stands. As empresas foram receptivas conosco, permitindo que nos apresentássemos e compartilhássemos experiências. 

Na feira, estavam presentes empresas que atendem toda a cadeia de valor da Indústria. 

Um fato curioso é que, durante o evento, percebemos que muitas empresas de médio porte ainda não estão usando inteligência artificial em suas operações, o que nos trouxe uma excelente oportunidade de negócios.

Leia também: Deadline 2024: Why you only have 3 years left to adopt AI

Inovação – a solução Smart VAC

A solução Smart Vac da Aquarela simplifica todo um processo de análise sobre a saúde do equipamento de refrigeração de forma preditiva, integrada e automatizada. Em outras palavras, se esta análise fosse realizada por um especialista em refrigeração, ela seria bastante manual e pouco otimizada (uma avaliação por equipamento) e ainda sim poderia ter uma taxa de acerto bastante variada com o grau e experiência de cada profissional. 

Com a solução agregando todo o conhecimento da Aquarela na área de sistemas preditivos, experiência de mais de 60 anos do grupo São Carlos e conectividade dos sensores de IOT, torna-se possível ensinar os computadores sobre os sinais e as leis físicas que regem o funcionamento dos equipamentos a ponto de identificar de forma antecipada se haverá algum problema no sistema. Isso é muito relevante para a gestão de ativos críticos relacionados à temperatura. 

O futuro da indústria será cada vez mais conectado, sensorizado e preditivo. A solução Smart Vac é uma inovação, mas que já está presente em mais de 350 equipamentos em 4 estados do Brasil. Nesse caminho, a previsão é de chegar a mais de 1000 equipamentos até o final de dezembro de 2021. 

Saiba mais sobre o SMART VAC.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

Um conto sobre a importância da previsão de demanda

Um conto sobre a importância da previsão de demanda

Esses dias me deparei com uma história lúdica e bem-humorada sobre a previsão do tempo que também serve para uma reflexão sobre a importância da previsão de demanda e os riscos atrelados à qualidade das fontes de dados para a análise da previsão. 

Anteriormente, já escrevemos aqui no blog sobre a evolução dos níveis de conhecimento do dado bruto até o nível de “sabedoria” (Dos dados à inovação). Na história, vamos apresentar o chefe da tribo e sua sabedoria, além dos planos de ações tomados a partir de suas análises. 

Previsão de Frio e o Plano de Ação

Conta a história (amplamente replicada na internet) que havia um uma tribo que perdeu seu Cacique (o líder da tribo). Como consequência, um novo Cacique foi eleito e prontamente assumiu as atividades, mesmo que com menos experiência sobre questões de administração e coordenação de atividades. 

Neste caso, o “chefe” era ainda relativamente novo e não tinha aprendido profundamente os segredos de meteorologia como o velho sábio. Mesmo assim, para não gerar insegurança para a tribo em sua posição de liderança, e logo nas primeiras decisões, ele olhou para o céu, estendeu as mãos e disse em tom sereno, mas firme:

— Atenção a todos, sinto que teremos um inverno muito rigoroso pela frente. Por isso, solicito que nossos membros mais fortes comecem a buscar e reunir a lenha. 

Dois dias depois, já havia sido recolhido bastante material para o fogo. Preocupado com a sua própria previsão do tempo, foi ao telefone e perguntou ao instituto de meteorologia. Então, ouviu a seguinte resposta:

— Sim, o inverno deste ano será bastante frio!

5 dias mais tarde e com as temperaturas ainda altas, ligou novamente e ouviu a confirmação:

— Sim, neste ano, o inverno será rigoroso!

Voltou à sua tribo e disse:

— Atenção, teremos um inverno muito rigoroso mesmo. Peço para que todos, incluindo mulheres e crianças, colaborem com o recolhimento de madeira e com o reparo das cabanas! 

A resposta

Passou mais uma semana quente. E, com dúvidas sobre a chegada do frio, o Cacique ligou novamente para o instituto:

— Tem certeza de que teremos um inverno tão forte?

— Sim. Temos, sim. De fato, esse ano será um frio histórico na região. 

Então, o Cacique perguntou: 

— Como vocês podem ter tanta certeza de que o inverno será tão rigoroso se nunca tivemos um frio desses por aqui?

O atendente respondeu:

— É porque os índios estão recolhendo lenha pra caramba, e nunca vimos isso acontecer. 

A importância da previsão de demanda – Conclusões e recomendações

Essa história traz vários pontos de reflexão para o mundo analytics, pois mostra como o desconhecimento do processo de negócio pode gerar grandes impactos. Além disso, ela traz uma lição sobre a importância da gestão do conhecimento. No caso relatado, o antigo Cacique era o criador e mantenedor do processo, seu conhecimento não foi transferido a ninguém e isso ocasionou problemas à tribo.

Aos novos analistas, ficam as seguintes recomendações: 

  • Manter o senso crítico independente da ferramenta e do cenário de negócio;
  • Verificar as fontes de dados (datasets) continuamente;
  • Buscar informações tanto interna como externamente pode ajudar na qualidade das predições, desde que os dados sejam complementares;
  • Embora as predições nunca sejam 100% perfeitas, é tarefa do gestor acompanhar diariamente a evolução do previsto com o realizado (O desafio da previsão de demanda);
  • Fazer testes sobre todos os dados, sempre validando a fonte de origem. 

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Tenho o perfil para trabalhar com Análise de Dados?

Tenho o perfil para trabalhar com Análise de Dados?

A área de análise de dados (o que é data analytics?) é ampla o suficiente para se encontrar uma posição de trabalho que seja capaz de gerar satisfação tanto para quem contrata e é contratado. Porém existem algumas características pessoais que valem uma atenção especial. Quais são? 

Neste artigo, apresento algumas dicas para profissionais e estudantes ou para quem está  buscando ter uma visão do encaixe do seu perfil dentro da área de análise de dados. Não encaixar em um perfil não significa necessariamente um problema, e sim uma oportunidade para continuar buscando aquele local ou tipo de trabalho que te realiza profissionalmente.  

Como chegamos até aqui?

Nos últimos 10 ou 15 anos houve uma grande transformação nas empresas na direção à indústria 4.0 (o que é a indústria 4.0). Foi nesse período que muitas organizações se informatizaram e entraram na internet. É este cenário de transformação digital que está gerando cada vez mais dados para análise, descobertas de padrões e automatização de rotinas. 

A nova indústria busca por soluções como: 

Então, o(a) profissional encarregado(a) de planejar e executar essas atividades pode ser chamado de analista de dados, cientista de dados e até engenheiro ou arquiteto de dados, dependendo do cenário de negócio. 

Existem muitas definições para cada um desses conceitos. Contudo, há algumas características gerais que valem uma atenção especial para quem está decidindo investir na carreira nessa área. 

Aprendizado 80 Execução 20 na análise de dados 

A área de dados é uma área voltada para processos contínuos de solução de problemas (problem solving). Como no Princípio de Pareto, a proporção de tempo dedicado ao estudo e treinamento pode ser muito superior à execução propriamente dita. É uma quebra de paradigma importante sobre como a gente deve olhar para esse tipo de trabalho. Por isso, se você gosta de iniciar atividades que tenham um fim previamente conhecido e com tudo planejado ao invés das incertezas, a área de análise de dados pode não ser a melhor escolha.  

Criatividade Gerenciada (gestão do conhecimento)

Análise de dados é um trabalho fundamentalmente criativo, porém ao mesmo tempo demanda autodisciplina. 

Os trabalhos de análise de dados são 99% digitais, salvo casos raros de visita a instalações e reuniões presenciais. Portanto, quanto mais bem documentados forem suas atividades criativas para solução de um problema analítico, mais valiosa é sua contribuição. A palavra “ciência” do termo “ciência de dados” faz referência aos processos científicos para se chegar ao resultado. 

Por outro lado, se você cria muita coisa mas não tem uma gestão eficiente e clara destas criações ou o hábito de documentar os caminhos realizados, fazer apresentações, relatórios e se expressar de uma forma baseada em fatos, provavelmente a análise de analytics pode não ser a melhor aposta. 

Curiosidade, Autodidatismo e Motivação

No mundo ideal, o trabalho demandaria um curso específico para cada desafio, mas os desafios analíticos raramente são iguais na vida real, o que torna impossível a publicação de cursos adequados para cada problema em tempo hábil. 

Para tratar de problemas analíticos, é necessário ser uma pessoa autodidata, curiosa por tecnologia e pelos comportamentos das coisas que estão sob análise, pois sem esse desejo pelo desconhecido, não faz sentido a investigação dos dados. 

Durante as fases de análise e dependendo da maturidade de analítica dos clientes ou do projeto, é absolutamente fundamental ter uma atitude positiva frente aos erros e falhas que normalmente acontecem. Essa postura contribui muito com o time para se chegar às melhores alternativas para cada problema.  

Trabalhar em times ágeis

É preciso gostar de trabalhar com diversas disciplinas e pessoas com diversas ideias, jeitos e até hábitos. A multidisciplinaridade que ocorre em projetos de dados é uma situação onde cada um pode agregar seus conhecimentos e habilidades ao todo. Por isso, busca-se um constante vórtex de conhecimento, onde tudo aquilo que é diferente trabalha junto, rumo a um objetivo único. 

Então, se o seu perfil é mais voltado para trabalhos individuais e/ou que não demandam grande quantidade de comunicação e empatia, provavelmente analytics não é uma área recomendada. 

Inglês como língua franca

Por último, mas não menos importante, está o conhecimento em inglês em todos os seus níveis. Mesmo que você não tenha planos de sair do país, a área de computação, sistemas de informação e Analytics são todas baseadas nesse idioma. Frequentemente, as primeiras publicações relevantes sobre cada tema são em inglês, além de grande parte das documentações. Por isso, estar apto a absorver conhecimentos novos é bastante importante. 

Se você não estiver disposto a enfrentar o ciclo de aprendizado rigoroso do idioma, esse será um ponto fraco na sua carreira profissional e isso estará sempre em evidência. Uma vez resolvido a questão do inglês, ele se tornará seu maior amigo e abrirá muitas portas a médio e longo prazo.  

Tenho o perfil para trabalhar com Análise de dados? – Conclusões

Bom, pessoal, com base em minha experiência de mais de 10 anos na ciência de dados, busquei trazer alguns pontos que considero importantes para quem está descobrindo área e tem interesse em encontrar seu lugar no mercado de trabalho. 

A área de dados mescla os verbos estudar e trabalhar, atividades que até então, nas outras fases da industrialização, eram facilmente separáveis. É de fato um mundo novo, com novas formas de trabalhar e que exige uma atenção especial ao perfil mais adequado para essa tarefa. Essa não é nem de perto uma atividade fácil tanto para quem contrata como para quem é contratado, por isso ficam aí algumas reflexões e o desejo de que tenham sucesso em suas escolhas, ou melhor “your choices”. Então, “Good Luck, folks”.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Planejamento estratégico de IA e Analytics: conceito e impactos

Planejamento estratégico de IA e Analytics: conceito e impactos

Os benefícios e os impactos positivos do uso de dados e sobretudo da inteligência artificial já são uma realidade no mercado brasileiro em áreas que vão desde precificação dinâmica na educação, a previsão de faltas em agendamentos médicos,  a previsão de quebra de equipamentos e até o monitoramento do mercado de reposição de autopeças. No entanto, para se colher esses benefícios, as organizações necessitam alcançar um nível de maturidade analítica adequada para cada desafio. 

Neste artigo, vamos falar sobre o que é o Planejamento Estratégico de IA e Analytics, quais as características dos cenários que demandam este tipo de projeto dentro da jornada de Transformação Digital das empresas em direção à Indústria 4.0.

O que é o planejamento estratégico de IA e Analytics? 

O planejamento estratégico de IA e Data Analytics é um projeto de caráter estruturante que combina um conjunto de atividades consultivas elaboradas (preferencialmente por equipes com uma visão externa da organização) para o levantamento de cenários, mapeamento de processos analíticos, elaboração de ativos digitais (sistemas e bancos de dados e outros) a fim de auferir os diferentes níveis de maturidade analítica dos times, dos departamentos e da organização como um todo. 

Como resultado, chega-se às definições compartilhadas da visão, missão, valores, políticas, estratégias, planos de ações e boas práticas de governança de dados para alavancar o nível de maturidade analítica da organização no menor tempo e custo possível.  (Quais são os 5 níveis de maturidade analítica?

Sintomas de cenários de baixa maturidade analítica

Embora existam muitos tipos de negócios, produtos e serviços no mercado, apresentamos, aqui, padrões emergentes que ajudam a caracterizar o problema da maturidade analítica das empresas e que podem gerar reflexões interessantes:

  1. Atualmente, é possível saber quais iniciativas de analytics (análises de dados) já aconteceram e quais ainda estão acontecendo? Além disso, quem são os responsáveis? E quais foram os resultados? 
  2. Nas iniciativas analíticas, é possível saber quais dados foram utilizados e até reproduzir a mesma análise? 
  3. As análises de dados acontecem de forma aleatória, espontânea e isoladas nos departamentos? 
  4. É possível visualizar todos os ativos de dados ou datasets disponíveis para gerar análises?
  5. Existem situações em que um mesmo indicador aparece com valores diferentes dependendo do departamento em que é feita a análise? 
  6. Existem dicionários de dados analíticos definidos? 
  7. Qual é o stack tecnológico analítico
  8. Projetos estruturantes de data analytics estão sendo contemplados no planejamento estratégico?

Outros problemas comuns

Identidade organizacional

Cenários com baixa maturidade analítica não apresentam problemas na qualidade de dados de forma isolada. Normalmente, existem problemas sistêmicos que envolvem a complexidade de processos de negócio, o nível de capacitação dos times, processos de gestão do conhecimento e, por fim, as escolhas das tecnologias da operação do ERP, CRM, SCM e como esses sistemas transacionais se relacionam. 

Questões de segurança

As empresas são organismos vivos que evoluem constantemente com pessoas atuando em diferentes áreas. Assim, com o passar do tempo, perde-se o controle dos níveis de acesso de cada colaborador fazendo com que pessoas não autorizadas tenham acesso a informações sensíveis e também o inverso, quando pessoas não conseguem acesso aos dados que precisam para seu trabalho. 

Excesso de planilhas e duplicidades

As planilhas são uma das ferramentas mais úteis e importantes da gestão e por isso estão sempre auxiliando em diversos processos. O grande efeito colateral do uso excessivo de planilhas é a manutenção do conhecimento de cada processo. Quando existem duas ou mais pessoas e o volume de informações e atualizações começam a crescer se torna difícil gerenciar o conhecimento que trafega em blocos com as planilhas. Além disso, muitas duplicidades acontecem e tornam praticamente impossível consolidar dados com segurança e em grande volume.

Mais sobre as limitações das planilhas neste outro artigo

Quais os benefícios do planejamento estratégico de IA e Analytics?

Espera-se de uma gestão data-driven que os dados forneçam não apenas desenhos e rascunhos das condições da operação ou do mercado, mas uma fotografia em alta resolução da realidade presente e futura. Assim, fornece subsídios para o planejamento estratégico corporativo de curto, médio e longo prazo com os seguintes ganhos: 

  • Prontidão processual e tecnológica para projetos de data lakes e laboratórios de Advanced Analytics e IA. 
  • Aumento da intensidade de aplicação de técnicas científicas aos negócios, por exemplo: análises comparativas, simulações de cenários, identificação de padrões de comportamento, previsão de demanda e outros.
  • Aumento da veracidade das informações.
  • Segurança de acesso a informações em diferentes níveis.
  • Aceleração dos processos de onboarding (entrada de novos membros dos times), que por sua vez aprenderam mais rapidamente sobre o cenário de trabalho, como também começam a se comunicar de forma mais eficiente.  
  • Maior enriquecimento de dados a partir do aumento da interação de equipes de diferentes setores para desafios analíticos. 
  • Maior visibilidade das operações de analytics, organização para localizabilidade, acessibilidade, interoperabilidade e reutilização de ativos digitais. 
  • Plano de mudança otimizado para Governança Corporativa orientada a dados.
  • Incorporação da mentalidade Analítica e de IA em diferentes setores. 
  • Homogeneização das políticas e controles de dados.

Planejamento estratégico de IA e Analytics – Conclusões e recomendações 

A elaboração de um planejamento estratégico de IA e Analytics é um passo importante para se atingir o nível de governança de dados que permita o uso intensivo de analytics e inteligência artificial nas operações, uma vez que a alta taxa de insucesso de projetos analíticos estão ligadas à baixa qualidade de dados, de processos e até do correto uso das tecnologias (capacitação).   

Projetos estruturantes, como o planejamento estratégico de IA e Analytics são, ou pelo menos deveriam ser, o primeiro passo na jornada de transformação digital das empresas tradicionais. Por isso, temos a convicção de que no futuro toda empresa de sucesso terá uma ideia clara e compartilhada (visão, missão e valores) do que os dados significam para ela e para o seu modelo de negócio, em contraste aos investimentos em tecnologia de dados pura e simplesmente por conta da concorrência.  

Acreditamos que o foco em dados orquestrados (arrumados e sincronizados) se refletirá em quase todas as áreas, por exemplo: na gama de serviços, nos modelos de receitas, nos principais recursos, processos, estruturas de custos, em sua cultura corporativa, seu foco em clientes e redes, e em sua estratégia corporativa. 

Por último, mas não menos importante, vale apontar que, para que uma estruturação de sucesso aconteça, deve-se ter uma abordagem holística de longo prazo. Isso significa investimentos em tecnologia, pessoas e processos otimizados a fim de permitir o crescimento contínuo dos negócios. 

Como a Aquarela vem atuando

A Aquarela Analytics vem desenvolvendo novas tecnologias e modelos de negócios baseados em dados em uma visão de que a quantidade e disponibilidade desses dados continuará crescente. Assim, levará os negócios a outros patamares de otimização.

O que fazemos especificamente para empresas:

  • Analisamos ecossistemas corporativos geradores de dados;
  • Determinamos a maturidade analítica. Além disso, derivamos campos de ação para organizações e serviços baseados em dados;
  • Desenvolvemos e avaliamos serviços baseados em dados;
  • Identificamos e estimamos o potencial dos dados para modelos de negócios futuros;
  • Desenhamos processos de transformação digital com base científica e orientamos sua integração organizacional.

Mais informações em: www.aquare.la/projetos-estruturantes/

Gostou do artigo? Então, deixe o seu comentário.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

Como a indústria chegou até as simulações industriais com IA?

Como a indústria chegou até as simulações industriais com IA?

A Inteligência Artificial, criada na década de 60, vem evoluindo ao longo dos anos, mas somente agora se tornou uma tendência tecnológica. Os programas de Inteligência Artificial (IA) e aprendizado de máquina estão sendo utilizados em diversas áreas e fazem parte do nosso dia-a-dia, desde uma simples rede social ao nosso crédito bancário. Além disso, são empregados em soluções para a indústria. 

Atualmente, existem algoritmos e sistemas capazes de descobrir novas fórmulas químicas e novos materiais pela análise das características físico/químicas e biológicas. Eles também são utilizados, por exemplo, em modelos financeiros de precificação dinamizados e na virtualização de sensores que identificam o ponto ótimo de ignição do motor e até mesmo atuam no controle autônomo de veículos e robôs diversos.

Este artigo descreve a evolução dos métodos de simulação utilizados para criação de ativos para a indústria, desde a sua origem até os gêmeos digitais (Digital Twins), com apoio de Inteligência Artificial, visando à indústria 4.0.

A construção das máquinas artesanais

Desde as primeiras versões das máquinas de tecelagem, a humanidade procurou construir equipamentos que acelerassem o processo de produção da manufatura. Neste caminho, os artífices criaram seus aparatos desconstruindo o processo 100% manual em componentes ou operações unitárias, a fim de sistematizar o processo e obter um melhor resultado final na produção de um determinado item.

Segundo o escocês Adam Smith, o ganho imediato deste, então novo modelo, permitiu dividir tarefas e alocar trabalhos e pessoas em um processo de produção ampliado. Assim, a separação do trabalho, tanto entre homens como entre máquinas, gerou um aumento significativo da produtividade e a redução nos custos de produção.  

Como efeito colateral, por outro lado, este novo modelo diminuiu a capacidade de customização dos produtos dado a pouca liberdade no processo produtivo.

Do ponto de vista dos consumidores da época, menos exigentes, a decisão era relativamente simples:  

  • Ter um produto genérico a um custo acessível (manufaturado) ou 
  • algo personalizado a um custo e tempo muito alto (artesanal). 

A ciência, o raciocínio lógico e a curiosidade foram a base da mecanização e formação da primeira indústria. Nesse ambiente, sempre existiram cientistas/engenheiros (formados ou não) que estudavam e experimentavam a natureza dos insumos do processo, as combinações das peças, seja do produto final ou da construção das máquinas. Seus ensaios sempre foram bastante artesanais, guiados pela intuição e experiência de vida em um eterno ciclo de tentativa e erro.

As principais características desse período são:  

  • Separação do trabalho artesanal individual para processos em grupo.  
  • Produtos com custo de produção mais baixos em vista a quantidade produzida. 
  • Produtos com baixa personalização. 
  • Forte dependência de conhecimento tácito dos cientistas criadores das máquinas.
  • Matérias-primas pouco otimizadas para o processo produtivo.
  • Modelo de simulação e testes da produção 100% empíricos, alguns desenhados em papel. 

As novas dimensões a partir de simuladores

O início da computação surgiu da necessidade de decifrar mensagens cifradas do inimigo. Era uma máquina de calcular que logo foi aperfeiçoada para simular/calcular a rota de um míssil. Com o tempo, os computadores foram se modernizando e então seu acesso foi popularizado.

As simulações também avançaram para auxiliar nos afazeres do nosso dia-a-dia: desde uma simples planilha de cálculo do orçamento de casa, por exemplo, até grandes simulações computacionais para encontrar novos tipos de elementos em átomos e novas estrelas no espaço. 

Em simples termos, podemos dizer que as simulações geradas a partir da digitalização ou virtualização de experimentos nos permitem trabalhar as perguntas do tipo “SE” 

  • Se eu pagar mais agora, como ficará a conta daqui a 3 anos? 
  • Se a largura for um pouco menor, terá espaço para o outro móvel? 
  • Se aumentar a temperatura em X, o que acontecerá com Y e Z? 
  • Se aumentar o preço do produto X, qual a probabilidade de ganho de market share? 

Podemos citar muitos exemplos de simulações computacionais determinísticos e/ou estocásticos que podemos chamar também de virtualizações e seus impactos, mas vamos nos ater a alguns básicos. 

Simulação Financeira

Atualmente, uma simples planilha nos permite simular um investimento e imaginar como será o futuro financeiro (valor das parcelas) a partir de algumas definições do cenário atual. Na imagem abaixo, está um exemplo de simulação de financiamento.

Fonte: Guia do excel

Muitos outros tipos de simulações básicas podem ser feitas em planilha. Muitas empresas globais de investimento ainda utilizam programação em Excel (VBA) para simulações mais avançadas e até investimentos na bolsa de valores. Anteriormente, escrevemos um artigo falando sobre O futuro das análises financeiras com a IA com alguns exemplos de simulações.

Simulações Estatísticas (Monte Carlo)

Em termos simples, uma simulação de Monte Carlo é um método estatístico para grandes amostras de dados aleatórios, atualmente utilizada em análise de risco e também para descobrir novas fases cristalinas em materiais. 

As empresas investem em simulações de Monte Carlo antes de implementarem um grande projeto ou mudança em um processo, como uma linha de montagem de manufatura, por exemplo. 

Construída em modelos matemáticos, as análises de Monte Carlo usam os dados empíricos das entradas e saídas do sistema real (por exemplo, entrada de suprimento e rendimento de produção). Em seguida, identificam incertezas e riscos potenciais por meio de distribuições de probabilidade.

Possíveis simulações este método são: 

A vantagem de uma simulação baseada em Monte Carlo é que ela fornece resultados não apenas do que pode acontecer em certas condições, como também mostra as probabilidades de que elas venham a acontecer, além de mostrar quais os fatores com maior impacto no resultado da análise. 

Uma demonstração bastante didática do funcionamento da simulação de Monte Carlo pode ser vista aqui

É possível implementar simulações de Monte Carlo para praticamente qualquer setor ou campo, incluindo petróleo e gás, manufatura, engenharia, gerenciamento da cadeia de suprimentos e muitos outros. 

Como principal desvantagem das simulações de Monte Carlo está a alta complexidade de desenho dos experimentos para cada cenário de negócio, o que demanda uma estruturação antecipada da análise. Então, para isso, recomendamos a utilização do Business Canvas Analytics, disponível gratuitamente. 

Simulações Tridimensionais

A partir da digitalização, hoje já é possível fazer desenhos que replicam a realidade e permitem desenhos 100% virtuais. Nesta área de modelagem 3D, podem ser criados ambientes, móveis, modelos de peças, máquinas completas e assim por diante. 

As simulações em 3D permitem planejar um ambiente e até visitá-lo virtualmente antes de investir nos móveis ou mudanças estruturais de um imóvel, por exemplo. 

Na figura abaixo, utilizamos o simulador Sweethome3d para virtualizar um ambiente que supostamente precisaria de mais claridade e espaço interno. Ajustamos algumas configurações e, em poucos minutos de processamento, temos um novo cenário que então poderá ser avaliado e validado pelo cliente. 

Simulação | Fonte: autores

As simulações digitais promovem um grande salto no nível de customização de projetos, redução de custos e tempo, mas vamos a algumas de suas limitações que demandam:

  • Grande poder computacional. 
  • Grande conhecimento técnico das ferramentas e noções de física.
  • Análises combinatórias para cada cenário baseadas na experiência do designer projetista e limitada apenas até 3 ou 4 dimensões.

Simulações Multi Físicas

As simulações computacionais vão além de ambientes com móveis, pintura, tipo de piso, etc. Por exemplo, hoje existem diversos fornecedores de softwares que permitem simular o fluxo de material polimérico em um processo de injeção, estimar o calor emanado no processo de queima de combustível em um foguete e até mesmo simplificar o formato de uma peça (otimização topológica) de forma integrada a sistemas do tipo:

Discretização de elementos finitos, tensões e deformações de um aro de roda em uma análise estrutural

Design do carro, em movimento, em relação aos gases externos.

É possível, até mesmo, estimar via simulações os efeitos dinâmicos que as peças sofrem durante o processo de fabricação. Assim, nesse tipo de simulação, é possível combinar mais de um fenômeno físico e estudar como acontece a união e a interação dessas condições. 

Por exemplo, é possível estudar o aumento de calor em um transformador submetido a um campo elétrico e como o campo magnético atua nessa combinação. Apesar de ser uma grande ferramenta que permite ganhar tempo e reduzir custos, existem diversas limitações, citaremos algumas abaixo:

  • A digitalização é uma simplificação do mundo real.
  • Os sistemas não estão preparados para simular novos materiais (usam tabela conhecida de materiais).
  • Não é possível / impraticável computacionalmente simular interação entre as moléculas do material nesse modelo.
  • Simulações de grande peças ou máquinas tomam muito tempo computacional.
  • Requer grande capacidade/infraestrutura computacional.
  • Resultados são aproximações da realidade. 
  • Complexidade matemática para resolver a solução multifísica.

Acoplamento de Simulações – Digital Twin

A combinação de simulações tridimensionais com multi-físicas permite um elevado grau de complexidade e oportuniza resultados mais precisos. Isso possibilita, a partir do desenho da peça ou do equipamento em 3D, simular fenômenos complexos em processo estacionário ou dinâmico, contribuindo, assim, para a criação de um digital twin, ou seja, um gêmeo digital da peça ou do equipamento original. 

“Os digitais twin permitem uma redução importante nos custos de desenvolvimento, nos testes e na produção final”. 

Por meio deles, é possível testar grande parte das variáveis de um processo sem gastar com matéria-prima e com grande redução de mão-de-obra direta. Essa técnica já é aplicada em diversos setores, por exemplo: na construção de motores a combustão, equipamentos subsea de O&G e até mesmo em cidades inteiras, simulando saneamento básico, rede elétrica, tráfego de carros, fluxo de pacientes em um hospital, etc.

Simulações na Indústria – Conclusões e recomendações

Como vimos, as simulações evoluíram com a indústria, apresentando diversas oportunidades e limitações.

Os projetos de digitalização, como o de simuladores, são uma grande área a ser explorada, sobretudo onde há uma grande complexidade de dados e requisitos de homologação dos clientes que, por sua vez, demandam produtos cada vez mais especializados e otimizados.

Os impactos da evolução (sofisticação) das simulações no processo de desenvolvimento inteligente de produtos trazem novas dimensões para a indústria, por exemplo: redução de tempo e de custo; e aumento da qualidade do resultado final de cada item manufaturado, seja ele um novo material baseado em novas regras físico/químicas.

A inteligência artificial, por sua vez, é uma grande tendência no mercado, pois permite encontrar padrões em grande volume de dados de ensaios técnicos e simulações virtualizadas. 

As novas gerações de softwares de simulação terão que incorporar cada vez mais IA (Como escolher o melhor fornecedor de IA?) a fim de poder aprender a ler as entrelinhas das decisões de design, levando à descoberta de conexões complexas (combinações) em sistemas que ainda não são evidentes ao olho humano ou mesmo possíveis de encontrar a partir de simuladores estáticos.  

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

   

Send this to a friend