Inteligência Artificial e as Energias Renováveis

Inteligência Artificial e as Energias Renováveis

A crescente demanda de energia ao longo das últimas décadas, à nível mundial, tem exposto cada vez mais a ineficiência do sistema de geração centralizada de energia elétrica, que consiste na utilização de poucas unidades geradoras produzindo energia para muitos consumidores.

Desta forma, as Energias Renováveis têm ganhado muito espaço e popularidade como uma alternativa para geração de energia elétrica combinadas com fontes limitadas, além de auxiliar na redução do impacto ambiental. 

A geração de energia elétrica realizada por consumidores independentes ou próximos a eles, denominada Geração Distribuída (GD), vem ganhando cada vez mais protagonismo e tem se mostrado uma forma de geração promissora.

Otimização de sistemas de geração de Energias Renováveis

Diante do advento da utilização das energias renováveis, se fez necessário o desenvolvimento de técnicas e modelos para otimização destes sistemas, mais especificamente eólica/solar, com intuito de diminuir o impacto da sua utilização no sistema elétrico e os tornar cada vez mais eficientes. 

Assim, as plantas de geração de energias renováveis vêm sendo amplamente digitalizadas de modo a evitar a subutilização da capacidade instalada, falhas indesejadas nos subsistemas, desligamentos não-programados da usina e perda na receita total.

Portanto, inúmeras pesquisas vêm sendo realizadas direcionando a aplicação de modelos de Inteligência Artificial na otimização de sistemas de geração de energias renováveis, onde pode-se destacar: otimização de sistemas híbridos eólico-solar, otimização de turbinas eólicas, desenvolvimento de células solares mais eficientes entre outros.

Mas onde, de fato, a Inteligência Artificial pode ser aplicada no contexto das Energias Renováveis?

Em praticamente todos. A Inteligência Artificial pode ser aplicada desde o monitoramento e detecção de falhas em equipamentos e sistemas à métodos de gestão, administração e economia das plantas de geração de energias renováveis. Entre algumas de suas aplicações, podemos citar:

Monitoramento de desempenho da usina

A Inteligência Artificial pode desempenhar um papel importante no monitoramento da usina, principalmente através do acompanhamento em tempo real, que permite um melhor controle na produção de energia e previsões de demanda mais eficientes. Como, por exemplo, no controle de pás de aerogeradores e de bases de painéis fotovoltaicos.

Gerenciamento da Rede 

O aumento do número de dispositivos eletrônicos, veículos elétricos e equipamentos elétricos que necessitam ser carregados, leva a um aumento considerável na demanda de energia e, tal fator, pode ocasionar um transtorno no sistema elétrico. 

A Inteligência Artificial pode ser claramente aplicada de modo a prever este crescimento na demanda e controlar o fluxo de energia, tornando a rede mais flexível e sem sobrecarga.

Informativo de manutenção preditiva ou preventiva  

Uma usina geradora de energia eólica/solar é composta de inúmeros equipamentos. A instalação de sensores nestes equipamentos geram dados que podem ser analisados por algoritmos de Inteligência Artificial, identificando potenciais riscos e possibilitando estabelecer prazos para manutenção ou substituição do equipamento antes que o mesmo venha a falhar e levar ao desligamento não-programado na usina geradora.

Economia de custos 

A aplicação de métodos de Inteligência Artificial otimiza os sistemas de energias renováveis e os torna mais confiáveis e mais vantajosos na opção de geração por meio destas fontes. Além disso, a previsão de energia eficiente faz com que as redes operem com a carga adequada à demanda, otimizando assim a produção e o consumo de energia, gerando redução de custos e aumento na receita para as empresas. 

Conclusão – Inteligência Artificial e as Energias Renováveis

A Inteligência Artificial apresenta-se como uma ferramenta poderosa no contexto das Energias Renováveis. Tendo em vista que a digitalização das usinas gera muitos dados, mas que nem sempre significam informações. 

Logo, a análise correta destes dados combinadas com a aplicação de modelos inteligentes permitem que as empresas operadoras possam tomar decisões conscientes e eficazes, além de reduzir custos e ter uma administração mais otimizada no processo de geração de energia.

Quem é a Aquarela Analytics?

A Aquarela Analytics é vencedora do Prêmio CNI de Inovação e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial),  Auren (energia), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Telefônica Vivo (Telecomunicações), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal!

Autor

Importância da Seleção de Atributos em Modelos de Machine Learning

Importância da Seleção de Atributos em Modelos de Machine Learning

Quando trabalhamos com um conjunto de dados, podemos extrair diversos atributos dos mesmos. No contexto da ciência de dados, um atributo consiste em uma propriedade ou característica da entidade que está sendo analisada

Por exemplo, diante de um conjunto de dados relacionados ao clima, podemos encontrar atributos como temperatura, umidade, pressão atmosférica, condições meteorológicas, entre outros. 

A seleção de atributos, ou Feature Selection, consiste na obtenção de um subconjunto de dados a partir de um conjunto original, visando extrair conhecimento dos dados e, ao mesmo tempo, reduzir a complexidade e a dimensionalidade do problema. 

A evolução da seleção de atributos

Entre as décadas de 60 e 70, a etapa de seleção de atributos era feita, muitas vezes, de forma manual, baseada apenas no conhecimento puro do especialista, o que tornava o processo muito mais sujeito a erros.

Com o surgimento dos modelos de Machine Learning (Aprendizado de Máquina), na década de 80, a seleção de atributos se tornou uma parte crucial do pré-processamento de dados. Nesse contexto, várias técnicas foram desenvolvidas para a seleção de atributos, incluindo as técnicas baseadas em filtros, wrappers e embedded.

Em projetos de Big Data, a seleção de atributos pode ser ainda mais importante, pois a quantidade de dados disponíveis pode ser gigante, aumentando a complexidade do problema. Ademais, muitos desses dados podem ser irrelevantes. Nesse sentido, a seleção de atributos, caso aplicada, pode melhorar a qualidade da análise dos dados e tornar o resultado dos modelos mais preciso.

Importância da seleção de atributos

A seleção de atributos é uma das etapas mais importantes do pré-processamento de dados e tem o objetivo de preparar os dados antes de serem aplicados em modelos de Machine Learning

Em projetos de Machine Learning, busca-se tirar conclusões a partir de uma base de dados para auxiliar no processo de tomada de decisão. Para tal propósito, são traçados alguns objetivos como: agrupar, identificar padrões ou projetar valores futuros. Por meio da seleção de atributos, esses objetivos podem ser alcançados de maneira acelerada e otimizada.

Embora uma base de dados possa apresentar diversos atributos, às vezes apenas alguns deles podem estar relacionados ao problema em si. É possível que haja redundância, de modo que não há necessidade de incluir todos os dados na modelagem; e interdependência, em que dois ou mais atributos transmitem informações fortemente dependentes entre si.

As técnicas de seleção de atributos englobam atividades de identificação e remoção de informações irrelevantes ou redundantes. Isso reduz a dimensionalidade dos dados e pode permitir que algoritmos de aprendizagem operem com maior rapidez, reduzindo o tempo de treinamento e aumentando a eficiência do modelo.

Outra vantagem da seleção de atributos é melhorar a precisão dos modelos, uma vez que os atributos irrelevantes podem contribuir para o ruído e para a ocorrência de overfitting, diminuindo a acurácia dos modelos. 

A seleção de atributos ainda é capaz, em alguns casos, de aumentar a interpretabilidade dos dados, tendo em vista que a partir de um número reduzido de atributos, é mais fácil entender as relações entre os mesmos e as variáveis de interesse.

Técnicas de seleção de atributos

Na etapa de pré-processamento dos dados, a seleção de atributos pode ser implementada por meio de diversas técnicas, cada uma com as suas características. Algumas das principais técnicas são as seleções baseadas em filtro, wrapper e embedded.

1. Seleção baseada em filtro (Filter-based selection):

Trata-se de uma das técnicas mais populares, em que todo o processo é realizado previamente, o que demanda baixo custo computacional. A seleção por filtro utiliza métricas estatísticas para avaliar a relevância dos atributos com a variável de interesse. 

Dessa forma, são selecionadas aquelas que apresentam maior grau de correlação ou dependência. Algumas métricas comumente utilizadas na avaliação são o teste qui-quadrado, a correlação de Pearson.

A figura a seguir (FIGURA 1)  ilustra o funcionamento da seleção baseada em filtro:

FIGURA 1 - Seleção de Atributos
FIGURA 1

Avaliar a correlação entre atributos é crucial na análise de dados, uma vez que evita a multicolinearidade entre os atributos. É possível dizer que variáveis fortemente correlacionadas representam a mesma informação e, portanto, não é preciso utilizá-las em conjunto.
O coeficiente de correlação de Pearson é capaz de identificar a correlação linear entre os atributos de entrada de um modelo. A figura a seguir (FIGURA 2) mostra um exemplo de um mapa de calor com os coeficientes de correlação de Pearson entre cinco atributos (var1, var2, var3, var4 e var5) com a variável alvo (target).

FIGURA 2 - Seleção de Atributos
FIGURA 2

O coeficiente expressa numericamente se duas sequências de números estão positivamente correlacionadas, não correlacionadas ou negativamente correlacionadas. Quanto mais próximo de 1 for o módulo do coeficiente de Pearson, mais fortemente correlacionadas estão as variáveis. Todavia, quanto mais próximo de 0, mais fracamente correlacionados linearmente estão os atributos.

No exemplo acima, os atributos “var2” e “var4” apresentam uma correlação linear alta, com coeficiente de Pearson de 0.96. Utilizar os dois atributos para encontrar a variável “target” pode representar uma redundância, pois esses atributos podem contribuir com praticamente a mesma informação. Esse pode ser um critério para a eliminação de atributos redundantes. 

Por outro lado, ao avaliar a correlação linear dos atributos com a variável “target” percebe-se que os atributos “var1”, “var3” e “var” apresentam maior correlação linear com a variável de interesse. Atribuir um valor “threshold” (limite) pode ser um critério de escolha utilizado pelo cientista de dados para selecionar os atributos mais relevantes para o modelo.

Embora o coeficiente de Pearson analise a correlação linear entre dados numéricos, quando se trata de atributos categóricos, uma das técnicas de seleção por filtro mais recomendada é o teste qui-quadrado. O teste qui-quadrado calcula a diferença entre a distribuição observada dos dados e a distribuição que seria esperada caso não houvesse relação entre as variáveis categóricas. 

Quando se tem um alto valor de qui-quadrado (p-value baixo), significa que há uma evidência estatística para inferir que os valores observados e esperados não são equivalentes. Nesse caso, portanto, as variáveis apresentam um grau de dependência entre si.

2. Seleção baseada em embrulho (Wrapper-based selection):

A Seleção baseada em wrapper, ou embrulho, é uma técnica de seleção de atributos que utiliza um modelo de aprendizado de máquina para avaliar a importância de cada subconjunto de atributos. Ao contrário das técnicas de seleção por filtro, as técnicas de seleção baseadas em wrapper apresentam alto custo computacional. Todavia, em geral essas técnicas podem levar a uma seleção de atributos mais precisa. 

Para dar início a seleção, essas técnicas criam múltiplos subconjuntos de atributos e avaliam a importância de cada um na performance do modelo, selecionando aqueles que obtiveram o melhor desempenho. 

Uma desvantagem da seleção por wrapper está no fato de que seu resultado depende do modelo utilizado para avaliação dos atributos e pode levar ao overfitting

A Figura a seguir (FIGURA 3) mostra um fluxograma da metodologia utilizada pela seleção por wrapper. No método wrapper, um modelo de Machine Learning inicial é utilizado para avaliar o desempenho de diferentes subconjuntos de atributos. O melhor subconjunto é selecionado baseado no modelo com melhor performance.

FIGURA 3 - wrapper-based selection
FIGURA 3

3. Seleção por métodos de incorporação (Embedded selection):

Outra técnica que utiliza modelos de Machine Learning para realizar escolher os atributos mais importantes é a seleção baseada em embedded (incorporação). A principal diferença em relação a seleção por wrapper está no momento em que a seleção de atributos é feita.

Enquanto na abordagem por wrapper um modelo de Machine Learning é utilizado para avaliar a importância dos atributos após a seleção de um subconjunto de atributos, na abordagem por embedded, a seleção é realizada diretamente no processo de treinamento do modelo. A figura a seguir (FIGURA 4) ilustra o funcionamento da seleção baseada em embedded.

FIGURA 4  - embedded selection
FIGURA 4

Os métodos embarcados são implementados por algoritmos que apresentam seu próprio método de seleção de atributos. Alguns métodos como a regressão Lasso e Ridge são capazes de selecionar os atributos mais relevantes de maneira automática ainda no processo de treinamento. Esses métodos têm o objetivo de lidar com o problema de multicolinearidade, em que há alta correlação entre os atributos de entrada. 

Os algoritmos de regressão Lasso e Ridge utilizam algumas funções de penalização. Na regressão Lasso, uma penalização é adicionada pelo valor absoluto dos coeficientes dos atributos. O objetivo é forçar alguns dos coeficientes a serem iguais a zero, o que leva a uma seleção automática de atributos. 

Já na regressão Ridge, a penalização se resume a uma restrição à soma dos quadrados dos coeficientes dos atributos. O objetivo do último método é reduzir a magnitude dos coeficientes, evitando a ocorrência de overfitting.

Conclusão – Importância da Seleção de Atributos em Modelos de Machine Learning

A seleção de atributos é uma etapa do pré-processamento de dados muito importante em diversas aplicações. Dentre suas vantagens, pode-se destacar a melhoria na acurácia e eficiência dos modelos; redução da complexidade e facilidade na interpretabilidade dos dados

Ao longo do texto foram apresentadas algumas das principais técnicas de seleção de atributos, com destaque para as seleções por filtro, por wrapper e por embedded.

Os métodos baseados em filtro são computacionalmente eficientes e independentes dos modelos, porém ignoram as interações entre atributos e, em alguns casos, podem não identificar o subconjunto ótimo de variáveis. 

Os algoritmos de seleção por wrapper, por sua vez, analisam a interação entre atributos e podem identificar o subconjunto ótimo para um modelo específico. Porém são métodos computacionalmente caros e sujeitos a ocorrência de overfitting.

Por fim, as técnicas de seleção por embedded são indicadas para lidar com conjunto de dados de alta dimensão, com muitos atributos, podendo não lidar muito bem com amostras pequenas, além de depender da escolha dos parâmetros de regularização dos modelos implementados.

A melhor técnica vai depender da escolha particular do cientista de dados para um problema específico, sendo que cada uma das abordagens de seleção de atributos possui pontos positivos e negativos.

Quem é a Aquarela Analytics?

A Aquarela Analytics é vencedora do Prêmio CNI de Inovação e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial),  Auren (energia), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Telefônica Vivo (Telecomunicações), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal!

Autor

Digital Twins: simulação digital com IA

Digital Twins: simulação digital com IA

Cientistas do Laboratório de Pesquisa de Inteligência Artificial da Meta (Facebook), nos Estados Unidos, e do Laboratório de Engenharia e Modelagem Neuromecânica da Universidade de Twente, nos Países Baixos, desenvolveram um modelo de IA com o uso de Digital Twins (Gêmeos Digitais), denominado MyoSuite, capaz de replicar movimentos precisos e complexos do corpo humano.

A partir disso, abordaremos neste post os Digital Twins e os principais setores de aplicação dessa tecnologia, apresentando o funcionamento do MyoSuite e seus impactos na área da saúde.

O que são Digital Twins?

O Digital Twins, também conhecido como Gêmeos Digitais, são réplicas virtuais criadas com o objetivo de simular objetos ou pessoas do mundo real com a maior proximidade com a realidade. Essa tecnologia vem sendo aplicada em diversos setores, pois possui um alto nível de detalhamento e aplicabilidade. Assim, possibilita a execução de diversos testes em simulações, evitando que sejam desperdiçados recursos financeiros e vitais. São diversas as áreas que podem se beneficiar com essa tecnologia, por exemplo: Forças Armadas, medicina, perfuração de petróleo e eletrônica aplicada.

Digital Twins – MyoSuite

O uso da modelagem e simulações são essenciais para as tecnologias da saúde humana. Isso se deve à segurança, economia de recursos e à possibilidade de personalização de tratamentos.

Diante disso, o Laboratório de Pesquisa de Inteligência Artificial da Meta, em parceria com o Laboratório de Engenharia e Modelagem Neuromecânica da Universidade de Twente, desenvolveu o MyoSuite.

O sistema consiste em um conjunto de modelos e tarefas musculoesqueléticas que permitem a aplicação de Machine Learning para resolver problemas de controle biomecânico, não sendo apenas uma abordagem virtual com o uso de Digital Twins, mas também para a realização de simulações em dispositivos musculoesqueléticos que interagem fisicamente com exoesqueletos sofisticados.

MyoSuite simulando a ativação de tendões da mão direita. Imagem: Reprodução/Meta AI).

MyoSuite simulando a ativação de tendões da mão direita. Imagem: Reprodução/Meta AI).

Funcionamento do MyoSuite

Ademais, o sistema é uma ótima referência de desenvolvimento, devido aos modelos musculoesqueléticos aplicados ao MyoSuite apresentaram uma velocidade 4 mil vezes maior do que outros simuladores. Esse sistema tem um método de aprendizagem que permite a unificação de inteligência motora e neural.

O comportamento do corpo humano possui um alto grau de complexidade por existir uma grande quantidade de terminações nervosas, sistemas e detalhamentos na estrutura corporal. Portanto, a necessidade de um grau de conhecimento e precisão é essencial para a construção de um modelo aplicável para o ecossistema motor e neural de uma IA com alto grau de proximidade entre o real e o virtual. Outrossim, deve-se levar em consideração uma série de fatores biológicos que são importantes para a otimização do modelo “gêmeo” ao original.

O sistema desenvolvido é rico em detalhes e eficiente por possuir uma boa responsividade às perturbações e reações que possam eventualmente acontecer, tal como acontece com o nosso corpo naturalmente.

O MyoSuite é capaz de realizar a simulação de fenômenos biológicos, por exemplo: fadiga muscular, sarcopenia muscular, ruptura do tendão e reafirmação do tendão.

Com o avanço do desenvolvimento do sistema, o MyoSuite possui perspectivas para a simulações na robótica a fim de auxiliar na recuperação de pessoas debilitadas ou acidentes que causam alguma debilitação.

Ilustração de recuperação de modelo neuromotor. (Imagem: University of Twente, 2022)

Digital Twins – Considerações finais

O MyoSuite é um dos exemplos de avanço da IA no nosso cotidiano que soluciona problemas em que há poucos anos nem imaginávamos que seriam possíveis de resolvê-los de forma tão sofisticada. Desse modo, podemos ficar entusiasmados com o avanço desse sistema, pois os cientistas do Laboratório Meta pretendem desenvolver modelos virtuais de avatares que possam replicar movimentos mais realistas, sendo um ótimo salto para os entusiastas do Metaverso.

Fontes

  1. University of Twente.
  2. https://tech.fb.com/artificial-intelligence/2022/05/myosuite/

Quem é a Aquarela Analytics?

A Aquarela Analytics é vencedora do Prêmio CNI de Inovação e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial),  Auren (energia), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Telefônica Vivo (Telecomunicações), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal!

Autor

Aprendizado de máquina: subáreas e aplicações

Aprendizado de máquina: subáreas e aplicações

O termo “aprendizado de máquina”ou “machine learning” foi primeiramente usado por Arthur Samuel, em um artigo feito em 1959. Arthur definiu o aprendizado de máquina como “campo de estudo que dá aos computadores a habilidade de aprender sem serem explicitamente programados”.

O aprendizado de máquina pode ser dividido em três principais áreas de estudo, são elas: aprendizado supervisionado, aprendizado não-supervisionado e aprendizado por reforço, conforme pode ser observado na imagem abaixo, que também mostra áreas de aplicação de algoritmos de aprendizado de máquina.

representação do aprendizado de máquina

Aprendizado supervisionado

A área de aprendizado supervisionado é normalmente aplicada quando os dados a serem avaliados são classificados por meio de um rótulo e com isso o algoritmo consegue fazer previsões e procurar por padrões nos dados fornecidos. Dentre as principais aplicações de aprendizado supervisionado que usam modelos de classificação estão: detecção de fraudes, classificação de imagens, retenção de clientes e classificação de diagnósticos. Além disso, aplicam-se modelos de regressão nas áreas de Previsão, Predição, Precificação e Otimização de Processos. 

Veja também nossos textos sobre Previsão de Demanda, Precificação e Predição de falhas.

Aprendizado não supervisionado

O aprendizado não supervisionado é aplicado quando não se sabe o que o dado representa, ou seja, o dado não tem um rótulo para que seja analisado. Normalmente usado para fazer agrupamentos, ele é capaz de descrever uma estrutura de dados complexa, podendo assim descobrir padrões ocultos sem a intervenção humana. Aplicações como: Alvo de Marketing, Segmentação de Clientes e Sistemas de Recomendação estão ligadas com modelos de clusterização. Além disso, o aprendizado não supervisionado engloba modelos de redução dimensional que possuem aplicações como visualização de Big Data, Compreensão Significativa, Descoberta de estruturas e Elicitação de Recursos.

Aprendizado por reforço

A terceira área é o aprendizado por reforço. O termo “reforço” explicita o funcionamento do método por meio da recompensa, ou pontuação, a qual a inteligência artificial ganha após cada ação. O algoritmo se ajusta para melhor atender o objetivo, visando assim maximizar essa pontuação. Comumente, utiliza-se o aprendizado por reforço em jogos, aprendizado de tarefas, decisões em tempo real e também em navegação de robôs.

Aprendizado de máquina – Considerações finais

Neste artigo, abordamos o aprendizado de máquina, suas principais áreas de estudo – aprendizado supervisionado, aprendizado não-supervisionado e aprendizado por reforço – e algumas de suas aplicações.

A Aquarela Analytics está sempre buscando novos conhecimentos e aplicações para problemas, ampliando assim nosso kit de ferramentas para superarmos os obstáculos apresentados com excelência.

Leia também: Como os modelos estatísticos se aplicam no Machine Learning

Gostou do artigo? Então deixe o seu comentário.

Quem é a Aquarela Analytics?

A Aquarela Analytics é vencedora do Prêmio CNI de Inovação e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial),  Auren (energia), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Telefônica Vivo (Telecomunicações), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal!

Autor

Aplicações de IA na Ciência

Aplicações de IA na Ciência

Em um conto do escritor Isaac Asimov, existe uma IA tão avançada que consegue resolver as equações da mecânica quântica e da relatividade geral; e projetar uma nave de dobra espacial (tipo aquelas do Star-Wars) e esta mesma IA a constrói, utilizando uma espécie de impressão 3D com auxílio de robôs. Por mais utópico que possa parecer esse futuro, aplicações de IA na ciência de ponta vêm crescendo tanto (impulsionados também pela indústria) que não é mais tão difícil imaginar tais feitos como deve ter sido para o Asimov ainda na década de 50.

O desenvolvimento da ciência básica é importante não apenas para responder questões fundamentais da natureza e de interesse da humanidade, como também impulsiona o desenvolvimento de novas tecnologias das quais o uso prático ainda nem existe. Sendo assim, motivados em grande parte pela sua popularização na indústria 4.0, o uso de algoritmos de ML e IA vêm favorecendo o avanço de áreas na pesquisa básica de uma forma que ainda nem podemos prever as repercussões dos estudos que estão sendo feitos neste instante. (Afinal, quem diria, no início do séc. XX, que algo tão teórico quanto a física quântica fosse nos levar a uma revolução digital, graças à miniaturização dos transistores?)

IA na ciência básica

Dentre os principais usos da IA na ciência básica, podemos destacar algumas aplicações na física, química e biologia. Porém, adianto que, nos últimos anos, devido à popularização dos algoritmos e à capacidade de processamento computacional, tais aplicações tornaram-se inúmeras nas mais diversas áreas da atividade humana.

Aplicações de ML na física de partículas

O Grande Colisor de Hádrons (LHC, na sigla em inglês), localizado na fronteira da França com a Suíça, é a maior máquina já construída pelo homem. Tem um formato de um anel com 27km de circunferência e seu propósito principal é compreender a estrutura básica da matéria em seu estado mais fundamental.

No LHC, e em institutos de pesquisa que colaboram com o CERN (Organização Europeia para a Pesquisa Nuclear, instituição que administra o LHC), são armazenados, processados e analisados 15 petabytes de dados por ano (não é à toa que foi no CERN que nasceu o protocolo WWW, ainda no século passado, para o compartilhamento dos dados dos primeiros colisores construídos lá). Isso se deve, em grande parte, ao sistema de “gatilhos” (triggers) que seleciona ainda no nível de hardware apenas 200 dos quase 1 bilhão de eventos de interesse por segundo que o acelerador produz quando está ligado. Por isso, em suas últimas atualizações, os grupos de pesquisa vinculados ao CERN vêm testando e aprimorando algoritmos de Machine Learning para selecionar eventos de interesse em todos os níveis de triggers do LHC.

Além de reduzir o custo de processamento e armazenamento dos dados, o processamento com IA evita falhas humanas e intensifica as chances de um evento apresentar uma reação nunca antes vista (vale lembrar que o bóson de Higgs, descoberto em 2012, foi verificado em alguns poucos eventos de trilhões que foram previamente analisados). Atualmente, devido à sua riqueza e complexidade, os conjuntos de dados abertos do LHC são reanalisados por grupos de pesquisa do mundo todo, que podem testar e desenvolver seus próprios sistemas de análise.

O Laboratório Nacional de Luz Síncrotron (LNLS), vinculado ao Centro Nacional de Pesquisa em Energia e Materiais, opera no Brasil um dos maiores aceleradores do mundo, capazes de produzir luz síncrotron, radiação que, segundo as palavras do próprio site da instituição, “pode ser utilizada para investigar a composição e a estrutura da matéria em suas mais variadas formas, com aplicações em praticamente todas as áreas do conhecimento”. Todo o projeto do SIRIUS, além de fomentar o desenvolvimento da tecnologia e inovação nacional desde a planta, promove treinamentos e investe na capacitação de cientistas para que estes possam usar IA e ML para analisar os dados provenientes do experimento, principalmente na representação gráfica dos dados experimentais.

Recentemente, foi publicado um artigo que utilizou dados do experimento para investigar a estrutura interna e a síntese proteica do vírus SARS-CoV-2, estudo importantíssimo para entender possíveis mecanismos de ação contra o vírus que ainda podem ser desenvolvidos.

Aplicações de IA na astrofísica

Outra aplicação interessante que fez avançar mais um pouco a compressão humana sobre a natureza foi o uso da IA para reconstruir a primeira imagem de um buraco negro. A conhecida “foto” do buraco negro que circulou em todas as mídias foi fruto de “toneladas” de dados, cuidadosamente adquiridos, armazenados e processados.

O Prêmio Nobel de física de 2020 foi dividido entre três pesquisadores pelas suas contribuições na descoberta e caracterização de propriedades de buracos negros. Nesse contexto, a primeira foto de um buraco negro, divulgada naquele mesmo ano, foi fruto da coleta de dados provenientes de 8 telescópios espalhados pelo globo (incluindo um na América do Sul e outro na Antártica).

Dito de maneira simples, o algoritmo de IA responsável por recriar a imagem foi alimentado durante anos com os dados destes telescópios que estavam apontados para o centro de uma galáxia a cerca de 50 milhões de anos luz da nossa. Como cada telescópio só via “uma parte” do centro da galáxia, foi preciso usar IA para reconstruir a imagem. Para verificar se o algoritmo não estava apenas reproduzindo aquilo que eles queriam ver, o time responsável no MIT, liderado por Katie Bouman, treinou a mesma IA com diferentes conjuntos de imagens. O resultado foi surpreendente. Quando alimentada com dados dos telescópios, todas as IA convergiam para reconstruir a mesma imagem do buraco negro no centro da galáxia M87.

Diferentes conjuntos de treino criam a mesma imagem do buraco negro. Fonte: TED talk by Katie Bouman 

Uso de IA na estabilização de fusão nuclear

Outro uso interessante de IA, que pode vir a ter implicações de médio prazo em nossas vidas, é o uso de aprendizagem de máquina para controlar um reator de fusão nuclear.

A fusão nuclear é o combustível pelo qual as estrelas (incluindo o nosso Sol) produzem tanta energia. Se dominada pelo homem (ou por uma IA), ela seria capaz de gerar muito mais energia que Itaipu, a maior usina hidrelétrica do planeta. Claro que este ainda é um cenário hipotético, afinal os reatores de fusão atuais ainda enfrentam diversos problemas, tanto na sua construção quanto na manutenção em atividade. Um desses desafios, especialmente em reatores do tipo Tokamak, é manter o plasma de hidrogênio (estado da matéria onde os átomos estão totalmente ionizados) estável, já que para isso é necessário controlar e ajustar vários parâmetros do campo magnético dentro do reator.

A reação de fusão precisa ocorrer em uma câmara de vácuo no interior do reator, e este campo é ao mesmo tempo responsável por fundir os átomos de hidrogênio quanto de evitar com que o plasma ultra-aquecido (que pode chegar a temperaturas mais elevadas que a do núcleo solar) entre em contato com a parede do reator, o que levaria a sérios acidentes.

Pensando nisso, a empresa DeepMind desenvolveu um algoritmo de ML que aprende com os dados obtidos do reator um ajuste ótimo de todos os parâmetros para que se controle o campo magnético interno do processo de fusão. Recentemente, o uso desta IA, ainda em estado de desenvolvimento, conseguiu manter a fusão ativa por 2 segundos no reator do Instituto Federal Suíço de Tecnologia em Lausanne. Esse reator é de testes e foi projetado para manter uma fusão por no máximo 3s, porém o recorde mundial é de um grupo no Reino Unido, que conseguiu manter uma fusão por 5 s, mas ainda com o auxílio de um operador humano.

Sensoriamento remoto e monitoramentos de queimadas

Temos também uma aplicação interessante de IA em solo brasileiro. É o caso do INPE (Instituto Brasileiro de Pesquisas Espaciais), que coleta dados de queimadas e desmatamento na floresta amazônica desde 1984. Nesta época, a coleta ainda era feita utilizando computadores com sistema operacional DOS, e o processamento das imagens era feito num poderoso PC-XT com processador de 4,7 MHz, 32 KB de memória e um HD de 20 MB (verdade seja dita, nada mal para a época).

O primeiro mapa de queimadas na Amazônia foi lançado em parceria com a NASA em 1996. Desde então, existem satélites polares e geoestacionários que coletam dados diariamente da floresta e que são disponibilizados de forma gratuita na plataforma TerraBrasilis, mantida pela instituição.

Dito isso, podemos perceber que esta série temporal de dados que o INPE possui é valiosíssima, e possibilita fazer diversos estudos com aplicação de ML e DL. A principal vantagem desse tipo de análise é combinar os dados das séries temporais do INPE com dados recentes de nano satélites, de altíssima resolução, para fazer regressões, monitoramento e previsão quanto ao bem-estar da maior floresta tropical do mundo. Segundo Lucas Fonseca, CEO da Airvantis, uma empresa de pesquisa espacial, um cenário ideal seria o financiamento de uma startup para desenvolver uma metodologia baseada em inteligência artificial para poder analisar as imagens obtidas em grande quantidade e combiná-las com os dados do INPE.

Emprego de técnicas IA na produção de vacinas e edição genômica

Por fim, a aplicação de IA na Ciência vai além. Sabemos que técnicas de IA foram amplamente utilizadas para investigar o vírus causador da Covid-19 e, principalmente, no desenvolvimento de vacinas.

Dave Johnson, chefe de dados e Inteligência Artificial da Moderna, comenta que graças à automação robótica e algoritmos de IA, eles passaram de 30 para cerca de mil testes com mRNA por mês, com muito mais consistência e qualidade nos resultados. Além disso, ele ainda comenta que outro uso importante no laboratório foi para síntese de proteínas, que, devido à sua complexidade, podem ser construídas numa infinidade de combinações a partir de aminoácidos mais simples.

Graças à riqueza nos dados históricos do laboratório, hoje é possível que um cientista desenvolvendo uma sequência para um tratamento específico possa apenas clicar um botão e a IA retorne a melhor sequência para aquele procedimento. Ademais, técnicas de ML, associadas com procedimentos de edição genética como o CRISPR, já são aplicadas com terapias de gene na área médica e na agricultura para a produção de versões mais sustentáveis de maior rendimento e de alguns transgênicos já amplamente utilizados na indústria.

Leia também: Onde grandes empresas utilizam Inteligência Artificial?

Aplicações de IA na Ciência – Conclusão

Estamos passando por uma nova revolução industrial, e no meio do turbilhão de novos conceitos, aplicações e novas tecnologias, ainda é difícil saber exatamente quais os rumos que a Indústria 4.0 irá tomar. Não obstante, já podemos entrever alguns dos benefícios do uso de IA na Ciência e de análise avançada de processos, não só no terceiro setor, agregando valor em produtos e serviços, como também motivados por governos e instituições de pesquisa básica, em todas as esferas do conhecimento humano, que veem na cultura de dados oportunidades de fazer a vela no escuro da ciência brilhar um pouco mais.

Gostou de saber mais sobre os usos de IA na Ciência? Deixe seu comentário.

Referências:

http://revistaquestaodeciencia.com.br/dossie-questao/2019/11/08/como-os-incendios-amazonicos-sao-medidos-do-espacohttps://www.lnls.cnpem.br/news/first-study-published-with-data-collected-on-sirius/

https://deepaksingh-rv.medium.com/the-ai-behind-getting-the-first-ever-picture-of-a-black-hole-c483e8eb6a21

https://deepmind.com/blog/article/Accelerating-fusion-science-through-learned-plasma-control

https://home.cern/news/news/physics/speeding-machine-learning-particle-physics

http://revistaquestaodeciencia.com.br/dossie-questao/2019/11/08/como-os-incendios-amazonicos-sao-medidos-do-espaco

https://sloanreview.mit.edu/audio/ai-and-the-covid-19-vaccine-modernas-dave-johnson/

https://www.lhc-closer.es/taking_a_closer_look_at_lhc/0.lhc_data_analysis

https://pubmed.ncbi.nlm.nih.gov/34161210/

Quem é a Aquarela Analytics?

A Aquarela Analytics é vencedora do Prêmio CNI de Inovação e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial),  Auren (energia), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Telefônica Vivo (Telecomunicações), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal!

Autor