O impacto da computação quântica na ciência e segurança de dados

O impacto da computação quântica na ciência e segurança de dados

Antes de mais nada, para entender o que é a computação quântica e como um computador quântico vai (possivelmente) impactar as nossas vidas no futuro, precisamos compará-lo com um computador clássico, e compreender como ele processa os dados.

Computador clássico e portas lógicas

Um computador clássico opera com bits, ou seja, unidades binárias de memória que podem receber valores 0 ou 1. Toda a informação, inclusive cada caractere e pixel de luz que está chegando aos seus olhos agora, está armazenado em algum dispositivo eletrônico (no seu computador ou na nuvem) na forma destes bits. Mais especificamente, eles podem ser processados por meio de portas lógicas, ou seja, estruturas físicas ou um sistema que recebe um conjunto destes bits e retornam um outro bit, 1 se a condição for satisfeita ou 0 se não o for. Na área de programação, chamamos essas funções de operadores Booleanos (nome dado devido aos estudos de George Boole, que publicou trabalhos importantíssimos em lógica algébrica).

De maneira resumida, existem 8 tipos de portões lógicos que são utilizados para se construir um computador universal da forma que conhecemos hoje. Isto é, nossos celulares, laptops, SmartTV’s e calculadoras de bolso utilizam circuitos que possuem esses portões em sua construção.  Cada portão possui um símbolo e retorna um bit diferente com base nos bits de entrada. Caso tenha curiosidade em saber mais, aqui está um material bem explicativo sobre o assunto. Algoritmos computacionais, transcritos de maneira física em nossas placas-mãe, memórias e processadores, utilizam diferentes combinações destas portas lógicas para processar dados e informações. Esse é o segredo da computação clássica. 

Ok, mas onde entra a computação quântica, e o que ela tem de tão diferente pra empresas investirem bilhões no seu desenvolvimento?

Computação quântica

O termo “quantum” foi cunhado por Max Planck ainda no início do séc. XX para descrever a energia da radiação que deixou de ser apresentada de forma contínua, e agora precisava ser “quantizada”, ou seja, dividida em pequenos pedaços ou pacotes para que a teoria concordasse com o experimento em algumas áreas da física. Dito isso, a principal diferença está justamente na forma que um processador quântico opera os seus bits de dados.

Na verdade, um computador quântico opera com o que convencionou-se chamar de Qubits, e sua principal (e drástica) diferença é que um Qubit consegue armazenar valores de 0, de 1 e também uma mistura, chamada de superposição, de dois estados 0 e 1. Este terceiro estado, que é uma consequência direta da física quântica (parte da física que estuda sistemas muito pequenos, na escala atômica), é o que possibilita que se crie novas portas lógicas, além das 8 descritas acima, e que algoritmos de computação quântica sejam tão poderosos.

Fonte: https://towardsdatascience.com/the-need-promise-and-reality-of-quantum-computing-4264ce15c6c0

Em outras palavras, portas clássicas operam com bits clássicos, que armazenam apenas 0 e 1, enquanto que portas quânticas operam bom Qubits, que, além dos estados 0 e 1, possuem propriedades adicionais que são superposição e entrelaçamento.

Superposição

Acredito que a forma mais difundida de explicar o fenômeno da superposição seja o experimento mental do Gato de Schroedinger. Verdade seja dita, o Prof. Schroedinger, à época, pensou nesse experimento como um contraexemplo para demonstrar que a interpretação corrente da mecânica quântica não fazia sentido. Anos se passaram e a história do gato vivo e morto agora é usada como camiseta de calouros de cursos de física no mundo todo.

Sem me alongar demais, a questão é a seguinte: A física quântica é descrita matematicamente por meio de uma série de equações diferenciais. Estas equações, que descrevem estados físicos e outras propriedades da matéria, possuem mais de uma solução satisfatórias e que descrevem bem alguns experimentos. Acontece que, matematicamente falando, se uma equação diferencial dessas possui uma solução A, que descreve por exemplo a posição de um elétron; e uma solução B, diferente de A, é possível demonstrar que A e B são uma solução, ao mesmo tempo, para aquela equação. E é aqui que, ao meu ver, começa toda a confusão. A interpretação corrente mais aceita hoje para essas equações é que a partícula existe num estado de superposição, ou seja, no estado A e B ao mesmo, entretanto colapsa para um ou outro, quando uma medida é realizada. 

Entrelaçamento

Bom, como se não bastasse a estranheza do conceito de superposição, algumas partículas ainda apresentam um conceito sujeitado a esse, que é o entrelaçamento. Quando um par de partículas é criado, elas dividem algumas propriedades em comum. De certa maneira, é como se aquela mesma solução A & B valesse para as duas ao mesmo tempo, mesmo que estejam a km de distância uma da outra. Em alguns casos, o entrelaçamento combinado com a superposição significa que quando você medir a solução A e colapsar o estado de superposição da primeira partícula, a segunda, automaticamente, (o que Einstein chamou de ‘Efeito fantasmagórico a distância) colapsará para o estado B sem que seja preciso fazer medida nenhuma (lembre-se que, para colapsar um estado de superposição, é necessário que se faça a medida e no caso do entrelaçamento, a medida precisa ser feita em apenas uma das partículas entrelaçadas).

Não se preocupe se os conceitos acima parecem confusos. São mesmo. Físicos no mundo todo ainda discutem se as interpretações da mecânica quântica têm alguma implicação mais fundamental na nossa realidade do que correntemente aceita. Entretanto, isso não impede de que os resultados da mecânica quântica possam ser utilizados nas mais diversas aplicações. E aqui nós voltamos para a computação quântica. 

Funcionamento do computador quântico

Da mesma forma que computadores clássicos podem ser construídos bit a bit, com transistores e os portões lógicos que mostrei anteriormente, um computador quântico é montado Qubit a Qubit, com portas quânticas que operam estes Qubits e permitem fazer todos os cálculos que um computador comum faria (e muito mais), em teoria. Na prática, a construção e manutenção de um computador quântico é uma tarefa laboriosa, já que os Qubits só mantêm suas propriedades quânticas em condições muito específicas, como baixíssimas temperaturas, próxima do zero absoluto, e isolados de qualquer fonte de perturbação externa. 

IMB cunhou um termo chamado de volume quântico, que expressa de certo modo o número de Qubits num processador quântico versus a taxa de erro. É uma medida de capacidade computacional. Em outras palavras, se o erro nas medidas quânticas persiste, mesmo que na casa dos milésimos, de nada adianta aumentar o número de Qubits. A capacidade computacional só aumentaria de fato quando o erro fosse menor que 1 milionésimo, mas de toda forma as duas coisas precisam caminhar juntas. 

Desafios da computação quântica

Por mais maravilhoso entusiasmado possamos ficar com as notícias de supremacia quântica atingida por algum supercomputador ao redor do mundo, devemos ter cautela em entender que existem também muito mitos por aí e, mais importante que isso, muito desenvolvimento para ser realizado tanto em engenharia quanto em sistemas para esses computadores. Um deles diz respeito ao “paralelismo quântico”, ou seja, um computador quântico poderia realizar várias operações em paralelo e devolver a melhor resposta para um problema específico.

Por mais que de fato um computador quântico possa lhe fornecer a melhor solução para um problema complexo de maneira exponencialmente mais rápida que um computador clássico, a maneira com que ele faz isso se deve intrinsecamente às leis da mecânica quântica, da qual não temos uma compreensão completa, ainda. Michael Nielsen, autor de um dos livros mais citado nesta área, afirma que se houvesse uma explicação simples para como um computador quântico funciona, então isso poderia ser simulado num computador clássico. Mas, se isso pudesse ser de fato simulado num computador convencional, então não seria um modelo acurado de um computador quântico, já que computadores quânticos, por definição, não operam de forma convencional. 

Sendo assim, o aspecto crucial da computação quântica reside na forma que os Qubits estão organizados em portas lógicas quânticas, as quais possuem ainda uma propriedade diferente das portas clássicas, que é a reversibilidade. Isto é, cada porta quântica possui uma espécie de mecanismo que permite acessar valores anteriores, o que não é possível, ainda, na computação convencional. Podemos entender com isso que computadores quânticos não perdem a informação que é processada.

Matrizes de Pauli

Quase toda a física quântica pode ser expressada na forma matricial. Assim, teoricamente, podemos descrever os Qubits como vetores e os portões na forma de matrizes. Um portão pode operar mais de 1 Qubit ao mesmo tempo. Se esse for o caso, este portão será representado por uma matriz 2×2. Estes portões que operam em Qubits únicos por vez são conhecidos como portões (ou matrizes) de Pauli, em homenagem ao físico Wolfgang Pauli, que tem contribuições importantíssimas na mecânica quântica. 

Um exemplo de fácil entendimento é o portão X de Pauli, que opera de maneira semelhante ao portão NOT da computação convencional. 

Fonte: https://towardsdatascience.com/demystifying-quantum-gates-one-qubit-at-a-time-54404ed80640

Dizemos X pois os Qubits podem ser orientados nas três direções espaciais (X, Y, Z), e existe uma matriz de Pauli para operar em cada uma dessas direções. Além do portão de Pauli, talvez outro dos mais importantes que operam em Qubits únicos seja a porta de Hadamard. Sua principal função é transformar um Qubit de estado bem definido (0 ou 1) na tal superposição de estados quânticos.

Computação quântica na atualidade

Não entrarei em detalhe quanto à mecânica de cada portão quântico, mas vale dizer que, assim como na computação convencional, diferentes combinações de portões lógicos quânticos, em teoria, podem ser utilizadas para se criar um computador universal. Entretanto, você já deve ter ouvido falar de computadores quânticos em operação. Essas máquinas, apesar de já alegarem a resolução de problemas centenas de vezes mais rápido que um supercomputador clássico, ainda não são equipamentos universais, e seus chips são criados para resolver uma única tarefa. Não se tem notícia, até a data de escrita deste artigo, de nenhuma empresa que tenha criado um chip de computação quântica universal, porém houve avanços e, atualmente, empresas com a IBM possuem em seus laboratórios de desenvolvimento chips com mais de 100 Quibits em operação, mas com a finalidade de resolução de tarefas e cálculos específicos. 

Outra coisa que vale ressaltar é que estes computadores quânticos em operação são máquinas gigantescas, que ocupam salas, e talvez andares inteiros para que se mantenham em funcionamento.

Decoerência

O fenômeno que assombra processadores quânticos do mundo todo é a decoerência. Nos melhores computadores quânticos de propósito único, ela acontece após alguns poucos segundos em operação, e se deve principalmente na dificuldade de se manter os Qubits em seus estados iniciais e em superposição. Aliás, a decoerência é o principal motivo de não observarmos fenômenos quânticos no nosso mundo macroscópico. Se subirmos pouquíssimas ordens de grandeza em questão de quantidade de partículas, temperatura, ou tamanho, a decoerência entra em ação e todo o sistema volta a se comportar de acordo com a velha e boa física clássica. Entretanto, se lembrarmos que o ENIAC, o primeiro computador universal, também ocupava uma sala inteira, e considerarmos que a lei de Moore também valerá para processadores quânticos, podemos ser promissores em admitir que em algumas décadas teremos capacidade computacional quântica real para aplicações nas mais diversas áreas.

Computação quântica e aplicações

Mesmo com apenas algumas dezenas de Qubits, processadores quânticos universais já seriam capazes de superar a capacidade computacional atual em alguns problemas específico, como a modelagem molecular, essencial para a fabricação de novos fármacos e estudo de doenças, problemas de otimização de rotas e processos e categorização de números primos. Este último aspecto, é talvez o que deixa muitos gerentes de segurança da informação com pesadelos durante a noite. 

Acontece que a maioria dos algoritmos de encriptação e desencriptação de dados hoje funcionam com chaves baseadas em números primos. Sendo assim, um computador quântico universal poderia, em teoria, obter uma chave de desencriptação em questão de segundos. Os melhores firewalls e sistemas de criptografia seriam quase que transparentes para um computador quântico universal com algumas centenas de Qubits. A principal razão para isso é a forma que processadores quânticos processam os dados.

Segurança de dados

Considere um exemplo de um banco de dados com 1 bilhão de linhas, onde cada linha contém um nome. Para fazer uma busca nesse banco, um computador convencional (desconsiderando algoritmos de otimização) checa nome por nome daquela lista, até encontrar o resultado desejado. Dito de maneira bem simples, num computador quântico esta lista poderia estar armazenada num estado de superposição usando os Qubits,  então a “query” seria aplicada de forma a colapsar esta lista para o nome desejado na busca, com uma única operação. Com este simples exemplo já podemos ver a gritante diferença na performance dos computadores quânticos comparados com os convencionais, e muito mais ainda pode ser feito e está em desenvolvimento enquanto você lê este artigo. 

Porém, já existem formas de gestores se defenderem quando a supremacia quântica for atingida de fato. Desde a segunda metade do séc. XX, existem algoritmos de criptografia quântica que utilizam outras propriedades (esquisitas) da física quântica em benefício próprio. Um exemplo seria o (famoso) caso de Alice e Bob. Se Alice envia uma mensagem criptografada quanticamente para Bob, Bob pode saber se a mensagem foi interceptada, pois uma leitura por um terceiro feita à mensagem enviada por Alice alteraria os Qubits enviados de forma significativa. Isso ocorre, pois, estados em superposição, como disse, são alterados ou colapsados quando é feita uma medida. Acredito ser desnecessário dizer que o cenário real é infinitamente mais complexo que esse que apresentei, mas este exemplo foi só para ressaltar que nem tudo está perdido quanto à segurança da informação quando (ou se) os primeiros computadores quânticos universais estiverem disponíveis.

Computação quântica – Considerações finais

Para terminar, devo ressaltar que, apesar de ainda parecer um futuro distante, a computação quântica já está posta no mercado e deve movimentar bilhões de dólares nos próximos anos. Eu acredito que ainda veremos o paradigma da computação quântica ser quebrado e todas as implicações que isso irá trazer.

Mesmo que não compreendamos ainda 100% todos os aspectos da física quântica, ainda assim já a utilizamos há mais de um século em diversos dispositivos eletrônicos. Como comentei no artigo anterior, a miniaturização dos transistores só foi possível graças a cálculos de mecânica quântica. Portanto, não compreender completamente o que se passa dentro da caixa preta, que são as portas lógicas quânticas, não irá impedir a indústria de investir e utilizar essa tecnologia quando estiver pronta.

Existem ainda muitos desafios, seja no desenvolvimento de novos materiais, construção de hardware, algoritmos de programação, desenvolvimentos de sistemas etc. Entretanto, é bom estarmos preparados para as mudanças, principalmente num mundo mais e mais dependente do processamento de dados, pois com toda certeza o mundo vai mudar quando esse processamento crescer de maneira exponencial com o advento da supremacia quântica.

Leia também: Internet Tátil

Referências:

https://towardsdatascience.com/demystifying-quantum-gates-one-qubit-at-a-time-54404ed80640

https://towardsdatascience.com/the-need-promise-and-reality-of-quantum-computing-4264ce15c6c0

https://www.ibm.com/quantum-computing/

https://ai.googleblog.com/2019/10/quantum-supremacy-using-programmable.html

https://www.quantamagazine.org/the-era-of-quantum-computing-is-here-outlook-cloudy-20180124/

https://www.techtarget.com/searchsecurity/definition/quantum-cryptography#:~:text=Quantum%20cryptography%20is%20a%20method,secret%20key%20can%20decrypt%20it.
https://tecnoblog.net/especiais/joao-brunelli-moreno/eniac-primeiro-computador-do-mundo-completa-65-anos/

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Aplicações de IA na Ciência

Aplicações de IA na Ciência

Em um conto do escritor Isaac Asimov, existe uma IA tão avançada que consegue resolver as equações da mecânica quântica e da relatividade geral; e projetar uma nave de dobra espacial (tipo aquelas do Star-Wars) e esta mesma IA a constrói, utilizando uma espécie de impressão 3D com auxílio de robôs. Por mais utópico que possa parecer esse futuro, aplicações de IA na ciência de ponta vêm crescendo tanto (impulsionados também pela indústria) que não é mais tão difícil imaginar tais feitos como deve ter sido para o Asimov ainda na década de 50.

O desenvolvimento da ciência básica é importante não apenas para responder questões fundamentais da natureza e de interesse da humanidade, como também impulsiona o desenvolvimento de novas tecnologias das quais o uso prático ainda nem existe. Sendo assim, motivados em grande parte pela sua popularização na indústria 4.0, o uso de algoritmos de ML e IA vêm favorecendo o avanço de áreas na pesquisa básica de uma forma que ainda nem podemos prever as repercussões dos estudos que estão sendo feitos neste instante. (Afinal, quem diria, no início do séc. XX, que algo tão teórico quanto a física quântica fosse nos levar a uma revolução digital, graças à miniaturização dos transistores?)

IA na ciência básica

Dentre os principais usos da IA na ciência básica, podemos destacar algumas aplicações na física, química e biologia. Porém, adianto que, nos últimos anos, devido à popularização dos algoritmos e à capacidade de processamento computacional, tais aplicações tornaram-se inúmeras nas mais diversas áreas da atividade humana.

Aplicações de ML na física de partículas

O Grande Colisor de Hádrons (LHC, na sigla em inglês), localizado na fronteira da França com a Suíça, é a maior máquina já construída pelo homem. Tem um formato de um anel com 27km de circunferência e seu propósito principal é compreender a estrutura básica da matéria em seu estado mais fundamental.

No LHC, e em institutos de pesquisa que colaboram com o CERN (Organização Europeia para a Pesquisa Nuclear, instituição que administra o LHC), são armazenados, processados e analisados 15 petabytes de dados por ano (não é à toa que foi no CERN que nasceu o protocolo WWW, ainda no século passado, para o compartilhamento dos dados dos primeiros colisores construídos lá). Isso se deve, em grande parte, ao sistema de “gatilhos” (triggers) que seleciona ainda no nível de hardware apenas 200 dos quase 1 bilhão de eventos de interesse por segundo que o acelerador produz quando está ligado. Por isso, em suas últimas atualizações, os grupos de pesquisa vinculados ao CERN vêm testando e aprimorando algoritmos de Machine Learning para selecionar eventos de interesse em todos os níveis de triggers do LHC.

Além de reduzir o custo de processamento e armazenamento dos dados, o processamento com IA evita falhas humanas e intensifica as chances de um evento apresentar uma reação nunca antes vista (vale lembrar que o bóson de Higgs, descoberto em 2012, foi verificado em alguns poucos eventos de trilhões que foram previamente analisados). Atualmente, devido à sua riqueza e complexidade, os conjuntos de dados abertos do LHC são reanalisados por grupos de pesquisa do mundo todo, que podem testar e desenvolver seus próprios sistemas de análise.

O Laboratório Nacional de Luz Síncrotron (LNLS), vinculado ao Centro Nacional de Pesquisa em Energia e Materiais, opera no Brasil um dos maiores aceleradores do mundo, capazes de produzir luz síncrotron, radiação que, segundo as palavras do próprio site da instituição, “pode ser utilizada para investigar a composição e a estrutura da matéria em suas mais variadas formas, com aplicações em praticamente todas as áreas do conhecimento”. Todo o projeto do SIRIUS, além de fomentar o desenvolvimento da tecnologia e inovação nacional desde a planta, promove treinamentos e investe na capacitação de cientistas para que estes possam usar IA e ML para analisar os dados provenientes do experimento, principalmente na representação gráfica dos dados experimentais.

Recentemente, foi publicado um artigo que utilizou dados do experimento para investigar a estrutura interna e a síntese proteica do vírus SARS-CoV-2, estudo importantíssimo para entender possíveis mecanismos de ação contra o vírus que ainda podem ser desenvolvidos.

Aplicações de IA na astrofísica

Outra aplicação interessante que fez avançar mais um pouco a compressão humana sobre a natureza foi o uso da IA para reconstruir a primeira imagem de um buraco negro. A conhecida “foto” do buraco negro que circulou em todas as mídias foi fruto de “toneladas” de dados, cuidadosamente adquiridos, armazenados e processados.

O Prêmio Nobel de física de 2020 foi dividido entre três pesquisadores pelas suas contribuições na descoberta e caracterização de propriedades de buracos negros. Nesse contexto, a primeira foto de um buraco negro, divulgada naquele mesmo ano, foi fruto da coleta de dados provenientes de 8 telescópios espalhados pelo globo (incluindo um na América do Sul e outro na Antártica).

Dito de maneira simples, o algoritmo de IA responsável por recriar a imagem foi alimentado durante anos com os dados destes telescópios que estavam apontados para o centro de uma galáxia a cerca de 50 milhões de anos luz da nossa. Como cada telescópio só via “uma parte” do centro da galáxia, foi preciso usar IA para reconstruir a imagem. Para verificar se o algoritmo não estava apenas reproduzindo aquilo que eles queriam ver, o time responsável no MIT, liderado por Katie Bouman, treinou a mesma IA com diferentes conjuntos de imagens. O resultado foi surpreendente. Quando alimentada com dados dos telescópios, todas as IA convergiam para reconstruir a mesma imagem do buraco negro no centro da galáxia M87.

Diferentes conjuntos de treino criam a mesma imagem do buraco negro. Fonte: TED talk by Katie Bouman 

Uso de IA na estabilização de fusão nuclear

Outro uso interessante de IA, que pode vir a ter implicações de médio prazo em nossas vidas, é o uso de aprendizagem de máquina para controlar um reator de fusão nuclear.

A fusão nuclear é o combustível pelo qual as estrelas (incluindo o nosso Sol) produzem tanta energia. Se dominada pelo homem (ou por uma IA), ela seria capaz de gerar muito mais energia que Itaipu, a maior usina hidrelétrica do planeta. Claro que este ainda é um cenário hipotético, afinal os reatores de fusão atuais ainda enfrentam diversos problemas, tanto na sua construção quanto na manutenção em atividade. Um desses desafios, especialmente em reatores do tipo Tokamak, é manter o plasma de hidrogênio (estado da matéria onde os átomos estão totalmente ionizados) estável, já que para isso é necessário controlar e ajustar vários parâmetros do campo magnético dentro do reator.

A reação de fusão precisa ocorrer em uma câmara de vácuo no interior do reator, e este campo é ao mesmo tempo responsável por fundir os átomos de hidrogênio quanto de evitar com que o plasma ultra-aquecido (que pode chegar a temperaturas mais elevadas que a do núcleo solar) entre em contato com a parede do reator, o que levaria a sérios acidentes.

Pensando nisso, a empresa DeepMind desenvolveu um algoritmo de ML que aprende com os dados obtidos do reator um ajuste ótimo de todos os parâmetros para que se controle o campo magnético interno do processo de fusão. Recentemente, o uso desta IA, ainda em estado de desenvolvimento, conseguiu manter a fusão ativa por 2 segundos no reator do Instituto Federal Suíço de Tecnologia em Lausanne. Esse reator é de testes e foi projetado para manter uma fusão por no máximo 3s, porém o recorde mundial é de um grupo no Reino Unido, que conseguiu manter uma fusão por 5 s, mas ainda com o auxílio de um operador humano.

Sensoriamento remoto e monitoramentos de queimadas

Temos também uma aplicação interessante de IA em solo brasileiro. É o caso do INPE (Instituto Brasileiro de Pesquisas Espaciais), que coleta dados de queimadas e desmatamento na floresta amazônica desde 1984. Nesta época, a coleta ainda era feita utilizando computadores com sistema operacional DOS, e o processamento das imagens era feito num poderoso PC-XT com processador de 4,7 MHz, 32 KB de memória e um HD de 20 MB (verdade seja dita, nada mal para a época).

O primeiro mapa de queimadas na Amazônia foi lançado em parceria com a NASA em 1996. Desde então, existem satélites polares e geoestacionários que coletam dados diariamente da floresta e que são disponibilizados de forma gratuita na plataforma TerraBrasilis, mantida pela instituição.

Dito isso, podemos perceber que esta série temporal de dados que o INPE possui é valiosíssima, e possibilita fazer diversos estudos com aplicação de ML e DL. A principal vantagem desse tipo de análise é combinar os dados das séries temporais do INPE com dados recentes de nano satélites, de altíssima resolução, para fazer regressões, monitoramento e previsão quanto ao bem-estar da maior floresta tropical do mundo. Segundo Lucas Fonseca, CEO da Airvantis, uma empresa de pesquisa espacial, um cenário ideal seria o financiamento de uma startup para desenvolver uma metodologia baseada em inteligência artificial para poder analisar as imagens obtidas em grande quantidade e combiná-las com os dados do INPE.

Emprego de técnicas IA na produção de vacinas e edição genômica

Por fim, a aplicação de IA na Ciência vai além. Sabemos que técnicas de IA foram amplamente utilizadas para investigar o vírus causador da Covid-19 e, principalmente, no desenvolvimento de vacinas.

Dave Johnson, chefe de dados e Inteligência Artificial da Moderna, comenta que graças à automação robótica e algoritmos de IA, eles passaram de 30 para cerca de mil testes com mRNA por mês, com muito mais consistência e qualidade nos resultados. Além disso, ele ainda comenta que outro uso importante no laboratório foi para síntese de proteínas, que, devido à sua complexidade, podem ser construídas numa infinidade de combinações a partir de aminoácidos mais simples.

Graças à riqueza nos dados históricos do laboratório, hoje é possível que um cientista desenvolvendo uma sequência para um tratamento específico possa apenas clicar um botão e a IA retorne a melhor sequência para aquele procedimento. Ademais, técnicas de ML, associadas com procedimentos de edição genética como o CRISPR, já são aplicadas com terapias de gene na área médica e na agricultura para a produção de versões mais sustentáveis de maior rendimento e de alguns transgênicos já amplamente utilizados na indústria.

Leia também: Onde grandes empresas utilizam Inteligência Artificial?

Aplicações de IA na Ciência – Conclusão

Estamos passando por uma nova revolução industrial, e no meio do turbilhão de novos conceitos, aplicações e novas tecnologias, ainda é difícil saber exatamente quais os rumos que a Indústria 4.0 irá tomar. Não obstante, já podemos entrever alguns dos benefícios do uso de IA na Ciência e de análise avançada de processos, não só no terceiro setor, agregando valor em produtos e serviços, como também motivados por governos e instituições de pesquisa básica, em todas as esferas do conhecimento humano, que veem na cultura de dados oportunidades de fazer a vela no escuro da ciência brilhar um pouco mais.

Gostou de saber mais sobre os usos de IA na Ciência? Deixe seu comentário.

Referências:

http://revistaquestaodeciencia.com.br/dossie-questao/2019/11/08/como-os-incendios-amazonicos-sao-medidos-do-espacohttps://www.lnls.cnpem.br/news/first-study-published-with-data-collected-on-sirius/

https://deepaksingh-rv.medium.com/the-ai-behind-getting-the-first-ever-picture-of-a-black-hole-c483e8eb6a21

https://deepmind.com/blog/article/Accelerating-fusion-science-through-learned-plasma-control

https://home.cern/news/news/physics/speeding-machine-learning-particle-physics

http://revistaquestaodeciencia.com.br/dossie-questao/2019/11/08/como-os-incendios-amazonicos-sao-medidos-do-espaco

https://sloanreview.mit.edu/audio/ai-and-the-covid-19-vaccine-modernas-dave-johnson/

https://www.lhc-closer.es/taking_a_closer_look_at_lhc/0.lhc_data_analysis

https://pubmed.ncbi.nlm.nih.gov/34161210/

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor