A essa altura é muito provável que você já tenha se deparado com alguma aplicação que lhe pareceu quase que miraculosa com o uso de alguma inteligência artificial (IA), seja a geração de uma lista de compras de supermercado de maneira automatizada, ou imagens ultra complexas e detalhistas a partir de frases simples ditadas num prompt.
Seja qual for a aplicação, o aperfeiçoamento do processamento de linguagem natural (PLN) por softwares cada vez mais sofisticados, ou seja, aqueles ‘códigos’ que usamos no dia a dia, como “Bom dia!”, “Você está bem?” ou ainda “Consegue me enviar aquele arquivo?”, com certeza desempenhou um grande papel nisso.
Dos assistentes pessoais à escrita de código
Em anos recentes, vimos assistentes pessoais como a Alexa desempenharem um papel já quase rotineiro nas tarefas do dia a dia. Aplicativos como o “Google Tradutor” passaram a não mais fazer traduções literais e sem sentido, mas sim entregar contexto e até mesmo sugestões precisas quanto ao significado de frases e por vezes parágrafos inteiros.
Porém, acredito que grande parte do público que não acompanha os desenvolvimentos recentes em IA foi tomada de surpresa quando, de repente, IAs começaram a não só ler e interpretar significados de textos complexos, como também responder em forma textual (e com imagens) à solicitações das mais diversas, reproduzir padrões de escrita e até mesmo escreverem blocos inteiros de código funcionais em múltiplas linguagens de programação.
A evolução dos modelos de Processamento de Linguagem Natural
Talvez você já tenha lido inúmeros textos tratando do mesmo assunto, e previsões (por vezes catastróficas) do impacto que essas mudanças terão na nossa sociedade. Mas a pergunta que fica é: Como chegamos até aqui? Ninguém estava esperando por isso mesmo? A resposta dessas perguntas tem várias nuances e, para respondê-las, precisamos voltar alguns anos atrás e entender como estava a pesquisa em IA nessa última década.
Em quase todo modelo de processamento de linguagem natural, uma característica importante é o parâmetro que atribui qual é o peso ou probabilidade da próxima palavra com relação à anterior. Um dos primeiros modelos de aprendizagem de máquina e processamento de linguagem natural é creditado à Frank Rosenblatt em 1957, que propôs o Perceptron e foi um dos primeiros modelos amplamente conhecidos para processamento de texto.
O Perceptron foi um algoritmo de aprendizado supervisionado que podia ser usado para classificar objetos em categorias binárias. Embora inicialmente tenha sido aplicado principalmente em tarefas de visão computacional, também foi usado para PLN. O Perceptron tratava cada palavra em um texto como uma característica e aprendia pesos associados a essas características para fazer a classificação.
Outros modelos com abordagens diferentes também surgiram, mas sempre com a premissa de desenvolver uma “matriz de probabilidades” para cada elemento do texto a ser processado. Algoritmos como o Naive Bayes,por exemplo, que utilizavam o teorema de Bayes para calcular a chances de uma palavra aparecer numa passagem, foram aplicados com sucesso em tarefas como classificação de texto e filtragem de spam.
Entretanto, nas últimas décadas o desenvolvimento de modelos de PLN evoluiu significativamente, especialmente com o advento das redes neurais e dos modelos baseados em deep learning. Modelos de Redes Neurais Recorrentes (Recurrent Neural Networks – RNN), por exemplo, são excepcionalmente bons em prever a ocorrência de palavras, frases e até parágrafos inteiros dentro de um contexto e, com isso, conseguem ‘aprender’, de acordo com a base em que são treinados, como gerar textos completos, traduzir sentenças e até mesmo copiar estilos literários.
Dos modelos de aprendizagem de máquina ao desenvolvimento de Redes Neurais Recorrentes
As RNNs são projetadas para processar dados em sequência, onde cada elemento é processado um de cada vez, e a saída é alimentada de volta para a rede como entrada para o próximo elemento. Ou seja, como num ciclo, onde cada saída é utilizada como entrada, até que seja obtido o nível de refinamento desejado. Essa característica de feedback permite que as RNNs capturem informações contextuais e sejam aplicadas em diversas tarefas de geração textual.
Porém, em 2017 ocorreu uma enorme quebra de paradigma e um salto importante no estudo de modelos de PLN. Num artigo intitulado “Attention is All You Need“, publicado em 2017, Vaswani et al. introduziram os modelos Transformers. O trabalho descreveu esta arquitetura como um novo paradigma para o processamento de sequências, com aplicação inicialmente focada na tradução automática. Este modelo foi apresentado como uma alternativa inovadora às abordagens de modelos de linguagem existentes baseadas em Redes Neurais Recorrentes (RNNs) para capturar relacionamentos em sequências.
O surgimento dos modelos Transformers e a quebra de paradigma
A arquitetura Transformer se destaca por sua capacidade de capturar relações de dependência em sequências de maneira eficiente. Usando camadas de codificadores e decodificadores que funcionam em paralelo, esta arquitetura permite que o modelo processe informações de contexto em diferentes níveis de profundidade, baseando-se em mecanismos de autoatenção (self-attention) para capturar as relações entre as palavras em uma sequência.
Uma característica importante da arquitetura Transformer é a codificação de posição, que fornece informações sobre a posição relativa das palavras em uma sequência. Isso ajuda o modelo a entender a estrutura e a ordem das palavras no texto, fornecendo um entendimento mais amplo do contexto geral de um trecho.
Outro mecanismo muito importante da arquitetura Transformer é a auto-atenção. Ela permite a captura de relações de dependência entre as palavras, permitindo assim que o modelo atribua pesos diferentes às palavras em uma sequência, com base em sua relevância para a previsão da próxima palavra. Dessa forma, o modelo pode levar em consideração o contexto global e local ao gerar o texto.
Aplicações atuais e desafios futuros
Pouco tempo depois da introdução da arquitetura Transformer, ainda em 2018, a empresa OpenAI começou a trabalhar numa aplicação desta arquitetura e assim surgiram os primeiros modelos GPT (Generative Pré-trained Transformers). A principal diferença é que pré-treinamento e ajuste fino específicos para tarefas específicas permitiram que os GPTs tivessem uma compreensão mais aprofundada da linguagem e fossem mais adaptados para tarefas específicas de geração e compreensão de texto.
Desde seu lançamento em 2018, os modelos GPT já passaram por alguns versionamentos que alteraram drasticamente tanto seu desempenho quanto suas funcionalidades. Desde o GPT-1 até o GPT-4, ainda não disponível gratuitamente pela empresa, os modelos GPT já alcançaram uma enorme popularidade e, em seu estado atual, já fornecem resultados indistinguíveis de um humano para certos assuntos.
Conclusão – Evolução dos modelos de linguagem natural
A segunda década do século XXI talvez seja lembrada no futuro não somente pela pandemia de um vírus que afetou todo o planeta, mas também pelo início da massificação do uso de IA para as mais diversas tarefas do cotidiano. É inegável o impacto que a IA já possui em diversas tarefas corporativas ,acadêmicas e até mesmo do dia-a-dia, e a maior parte dos especialistas concordam que esta influência só irá aumentar daqui pra frente.
Por fim, uma curiosidade que talvez ainda demore um tempo para nos acostumar, mas quase todo o conteúdo desse texto foi pesquisado pelo autor num prompt de IA. Ou seja, dessa vez foi uma IA que ensinou um ser humano a falar sobre Ias, e se só de pensar nisso já deixa a gente apreensivo, faça um exercício de tentar imaginar o que ainda está por vir.
Cientista de Dados na Aquarela. Graduado em Física Licenciatura pela Universidade Federal de Uberlândia (2017). Atuou como professor de Matemática e Física na rede pública de educação básica. Possui Mestrado em Física Teórica pela Universidade Federal do Rio Grande do Sul (2020) e é Doutorando pela mesma instituição. Tem experiência na área de Física de Partículas e Cosmologia com interesse na modelagem teórica e busca experimental da matéria escura.
Já tratamos nesse mesmo blog sobre o que é uma IA, assim como conceitos de aprendizado de máquina e suas aplicações. Dando continuidade nestes conceitos, vamos abordar neste texto algumas subdivisões, categorias, ou tipos de IA.
Do ponto de vista teórico, podemos separar IAs em quatro tipos distintos. Estes tipos estão mais para uma série histórica de desenvolvimento do que uma taxonomia propriamente dita. Porém nos ajudam a entender onde estamos em relação ao estado da arte no desenvolvimento de IAs, e ainda mais importante, onde ainda podemos chegar. Assim, os principais tipos de IA mais amplamente utilizadas são:
Máquinas Reativas
IA de Memória Limitada
IA – Teoria da Mente
IA Autoconsciente
Além desses quatro tipos, ou categorias, ainda existem outros três termos guarda-chuva para categorizar diferentes tipos de IA. Mas eles também podem ser enquadrados nos outros 4 subtipos que apresentaremos aqui, são eles AGI (de Artificial General Inteligence), ANI (Artificial Narrow Intelligence) e ASI (Artificial Superintelligence).
Máquinas Reativas
A definição de inteligência é um termo de amplo debate na filosofia e na psicologia. Apelando para o senso comum, podemos definir como inteligente qualquer comportamento que se assemelhe a forma como nós, humanos, estamos acostumados a pensar, seja para nos comunicar, resolver problemas, nos divertir, expressar artisticamente, etc. Assim, o que chamamos de “máquinas reativas” dentro de um contexto dos tipos de IA, pode ser entendido como as primeiras tentativas de simular algum comportamento humano. Porém, são sistemas que estão sempre limitados por sua funcionalidade única, ou seja, são construídas de modo a desempenhar uma função quase sempre única e exclusiva.
Desde os primeiros autômatos, antes mesmo da nossa era digital, máquinas desse tipo podem ser concebidas. Elas também inspiraram inventores e artistas em feitos surpreendentes até mesmo para os padrões atuais. Porém, se tratando de computadores, da maneira visionada por Alan Turing, o exemplo mais famoso de um tipo de IA reativa seja o computador Deep Blue, que derrotou o grão-mestre enxadrista Garry Kasparov em uma partida de 1997. Em outras palavras, podemos entender esta categoria como capazes de feitos bastante úteis. Por exemplo, filtrar sua caixa de e-mail ou te recomendar algum vídeo numa plataforma. Porém apenas quando são construídas especificamente para aquele fim. Máquinas reativas são capazes de receber estímulos e responderem em tempo real. Mas não evoluem ou não conseguem se adaptar a novas situações sem serem totalmente reprogramadas.
IA de memória limitada
No decorrer das últimas décadas, muito se evoluiu quanto o que aplicações baseadas em IA são capazes de executar. Grande parte deste avanço se deu devido ao advento dos algoritmos de aprendizado de máquina, atrelados a estes algoritmos, a capacidade dos tipos de IA aprenderem a partir de suas próprias bases de dados. Ou seja, em aplicações atuais, IAs de memória limitadas são capazes de serem treinadas com uma base de dados específicas (conjunto de conversas, livros, imagens, músicas, etc) para desempenhar funções que estejam de acordo com sua base de dados limitada.
A diferença é que, na maior parte das aplicações atuais, os sistemas são capazes de aprender novos padrões e responderem de acordo a partir destes novos inputs. De chatbots de empresas, veículos auto dirigíveis, e até mesmo IAs que produzem obras de arte a partir de frases, estamos só agora começando a vislumbrar as inúmeras aplicações que alguns anos atrás eram apenas fruto de muita teorização.
Teoria da Mente
A destinação final de toda tecnologia que trabalhe com IA seja, talvez, reproduzir com mais ou menos fidelidade o comportamento humano. Dito isso, as aplicações de IA de memória limitada atingiram um patamar que ainda não conseguimos transpor. Nossas assistentes digitais ainda não estão nem perto de captar sutilezas do comportamento humano através da fala como ironia, sarcasmo, felicidade ou tristeza. Sendo assim, é natural imaginar um próximo passo no desenvolvimento de IAs aquelas capazes de reproduzir padrões apenas observados na mente humana.
Uma IA de memória limitada é capaz de encontrar padrão num banco de imagens. Porém não é capaz de distinguir se um banco de dados está enviesado, por exemplo, para reproduzir estereótipos negativos com relação a alguma minoria étnica. Um chatbot, por mais avançado que seja, ainda pode ser treinado para reproduzir comportamentos ofensivos. Além de não ter o discernimento de um ser humano para perceber quando não usar este ou aquele viés.
Em outras palavras, os algoritmos atuais já avançaram muito. Mas, no que diz respeito aquilo que nos diferencia como humanos, ainda é muito difícil de se atingir com uma IA. Ainda existe muito trabalho pela frente para uma quebra de paradigma que permita termos contato com IAs parecidas com aquelas que vemos em filmes de ficção científica apenas.
Autoconsciência
Existem ainda muitos passos no desenvolvimento de uma IA que contenha uma teoria da mente bem estabelecida, capaz de entender e reagir a sentimentos humanos. E estamos ainda mais longe de desenvolver uma IA que seja autoconsciente, ou seja que possua a percepção de ser, de existir como uma entidade pensante.
Estamos acostumados a ver este tipo de IA em filmes de fantasia e ficção científica. Na maioria das vezes esta inteligência se rebela contra os humanos e ocasiona diversas catástrofes. Porém, na realidade, isso está longe de acontecer, se é que será possível de ser concebido um dia. De toda forma, uma IA autoconsciente é também referida como um ponto de singularidade. Já que é impossível prever o que aconteceria se uma única inteligência conseguisse processar todo o conhecimento disponível pela internet e colocá-lo em prática. Existe até mesmo um debate ético se tal tipo de IA deveria ser criada ou não.
O mais provável é que, se vier a ser desenvolvida, IAs autoconscientes sejam capazes de colaborar com humanos em tarefas que já desenvolvemos, tornando-os melhores e mais fáceis de se executar. Por enquanto (e ainda por um bom tempo, dizem os pesquisadores), não temos o que temer com relação a uma super inteligência autoconsciente, já que tais desenvolvimentos ainda são bem incipientes. Porém é impossível desvencilhar do senso comum de robôs marchando em guerra contra humanidade e situações semelhantes.
Conclusão – Tipos de IA
Existem diversas aplicações para as IA que já estão disponíveis para uso hoje em dia. Mesmo assim, se tratando das diferentes categorias de IA que já foram teorizadas, as que têm uso prático e real representam apenas os primeiros passos no desenvolvimento nesta área do conhecimento. É importante conhecer tais categorias para que possamos nos situar dentro destas novas tecnologias que ainda intrigam tanta gente. Seja o que for o que o futuro reservar, o que temos certeza é que a Aquarela é parte ativa para tornar o mundo mais inteligente.
Cientista de Dados na Aquarela. Graduado em Física Licenciatura pela Universidade Federal de Uberlândia (2017). Atuou como professor de Matemática e Física na rede pública de educação básica. Possui Mestrado em Física Teórica pela Universidade Federal do Rio Grande do Sul (2020) e é Doutorando pela mesma instituição. Tem experiência na área de Física de Partículas e Cosmologia com interesse na modelagem teórica e busca experimental da matéria escura.
O uso da imaginação na resolução de problemas é parte fundamental em qualquer empreendimento humano. Por isso, entender o que já foi contado, pensado ou imaginado sobre um assunto acaba ajudando a enxergar pontos de vista e abordagens que nem sempre parecem tão claros à primeira vista. Neste artigo, iremos explorar a representação da IA na ficção científica e o imaginário por trás disso.
A primeiras “IAs” na história
A ideia de um objeto que possa reproduzir capacidades humanas, como movimento, pensamento e fala, remonta desde a antiguidade. Na mitologia grega, já se contavam histórias de gigantes feitos de bronze, como Talos, que poderia defender uma cidade inteira. Outras culturas também desenvolveram seus próprios contos de seres inanimados que ganhavam inteligência, por exemplo os Golems de barro ou os homunculus dos alquimistas. Estes últimos seres habitavam frascos de laboratório e aspiravam avidamente possuir um corpo humano.
Entretanto, o entendimento que temos hoje do que seria uma IA mudou bastante. Afinal, deixou de ser fruto de histórias e imaginação de escritores para se tornar um campo de pesquisa acadêmico bastante promissor e um mercado que gira bilhões de dólares todos os anos.
Talvez, uma das primeiras idealizações de máquinas com pensamento próprio esteja presente no livro Erewhon, de Samuel Butler, publicado em 1872. Neste livro, que é mais uma sátira da sociedade vitoriana do que um livro de ficção científica propriamente dito, o autor descreve uma sociedade semi-distópica, onde, inspirado pela revolução industrial e as ideias de Charles Darwin sobre a teoria da evolução, existem máquinas que desenvolveram consciência por seleção natural. Apesar de absurda à primeira vista, é daquelas ideias que nos fazem cogitar se não estaríamos caminhando pra isso, selecionando naturalmente os melhores hardwares, códigos e aplicações dentre tantas que aparecem e desaparecem de repositórios como o GitHub todos os dias.
Por definição, inteligência artificial é uma inteligência demonstrada por máquinas, em contraste com aquela proveniente de humanos e outros animais (Poole, Mackworth, Goebel, 1998). Dentre os diversos cenários imaginados por autores de ficção, onde uma IA possa estar presente, quase sempre podemos classificá-los como: distópicos, neutros ou utópicos.
IA na Ficção Científica e na Cultura Pop
Em cenários distópicos, alguns temas são comuns na literatura e na cultura pop como um todo. Dentre eles, talvez o mais conhecido seja o que o escritor Isaac Asimov (uma das principais referências da ficção científica neste tema) chama de Complexo de Frankenstein, em referência a obra da autora Mary Shelley, na qual a criação se vira contra o criador. Há quem considere que o próprio monstro humanoide descrito em Frankenstein, 1818, possa ser considerado um dos primeiros exemplos de inteligência artificial na literatura.
Nos livros de Isaac Asimov, por exemplo “Eu, Robô” (1950) e o “Homem Bicentenário” (1976), as inteligências artificiais emergentes dos cérebros positrônicos das máquinas são descritas como capazes de pensar, agir e sentir da maneira virtualmente idêntica à dos humanos. A exceção se dá por conta das Leis da Robótica (outra convenção cunhada por Asimov), que são imbuídas nos circuitos destas máquinas de modo a não poderem violá-las.
1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.
3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.
“Lei Zero”: um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.
Para seres conscientes, estas Leis inibem certos comportamentos dos robôs nas obras de Asimov. Entretanto, o mais interessante é como o autor sugere situações que colocam essas leis em xeque umas com as outras, o que sugere dilemas éticos interessantíssimos.
HAL 9000: uma das IAs mais famosas da cinema
Talvez a IA mais famosa da literatura e da cultura pop seja o computador de bordo, HAL 9000, da nave Discovery, de 2001: Uma Odisseia no Espaço, filme dirigido por Stanley Kubrick, escrito em conjunto com Arthur C. Clarke. Dentre as várias aptidões de HAL, estão a capacidade de se comunicar usando linguagem natural, reconhecimento facial, leitura labial, interpretação de emoções, apreciação de arte, capacidade de pilotar uma espaçonave e de, até mesmo, jogar xadrez.
HAL 9000
A maioria das capacidades demonstradas por HAL ainda estão longe de serem encontradas em uma IA com aplicação no mundo real. Contudo, é seguro dizer que HAL 9000 ocupou o imaginário da maioria dos cientistas e aficionados que se debruçaram sobre o tema a partir da segunda metade do século XX. Vale ainda ressaltar que dentre as faculdades de HAL, estava a de prever falhas em sensores e equipamentos (o que desencadeia acontecimentos cruciais para a narrativa de 2001: Uma odisseia no espaço). Esse feito coincidentemente é aplicado amplamente na indústria, inclusive aqui mesmo na Aquarela, com o uso de IA’s (ainda) bem menos aptas que HAL.
Outras obras
Todavia, enquanto conhecemos HAL 9000 como a representação de uma IA que deu errado devido ao seu instinto assassino, temos em outras mídias figuras das mais carismáticas, como R2D2, da saga Star Wars, e Wall-E. Este último nos foi apresentado no filme homônimo de 2008. O robozinho possui uma diretiva simples: coletar, compactar e empilhar toneladas de lixo deixada por humanos na Terra. Nem por isso sua IA é menos capaz que outros predecessores na cultura pop. Além do carisma natural de Wall-E, no filme conhecemos outros robôs com IA igual ou muito próxima a dele, como a EVA e AUTO (este último claramente inspirado em HAL 9000).
Algo que chama bastante atenção no filme é a naturalidade que a humanidade encara a inteligência dos robôs e tarefas do cotidiano. Ordens simples em linguagem natural são comuns, uma vez que os autômatos são representados com certa independência, feito que as melhores assistentes virtuais ainda estão longe de conseguir. Quem nunca teve de repetir um comando para a Alexa ou ainda para assistente do Google que processou algo completamente errado, não é mesmo?
Mais aplicações da IA na ficção científica
Outra ideia bastante trabalhada na ficção científica é a de transferir a mente humana para computadores. Assim, cria-se uma IA com a capacidade de replicar a mente humana original em um ambiente artificial controlado. Quase sempre, ignoram-se as dificuldades desse processo ou não as tratam devidamente em obras de ficção. É preciso dizer que tal procedimento ainda não se encontra nem perto de sua realização em qualquer futuro próximo. Entretanto, abre-se o seguinte debate ético: uma consciência humana num corpo totalmente sintético é humano ou mesmo um ser? Este mesmo dilema se aplica para os casos que tratamos anteriormente, que direitos poderiam ou deveriam ter uma IA consciente de si mesma?
De toda forma, podemos salientar que nas últimas décadas tivemos inúmeros exemplos de IA descritas na literatura, mesmo que algumas personagens sejam apenas releituras de exemplos anteriores. Ainda assim, são inúmeros exemplos, e muitos levantam questões morais e éticas que geram debates. Por exemplo, a inteligência coletiva das máquinas em Matrix (1999); os sentimentos e o desejo de ser humano, com todas as suas implicações, presente no filme AI – Inteligência Artificial (2001), de Steven Spielberg; a singularidade que atingem as IA’s em ELA (2013); o sensor de humor e de dispensabilidade de TARS e CASE, em Interestelar (2014); outrossim a sociedade pós-IA de Duna (1965), na qual a mera recriação de qualquer IA, depois de inúmeras guerras e rebeliões das máquinas, resulta em pena de morte.
Considerações finais – IA na ficção científica
As combinações de IF’s e ELSE’s que são executadas nos processadores de silício ainda estão bem longe das IA’s dos cérebros positrônicos ou dos processadores do poderoso HAL9000, mas já podemos chamá-las de IAs. Pois, mesmo sendo em sua maioria construídas para um propósito único, como criar músicas, falar ou mesmo reproduzir arte, são capazes de analisar, processar, prever e gerar informações dos mais variados tipos.
A inteligência artificial que vem sendo desenvolvida contemporaneamente se assemelha em alguns pontos, mas difere em outros daquela pensada e imaginada por diversos autores de ficção. Seria preciso, por exemplo, ao se criar a primeira IA para uso genérico, que ela estivesse imbuída em seu cerne das Três Leis da Robótica de Asimov a fim de evitar um cenário catastrófico para a humanidade? Ou será que os sistemas automatizados que temos hoje em dia irão tomar rumos benignos, bem diferentes dos futuros distópicos descritos nas obras de ficção? Uma coisa é certa, já é ampla a utilização de sistemas contendo IA para diversos propósitos, agregando, assim, valor da academia ao varejo, passando pela indústria, com aplicações reais e práticas e não são mais apenas ficção.
Gostou do nosso artigo sobre IA na ficção científica? Então, deixe o seu comentário.
Links e referências:
Poole, David; Mackworth, Alan; Goebel, Randy (1998). Computational Intelligence: A Logical Approach. Oxford University Press. p. 1. ISBN 0-19-510270-3.
Cientista de Dados na Aquarela. Graduado em Física Licenciatura pela Universidade Federal de Uberlândia (2017). Atuou como professor de Matemática e Física na rede pública de educação básica. Possui Mestrado em Física Teórica pela Universidade Federal do Rio Grande do Sul (2020) e é Doutorando pela mesma instituição. Tem experiência na área de Física de Partículas e Cosmologia com interesse na modelagem teórica e busca experimental da matéria escura.
Antes de mais nada, para entender o que é a computação quântica e como um computador quântico vai (possivelmente) impactar as nossas vidas no futuro, precisamos compará-lo com um computador clássico, e compreender como ele processa os dados.
Computador clássico e portas lógicas
Um computador clássico opera com bits, ou seja, unidades binárias de memória que podem receber valores 0 ou 1. Toda a informação, inclusive cada caractere e pixel de luz que está chegando aos seus olhos agora, está armazenado em algum dispositivo eletrônico (no seu computador ou na nuvem) na forma destes bits. Mais especificamente, eles podem ser processados por meio de portas lógicas, ou seja, estruturas físicas ou um sistema que recebe um conjunto destes bits e retornam um outro bit, 1 se a condição for satisfeita ou 0 se não o for. Na área de programação, chamamos essas funções de operadores Booleanos (nome dado devido aos estudos de George Boole, que publicou trabalhos importantíssimos em lógica algébrica).
De maneira resumida, existem 8 tipos de portões lógicos que são utilizados para se construir um computador universal da forma que conhecemos hoje. Isto é, nossos celulares, laptops, SmartTV’s e calculadoras de bolso utilizam circuitos que possuem esses portões em sua construção. Cada portão possui um símbolo e retorna um bit diferente com base nos bits de entrada. Caso tenha curiosidade em saber mais, aqui está um material bem explicativo sobre o assunto. Algoritmos computacionais, transcritos de maneira física em nossas placas-mãe, memórias e processadores, utilizam diferentes combinações destas portas lógicas para processar dados e informações. Esse é o segredo da computação clássica.
Ok, mas onde entra a computação quântica, e o que ela tem de tão diferente pra empresas investirem bilhões no seu desenvolvimento?
Computação quântica
O termo “quantum” foi cunhado por Max Planck ainda no início do séc. XX para descrever a energia da radiação que deixou de ser apresentada de forma contínua, e agora precisava ser “quantizada”, ou seja, dividida em pequenos pedaços ou pacotes para que a teoria concordasse com o experimento em algumas áreas da física. Dito isso, a principal diferença está justamente na forma que um processador quântico opera os seus bits de dados.
Na verdade, um computador quântico opera com o que convencionou-se chamar de Qubits, e sua principal (e drástica) diferença é que um Qubit consegue armazenar valores de 0, de 1 e também uma mistura, chamada de superposição, de dois estados 0 e 1. Este terceiro estado, que é uma consequência direta da física quântica (parte da física que estuda sistemas muito pequenos, na escala atômica), é o que possibilita que se crie novas portas lógicas, além das 8 descritas acima, e que algoritmos de computação quântica sejam tão poderosos.
Em outras palavras, portas clássicas operam com bits clássicos, que armazenam apenas 0 e 1, enquanto que portas quânticas operam bom Qubits, que, além dos estados 0 e 1, possuem propriedades adicionais que são superposição e entrelaçamento.
Superposição
Acredito que a forma mais difundida de explicar o fenômeno da superposição seja o experimento mental do Gato de Schroedinger. Verdade seja dita, o Prof. Schroedinger, à época, pensou nesse experimento como um contraexemplo para demonstrar que a interpretação corrente da mecânica quântica não fazia sentido. Anos se passaram e a história do gato vivo e morto agora é usada como camiseta de calouros de cursos de física no mundo todo.
Sem me alongar demais, a questão é a seguinte: A física quântica é descrita matematicamente por meio de uma série de equações diferenciais. Estas equações, que descrevem estados físicos e outras propriedades da matéria, possuem mais de uma solução satisfatórias e que descrevem bem alguns experimentos. Acontece que, matematicamente falando, se uma equação diferencial dessas possui uma solução A, que descreve por exemplo a posição de um elétron; e uma solução B, diferente de A, é possível demonstrar que A e B são uma solução, ao mesmo tempo, para aquela equação. E é aqui que, ao meu ver, começa toda a confusão. A interpretação corrente mais aceita hoje para essas equações é que a partícula existe num estado de superposição, ou seja, no estado A e B ao mesmo, entretanto colapsa para um ou outro, quando uma medida é realizada.
Entrelaçamento
Bom, como se não bastasse a estranheza do conceito de superposição, algumas partículas ainda apresentam um conceito sujeitado a esse, que é o entrelaçamento. Quando um par de partículas é criado, elas dividem algumas propriedades em comum. De certa maneira, é como se aquela mesma solução A & B valesse para as duas ao mesmo tempo, mesmo que estejam a km de distância uma da outra. Em alguns casos, o entrelaçamento combinado com a superposição significa que quando você medir a solução A e colapsar o estado de superposição da primeira partícula, a segunda, automaticamente, (o que Einstein chamou de ‘Efeito fantasmagórico a distância) colapsará para o estado B sem que seja preciso fazer medida nenhuma (lembre-se que, para colapsar um estado de superposição, é necessário que se faça a medida e no caso do entrelaçamento, a medida precisa ser feita em apenas uma das partículas entrelaçadas).
Não se preocupe se os conceitos acima parecem confusos. São mesmo. Físicos no mundo todo ainda discutem se as interpretações da mecânica quântica têm alguma implicação mais fundamental na nossa realidade do que correntemente aceita. Entretanto, isso não impede de que os resultados da mecânica quântica possam ser utilizados nas mais diversas aplicações. E aqui nós voltamos para a computação quântica.
Funcionamento do computador quântico
Da mesma forma que computadores clássicos podem ser construídos bit a bit, com transistores e os portões lógicos que mostrei anteriormente, um computador quântico é montado Qubit a Qubit, com portas quânticas que operam estes Qubits e permitem fazer todos os cálculos que um computador comum faria (e muito mais), em teoria. Na prática, a construção e manutenção de um computador quântico é uma tarefa laboriosa, já que os Qubits só mantêm suas propriedades quânticas em condições muito específicas, como baixíssimas temperaturas, próxima do zero absoluto, e isolados de qualquer fonte de perturbação externa.
IMB cunhou um termo chamado de volume quântico, que expressa de certo modo o número de Qubits num processador quântico versus a taxa de erro. É uma medida de capacidade computacional. Em outras palavras, se o erro nas medidas quânticas persiste, mesmo que na casa dos milésimos, de nada adianta aumentar o número de Qubits. A capacidade computacional só aumentaria de fato quando o erro fosse menor que 1 milionésimo, mas de toda forma as duas coisas precisam caminhar juntas.
Desafios da computação quântica
Por mais maravilhoso entusiasmado possamos ficar com as notícias de supremacia quântica atingida por algum supercomputador ao redor do mundo, devemos ter cautela em entender que existem também muito mitos por aí e, mais importante que isso, muito desenvolvimento para ser realizado tanto em engenharia quanto em sistemas para esses computadores. Um deles diz respeito ao “paralelismo quântico”, ou seja, um computador quântico poderia realizar várias operações em paralelo e devolver a melhor resposta para um problema específico.
Por mais que de fato um computador quântico possa lhe fornecer a melhor solução para um problema complexo de maneira exponencialmente mais rápida que um computador clássico, a maneira com que ele faz isso se deve intrinsecamente às leis da mecânica quântica, da qual não temos uma compreensão completa, ainda. Michael Nielsen, autor de um dos livros mais citado nesta área, afirma que se houvesse uma explicação simples para como um computador quântico funciona, então isso poderia ser simulado num computador clássico. Mas, se isso pudesse ser de fato simulado num computador convencional, então não seria um modelo acurado de um computador quântico, já que computadores quânticos, por definição, não operam de forma convencional.
Sendo assim, o aspecto crucial da computação quântica reside na forma que os Qubits estão organizados em portas lógicas quânticas, as quais possuem ainda uma propriedade diferente das portas clássicas, que é a reversibilidade. Isto é, cada porta quântica possui uma espécie de mecanismo que permite acessar valores anteriores, o que não é possível, ainda, na computação convencional. Podemos entender com isso que computadores quânticos não perdem a informação que é processada.
Matrizes de Pauli
Quase toda a física quântica pode ser expressada na forma matricial. Assim, teoricamente, podemos descrever os Qubits como vetores e os portões na forma de matrizes. Um portão pode operar mais de 1 Qubit ao mesmo tempo. Se esse for o caso, este portão será representado por uma matriz 2×2. Estes portões que operam em Qubits únicos por vez são conhecidos como portões (ou matrizes) de Pauli, em homenagem ao físico Wolfgang Pauli, que tem contribuições importantíssimas na mecânica quântica.
Um exemplo de fácil entendimento é o portão X de Pauli, que opera de maneira semelhante ao portão NOT da computação convencional.
Dizemos X pois os Qubits podem ser orientados nas três direções espaciais (X, Y, Z), e existe uma matriz de Pauli para operar em cada uma dessas direções. Além do portão de Pauli, talvez outro dos mais importantes que operam em Qubits únicos seja a porta de Hadamard. Sua principal função é transformar um Qubit de estado bem definido (0 ou 1) na tal superposição de estados quânticos.
Computação quântica na atualidade
Não entrarei em detalhe quanto à mecânica de cada portão quântico, mas vale dizer que, assim como na computação convencional, diferentes combinações de portões lógicos quânticos, em teoria, podem ser utilizadas para se criar um computador universal. Entretanto, você já deve ter ouvido falar de computadores quânticos em operação. Essas máquinas, apesar de já alegarem a resolução de problemas centenas de vezes mais rápido que um supercomputador clássico, ainda não são equipamentos universais, e seus chips são criados para resolver uma única tarefa. Não se tem notícia, até a data de escrita deste artigo, de nenhuma empresa que tenha criado um chip de computação quântica universal, porém houve avanços e, atualmente, empresas com a IBM possuem em seus laboratórios de desenvolvimento chips com mais de 100 Quibits em operação, mas com a finalidade de resolução de tarefas e cálculos específicos.
Outra coisa que vale ressaltar é que estes computadores quânticos em operação são máquinas gigantescas, que ocupam salas, e talvez andares inteiros para que se mantenham em funcionamento.
Decoerência
O fenômeno que assombra processadores quânticos do mundo todo é a decoerência. Nos melhores computadores quânticos de propósito único, ela acontece após alguns poucos segundos em operação, e se deve principalmente na dificuldade de se manter os Qubits em seus estados iniciais e em superposição. Aliás, a decoerência é o principal motivo de não observarmos fenômenos quânticos no nosso mundo macroscópico. Se subirmos pouquíssimas ordens de grandeza em questão de quantidade de partículas, temperatura, ou tamanho, a decoerência entra em ação e todo o sistema volta a se comportar de acordo com a velha e boa física clássica. Entretanto, se lembrarmos que o ENIAC, o primeiro computador universal, também ocupava uma sala inteira, e considerarmos que a lei de Moore também valerá para processadores quânticos, podemos ser promissores em admitir que em algumas décadas teremos capacidade computacional quântica real para aplicações nas mais diversas áreas.
Computação quântica e aplicações
Mesmo com apenas algumas dezenas de Qubits, processadores quânticos universais já seriam capazes de superar a capacidade computacional atual em alguns problemas específico, como a modelagem molecular, essencial para a fabricação de novos fármacos e estudo de doenças, problemas de otimização de rotas e processos e categorização de números primos. Este último aspecto, é talvez o que deixa muitos gerentes de segurança da informação com pesadelos durante a noite.
Acontece que a maioria dos algoritmos de encriptação e desencriptação de dados hoje funcionam com chaves baseadas em números primos. Sendo assim, um computador quântico universal poderia, em teoria, obter uma chave de desencriptação em questão de segundos. Os melhores firewalls e sistemas de criptografia seriam quase que transparentes para um computador quântico universal com algumas centenas de Qubits. A principal razão para isso é a forma que processadores quânticos processam os dados.
Segurança de dados
Considere um exemplo de um banco de dados com 1 bilhão de linhas, onde cada linha contém um nome. Para fazer uma busca nesse banco, um computador convencional (desconsiderando algoritmos de otimização) checa nome por nome daquela lista, até encontrar o resultado desejado. Dito de maneira bem simples, num computador quântico esta lista poderia estar armazenada num estado de superposição usando os Qubits, então a “query” seria aplicada de forma a colapsar esta lista para o nome desejado na busca, com uma única operação. Com este simples exemplo já podemos ver a gritante diferença na performance dos computadores quânticos comparados com os convencionais, e muito mais ainda pode ser feito e está em desenvolvimento enquanto você lê este artigo.
Porém, já existem formas de gestores se defenderem quando a supremacia quântica for atingida de fato. Desde a segunda metade do séc. XX, existem algoritmos de criptografia quântica que utilizam outras propriedades (esquisitas) da física quântica em benefício próprio. Um exemplo seria o (famoso) caso de Alice e Bob. Se Alice envia uma mensagem criptografada quanticamente para Bob, Bob pode saber se a mensagem foi interceptada, pois uma leitura por um terceiro feita à mensagem enviada por Alice alteraria os Qubits enviados de forma significativa. Isso ocorre, pois, estados em superposição, como disse, são alterados ou colapsados quando é feita uma medida. Acredito ser desnecessário dizer que o cenário real é infinitamente mais complexo que esse que apresentei, mas este exemplo foi só para ressaltar que nem tudo está perdido quanto à segurança da informação quando (ou se) os primeiros computadores quânticos universais estiverem disponíveis.
Computação quântica – Considerações finais
Para terminar, devo ressaltar que, apesar de ainda parecer um futuro distante, a computação quântica já está posta no mercado e deve movimentar bilhões de dólares nos próximos anos. Eu acredito que ainda veremos o paradigma da computação quântica ser quebrado e todas as implicações que isso irá trazer.
Mesmo que não compreendamos ainda 100% todos os aspectos da física quântica, ainda assim já a utilizamos há mais de um século em diversos dispositivos eletrônicos. Como comentei no artigo anterior, a miniaturização dos transistores só foi possível graças a cálculos de mecânica quântica. Portanto, não compreender completamente o que se passa dentro da caixa preta, que são as portas lógicas quânticas, não irá impedir a indústria de investir e utilizar essa tecnologia quando estiver pronta.
Existem ainda muitos desafios, seja no desenvolvimento de novos materiais, construção de hardware, algoritmos de programação, desenvolvimentos de sistemas etc. Entretanto, é bom estarmos preparados para as mudanças, principalmente num mundo mais e mais dependente do processamento de dados, pois com toda certeza o mundo vai mudar quando esse processamento crescer de maneira exponencial com o advento da supremacia quântica.
Cientista de Dados na Aquarela. Graduado em Física Licenciatura pela Universidade Federal de Uberlândia (2017). Atuou como professor de Matemática e Física na rede pública de educação básica. Possui Mestrado em Física Teórica pela Universidade Federal do Rio Grande do Sul (2020) e é Doutorando pela mesma instituição. Tem experiência na área de Física de Partículas e Cosmologia com interesse na modelagem teórica e busca experimental da matéria escura.
Em um conto do escritor Isaac Asimov, existe uma IA tão avançada que consegue resolver as equações da mecânica quântica e da relatividade geral; e projetar uma nave de dobra espacial (tipo aquelas do Star-Wars) e esta mesma IA a constrói, utilizando uma espécie de impressão 3D com auxílio de robôs. Por mais utópico que possa parecer esse futuro, aplicações de IA na ciência de ponta vêm crescendo tanto (impulsionados também pela indústria) que não é mais tão difícil imaginar tais feitos como deve ter sido para o Asimov ainda na década de 50.
O desenvolvimento da ciência básica é importante não apenas para responder questões fundamentais da natureza e de interesse da humanidade, como também impulsiona o desenvolvimento de novas tecnologias das quais o uso prático ainda nem existe. Sendo assim, motivados em grande parte pela sua popularização na indústria 4.0, o uso de algoritmos de ML e IA vêm favorecendo o avanço de áreas na pesquisa básica de uma forma que ainda nem podemos prever as repercussões dos estudos que estão sendo feitos neste instante. (Afinal, quem diria, no início do séc. XX, que algo tão teórico quanto a física quântica fosse nos levar a uma revolução digital, graças à miniaturização dos transistores?)
IA na ciência básica
Dentre os principais usos da IA na ciência básica, podemos destacar algumas aplicações na física, química e biologia. Porém, adianto que, nos últimos anos, devido à popularização dos algoritmos e à capacidade de processamento computacional, tais aplicações tornaram-se inúmeras nas mais diversas áreas da atividade humana.
Aplicações de ML na física de partículas
O Grande Colisor de Hádrons (LHC, na sigla em inglês), localizado na fronteira da França com a Suíça, é a maior máquina já construída pelo homem. Tem um formato de um anel com 27km de circunferência e seu propósito principal é compreender a estrutura básica da matéria em seu estado mais fundamental.
No LHC, e em institutos de pesquisa que colaboram com o CERN (Organização Europeia para a Pesquisa Nuclear, instituição que administra o LHC), são armazenados, processados e analisados 15 petabytes de dados por ano (não é à toa que foi no CERN que nasceu o protocolo WWW, ainda no século passado, para o compartilhamento dos dados dos primeiros colisores construídos lá). Isso se deve, em grande parte, ao sistema de “gatilhos” (triggers) que seleciona ainda no nível de hardware apenas 200 dos quase 1 bilhão de eventos de interesse por segundo que o acelerador produz quando está ligado. Por isso, em suas últimas atualizações, os grupos de pesquisa vinculados ao CERN vêm testando e aprimorando algoritmos de Machine Learning para selecionar eventos de interesse em todos os níveis de triggers do LHC.
Além de reduzir o custo de processamento e armazenamento dos dados, o processamento com IA evita falhas humanas e intensifica as chances de um evento apresentar uma reação nunca antes vista (vale lembrar que o bóson de Higgs, descoberto em 2012, foi verificado em alguns poucos eventos de trilhões que foram previamente analisados). Atualmente, devido à sua riqueza e complexidade, os conjuntos de dados abertos do LHC são reanalisados por grupos de pesquisa do mundo todo, que podem testar e desenvolver seus próprios sistemas de análise.
O Laboratório Nacional de Luz Síncrotron (LNLS), vinculado ao Centro Nacional de Pesquisa em Energia e Materiais, opera no Brasil um dos maiores aceleradores do mundo, capazes de produzir luz síncrotron, radiação que, segundo as palavras do próprio site da instituição, “pode ser utilizada para investigar a composição e a estrutura da matéria em suas mais variadas formas, com aplicações em praticamente todas as áreas do conhecimento”. Todo o projeto do SIRIUS, além de fomentar o desenvolvimento da tecnologia e inovação nacional desde a planta, promove treinamentos e investe na capacitação de cientistas para que estes possam usar IA e ML para analisar os dados provenientes do experimento, principalmente na representação gráfica dos dados experimentais.
Recentemente, foi publicado um artigo que utilizou dados do experimento para investigar a estrutura interna e a síntese proteica do vírus SARS-CoV-2, estudo importantíssimo para entender possíveis mecanismos de ação contra o vírus que ainda podem ser desenvolvidos.
Aplicações de IA na astrofísica
Outra aplicação interessante que fez avançar mais um pouco a compressão humana sobre a natureza foi o uso da IA para reconstruir a primeira imagem de um buraco negro. A conhecida “foto” do buraco negro que circulou em todas as mídias foi fruto de “toneladas” de dados, cuidadosamente adquiridos, armazenados e processados.
O Prêmio Nobel de física de 2020 foi dividido entre três pesquisadores pelas suas contribuições na descoberta e caracterização de propriedades de buracos negros. Nesse contexto, a primeira foto de um buraco negro, divulgada naquele mesmo ano, foi fruto da coleta de dados provenientes de 8 telescópios espalhados pelo globo (incluindo um na América do Sul e outro na Antártica).
Dito de maneira simples, o algoritmo de IA responsável por recriar a imagem foi alimentado durante anos com os dados destes telescópios que estavam apontados para o centro de uma galáxia a cerca de 50 milhões de anos luz da nossa. Como cada telescópio só via “uma parte” do centro da galáxia, foi preciso usar IA para reconstruir a imagem. Para verificar se o algoritmo não estava apenas reproduzindo aquilo que eles queriam ver, o time responsável no MIT, liderado por Katie Bouman, treinou a mesma IA com diferentes conjuntos de imagens. O resultado foi surpreendente. Quando alimentada com dados dos telescópios, todas as IA convergiam para reconstruir a mesma imagem do buraco negro no centro da galáxia M87.
Diferentes conjuntos de treino criam a mesma imagem do buraco negro. Fonte: TED talk by Katie Bouman
Uso de IA na estabilização de fusão nuclear
Outro uso interessante de IA, que pode vir a ter implicações de médio prazo em nossas vidas, é o uso de aprendizagem de máquina para controlar um reator de fusão nuclear.
A fusão nuclear é o combustível pelo qual as estrelas (incluindo o nosso Sol) produzem tanta energia. Se dominada pelo homem (ou por uma IA), ela seria capaz de gerar muito mais energia que Itaipu, a maior usina hidrelétrica do planeta. Claro que este ainda é um cenário hipotético, afinal os reatores de fusão atuais ainda enfrentam diversos problemas, tanto na sua construção quanto na manutenção em atividade. Um desses desafios, especialmente em reatores do tipo Tokamak, é manter o plasma de hidrogênio (estado da matéria onde os átomos estão totalmente ionizados) estável, já que para isso é necessário controlar e ajustar vários parâmetros do campo magnético dentro do reator.
A reação de fusão precisa ocorrer em uma câmara de vácuo no interior do reator, e este campo é ao mesmo tempo responsável por fundir os átomos de hidrogênio quanto de evitar com que o plasma ultra-aquecido (que pode chegar a temperaturas mais elevadas que a do núcleo solar) entre em contato com a parede do reator, o que levaria a sérios acidentes.
Pensando nisso, a empresa DeepMind desenvolveu um algoritmo de ML que aprende com os dados obtidos do reator um ajuste ótimo de todos os parâmetros para que se controle o campo magnético interno do processo de fusão. Recentemente, o uso desta IA, ainda em estado de desenvolvimento, conseguiu manter a fusão ativa por 2 segundos no reator do Instituto Federal Suíço de Tecnologia em Lausanne. Esse reator é de testes e foi projetado para manter uma fusão por no máximo 3s, porém o recorde mundial é de um grupo no Reino Unido, que conseguiu manter uma fusão por 5 s, mas ainda com o auxílio de um operador humano.
Sensoriamento remoto e monitoramentos de queimadas
Temos também uma aplicação interessante de IA em solo brasileiro. É o caso do INPE (Instituto Brasileiro de Pesquisas Espaciais), que coleta dados de queimadas e desmatamento na floresta amazônica desde 1984. Nesta época, a coleta ainda era feita utilizando computadores com sistema operacional DOS, e o processamento das imagens era feito num poderoso PC-XT com processador de 4,7 MHz, 32 KB de memória e um HD de 20 MB (verdade seja dita, nada mal para a época).
O primeiro mapa de queimadas na Amazônia foi lançado em parceria com a NASA em 1996. Desde então, existem satélites polares e geoestacionários que coletam dados diariamente da floresta e que são disponibilizados de forma gratuita na plataforma TerraBrasilis, mantida pela instituição.
Dito isso, podemos perceber que esta série temporal de dados que o INPE possui é valiosíssima, e possibilita fazer diversos estudos com aplicação de ML e DL. A principal vantagem desse tipo de análise é combinar os dados das séries temporais do INPE com dados recentes de nano satélites, de altíssima resolução, para fazer regressões, monitoramento e previsão quanto ao bem-estar da maior floresta tropical do mundo. Segundo Lucas Fonseca, CEO da Airvantis, uma empresa de pesquisa espacial, um cenário ideal seria o financiamento de uma startup para desenvolver uma metodologia baseada em inteligência artificial para poder analisar as imagens obtidas em grande quantidade e combiná-las com os dados do INPE.
Emprego de técnicas IA na produção de vacinas e edição genômica
Por fim, a aplicação de IA na Ciência vai além. Sabemos que técnicas de IA foram amplamente utilizadas para investigar o vírus causador da Covid-19 e, principalmente, no desenvolvimento de vacinas.
Dave Johnson, chefe de dados e Inteligência Artificial da Moderna, comenta que graças à automação robótica e algoritmos de IA, eles passaram de 30 para cerca de mil testes com mRNA por mês, com muito mais consistência e qualidade nos resultados. Além disso, ele ainda comenta que outro uso importante no laboratório foi para síntese de proteínas, que, devido à sua complexidade, podem ser construídas numa infinidade de combinações a partir de aminoácidos mais simples.
Graças à riqueza nos dados históricos do laboratório, hoje é possível que um cientista desenvolvendo uma sequência para um tratamento específico possa apenas clicar um botão e a IA retorne a melhor sequência para aquele procedimento. Ademais, técnicas de ML, associadas com procedimentos de edição genética como o CRISPR, já são aplicadas com terapias de gene na área médica e na agricultura para a produção de versões mais sustentáveis de maior rendimento e de alguns transgênicos já amplamente utilizados na indústria.
Estamos passando por uma nova revolução industrial, e no meio do turbilhão de novos conceitos, aplicações e novas tecnologias, ainda é difícil saber exatamente quais os rumos que a Indústria 4.0 irá tomar. Não obstante, já podemos entrever alguns dos benefícios do uso de IA na Ciência e de análise avançada de processos, não só no terceiro setor, agregando valor em produtos e serviços, como também motivados por governos e instituições de pesquisa básica, em todas as esferas do conhecimento humano, que veem na cultura de dados oportunidades de fazer a vela no escuro da ciência brilhar um pouco mais.
Gostou de saber mais sobre os usos de IA na Ciência? Deixe seu comentário.
Cientista de Dados na Aquarela. Graduado em Física Licenciatura pela Universidade Federal de Uberlândia (2017). Atuou como professor de Matemática e Física na rede pública de educação básica. Possui Mestrado em Física Teórica pela Universidade Federal do Rio Grande do Sul (2020) e é Doutorando pela mesma instituição. Tem experiência na área de Física de Partículas e Cosmologia com interesse na modelagem teórica e busca experimental da matéria escura.