Aprendizado de máquina: subáreas e aplicações

Aprendizado de máquina: subáreas e aplicações

O termo “aprendizado de máquina”ou “machine learning” foi primeiramente usado por Arthur Samuel, em um artigo feito em 1959. Arthur definiu o aprendizado de máquina como “campo de estudo que dá aos computadores a habilidade de aprender sem serem explicitamente programados”.

O aprendizado de máquina pode ser dividido em três principais áreas de estudo, são elas: aprendizado supervisionado, aprendizado não-supervisionado e aprendizado por reforço, conforme pode ser observado na imagem abaixo, que também mostra áreas de aplicação de algoritmos de aprendizado de máquina.

representação do aprendizado de máquina

Aprendizado supervisionado

A área de aprendizado supervisionado é normalmente aplicada quando os dados a serem avaliados são classificados por meio de um rótulo e com isso o algoritmo consegue fazer previsões e procurar por padrões nos dados fornecidos. Dentre as principais aplicações de aprendizado supervisionado que usam modelos de classificação estão: detecção de fraudes, classificação de imagens, retenção de clientes e classificação de diagnósticos. Além disso, aplicam-se modelos de regressão nas áreas de Previsão, Predição, Precificação e Otimização de Processos. 

Veja também nossos textos sobre Previsão de Demanda, Precificação e Predição de falhas.

Aprendizado não supervisionado

O aprendizado não supervisionado é aplicado quando não se sabe o que o dado representa, ou seja, o dado não tem um rótulo para que seja analisado. Normalmente usado para fazer agrupamentos, ele é capaz de descrever uma estrutura de dados complexa, podendo assim descobrir padrões ocultos sem a intervenção humana. Aplicações como: Alvo de Marketing, Segmentação de Clientes e Sistemas de Recomendação estão ligadas com modelos de clusterização. Além disso, o aprendizado não supervisionado engloba modelos de redução dimensional que possuem aplicações como visualização de Big Data, Compreensão Significativa, Descoberta de estruturas e Elicitação de Recursos.

Aprendizado por reforço

A terceira área é o aprendizado por reforço. O termo “reforço” explicita o funcionamento do método por meio da recompensa, ou pontuação, a qual a inteligência artificial ganha após cada ação. O algoritmo se ajusta para melhor atender o objetivo, visando assim maximizar essa pontuação. Comumente, utiliza-se o aprendizado por reforço em jogos, aprendizado de tarefas, decisões em tempo real e também em navegação de robôs.

Aprendizado de máquina – Considerações finais

Neste artigo, abordamos o aprendizado de máquina, suas principais áreas de estudo – aprendizado supervisionado, aprendizado não-supervisionado e aprendizado por reforço – e algumas de suas aplicações.

A Aquarela Analytics está sempre buscando novos conhecimentos e aplicações para problemas, ampliando assim nosso kit de ferramentas para superarmos os obstáculos apresentados com excelência.

Leia também: Como os modelos estatísticos se aplicam no Machine Learning

Gostou do artigo? Então deixe o seu comentário.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Dados desbalanceados: como equilibrar as ocorrências das classes?

Dados desbalanceados: como equilibrar as ocorrências das classes?

A ciência de dados é uma área da inteligência artificial que tem crescido muito nos últimos anos. Essa área é responsável pelo estudo e análise de dados de diversos ramos para obtenção de ideias, identificação de padrões, desenvolvimento de modelos matemáticos e estatísticos para inferir sobre novos dados, entre outros. A partir disso, hoje iremos falar um pouco sobre um problema associado a ela, os chamados dados desbalanceados.

Veja também: 7 tendências em ciência de dados

Dados desbalanceados

Podemos pensar em um banco de dados (dataset) como uma tabela em que cada coluna representa uma informação sobre determinado tópico e as linhas são as quantidades de dados disponíveis. No mundo da ciência de dados, é comum encontrar datasets que relacionam os dados com uma classe (também chamada de categoria ou rótulo).

Na grande parte dos problemas cotidianos, é frequente que haja mais dados de uma classe do que de outra, conforme no exemplo da Figura 1, em que temos muito mais ocorrência de dados na classe A do que na classe B. Um exemplo mais prático disso seria na área da saúde, em que há mais exemplos disponíveis de pessoas saudáveis do que com algum problema de saúde (câncer, arritmia cardíaca, convulsões, entre outros); ou então em fraudes de pagamento, sendo mais comum a não ocorrência de fraude. 

Figura 1: Exemplo de dados desbalanceados em duas classes hipotéticas, A e B.
Figura 1: Exemplo de dados desbalanceados em duas classes hipotéticas, A e B

Dessa forma, o desbalanceamento de dados é justamente a questão de termos mais informações a respeito de uma classe (majoritária) do que da outra (minoritária). Pode-se expandir a mesma lógica para problemas com múltiplas classes. 

Problemas causados pelos dados desbalanceados

Quando o assunto é análise exploratória de dados, o desbalanceamento não chega a ser tão comprometedor. Se a quantidade de dados disponível for o suficiente para buscar insights, o desbalanceamento não chega a ser um problema, uma vez que podemos obter algumas conclusões sem uma grande quantidade de dados. Entretanto, quando o assunto são modelos de aprendizado de máquina, a influência do desbalanceamento de dados fica evidente. 

Digamos que um cientista de dados esteja trabalhando para desenvolver um modelo de aprendizado de máquina para algum problema de classificação ou previsão e ele possui um banco de dados desbalanceado. Caso nenhuma medida seja tomada a esse respeito, é muito provável que o modelo projetado tenha facilidade em identificar os dados referentes à classe majoritária (afinal, ele teve mais exemplos de dados dessa classe), mas tenha dificuldade na identificação dos dados da classe minoritária. Isso pode gerar uma má interpretação do modelo, pois, a princípio, ele está tendo um bom desempenho no acerto geral (acurácia), mas, se a intenção for justamente identificar os dados da classe minoritária, ele se torna um péssimo modelo.

Para visualizarmos isso de forma mais simples, vamos olhar para a Figura 2, que mistura imagens de cachorros da raça Chihuahua com muffins.

Figura 2: Cachorros Chihuahuas e muffins.
Figura 2: Cachorros Chihuahuas e muffins (Google Imagens)

Apesar de serem coisas completamente diferentes, os rostos dos Chihuahuas e os muffins da figura apresentam algumas características em comum, como formato, tamanho e cor. Para um modelo de aprendizado de máquina, essas características da classe Chihuahua e da classe muffin podem ser parecidas ao ponto de haver certa dificuldade para diferenciá-las. Nesse sentido, se por acaso tivermos muito mais imagens de Chihuahuas do que de muffins, o modelo apresentará dificuldades na classificação.

Tratando o problema

Vimos com um exemplo simples como o desbalanceamento de dados pode dificultar o trabalho de um cientista de dados. Portanto, é de suma importância que haja uma forma de lidar com esse problema de forma a minimizar a maior influência da classe majoritária sobre a minoritária. A busca de mais dados seria a forma mais simples e óbvia.

Retomando como exemplo a Figura 1, bastaria buscar mais dados da classe B até se igualar à da classe A. Acontece que nem sempre é tão fácil quanto parece. No exemplo da Figura 2, essa abordagem é perfeitamente viável, mas quando um profissional está trabalhando com o banco de dados de um cliente nem sempre isso é possível. Logo, outras ferramentas são necessárias para balancear os dados.

Undersampling

A técnica de undersampling consiste em retirar dados da classe majoritária para se igualar à da majoritária, conforme mostrado na Figura 3.

Figura 3: Exemplo da técnica de undersampling, com diminuição de dados da classe A para se igualar à quantidade de dados da classe B.

Ainda na técnica de undersampling, existem diversos métodos que podem ser aplicados para selecionar quais dados serão retirados. Por exemplo: retirar dados de maneira aleatória ou seguindo alguma métrica matemática de distância entre os dados de cada classe no plano amostral. Outras técnicas de undersampling procuram agrupar dados correlatos, podendo retirar algumas amostras sem comprometer muito a quantidade de informação da classe.

Oversampling

Já a técnica de oversampling consiste em gerar dados sintéticos da classe minoritária a partir dos seus dados originais de forma a se igualar com o número de dados da classe majoritária. As principais técnicas de oversampling são SMOTE e ADASYN, que utilizam cálculos matemáticos para gerar novas amostras que se assemelham às originais, aumentando a quantidade de dados e mantendo as características da classe.

A Figura 4 exemplifica a ideia geral da técnica de oversampling, em que foram gerados novas amostras de forma a igualar o número de ocorrência da classe B à da classe A.

Figura 4: Exemplo da técnica de oversampling, com a inserção de dados sintéticos na classe minoritária para de igualar à quantidade de dados da classe majoritária.

Dados desbalanceados – Considerações finais

O desbalanceamento de dados é um tema comum no dia a dia das pessoas que trabalham nesse meio, entretanto pode ser um empecilho nos momentos de construção de modelos de classificação ou regressão. A identificação e o tratamento de dados faltantes é essencial para o bom desenvolvimento das atividades de um time de cientistas de dados, visto que o desbalanceamento de dados é muitas vezes responsável por acrescentar um viés nos modelos de aprendizado de máquina, distorcendo suas análises de desempenho.

Dessa forma, o objetivo deste texto foi apresentar a problemática envolvida no desbalanceamento de dados, bem como indicar algumas técnicas e métodos utilizados para contornar esse problema. Assim, chega a ser instigante pensar que, em um mundo cada vez mais rodeado de acesso à informação e geração de grande quantidade de dados, ainda tenhamos um tema que trata justamente de classes com maior ocorrência de informação do que outras.

Gostou do artigo? Então, deixe o seu comentário.

Leia também: Web 3.0 e a democratização do acesso à informação.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

7 tendências em ciência de dados

7 tendências em ciência de dados

O site Exploding Topics trouxe recentemente um compilado das 7 maiores tendências percebidas por eles sobre a área de ciência de dados. A plataforma mapeia temas que estão se tornando tendências, mas que ainda não ganharam grande visibilidade ou viralizaram. Confira os tópicos e fique de olho no que possivelmente irá acontecer na área nos próximos tempos.

1 – Explosão no número de vídeos e fotos utilizando Deep Fake

O deep fake se utiliza de inteligência artificial para manipular ou criar conteúdos simulando outra pessoa. Por exemplo: trocar rostos em vídeos, tornar imagens estáticas animações ou produzir áudios com a voz da pessoa com base em outros áudios previamente gravados. O termo “deep fake” sofreu um avanço nas pesquisas de 900% desde 2017. 

Ainda relacionado ao assunto, o termo “voice phishing”, ou seja, a criação de áudios falsos de pessoas com sua própria voz,  também aumentou os números de pesquisas em 227% nos últimos anos.

Isso nos levanta um alerta, pois essa tecnologia já foi utilizada para a aplicação de alguns golpes por todo o mundo, já que os conteúdos produzidos são muitas vezes muito realistas e pessoas podem se utilizar indevidamente desse avanço.

2 – Aumento aplicações com Python

A linguagem Python é amplamente utilizada dentro da área de ciência de dados e é muito versátil. Ela pode ser usada para a implantação de diversas tecnologias e aplicações, além de existirem inúmeras bibliotecas prontas e gratuitas para serem utilizadas. O número de pesquisas por “python” cresceu 150% nos últimos 10 anos e é atualmente ranqueada como a terceira linguagem de programação mais popular, com expectativas de alcançar o topo desta lista até 2025 e já a linguagem que mais recebe perguntas mensalmente no Stack Overflow.

3 – Maior demanda por soluções em IA de ponta a ponta

Empresas que trabalham com inteligência artificial, como a startup recentemente comprada pela Google, Dataiku, ou a Aquarela Analytics estão sendo cada vez mais procuradas. Elas  auxiliam outras empresas e indústrias a lidar com grandes quantidades de dados e a construir modelos de machine learning para tratá-los.  As pesquisas por “Dataiku” cresceram 156% desde 2017, aumentando ainda mais depois da aquisição pelo Google. Outras empresas que que também estão à frente quando se trata de inovações com Inteligência Artificial é a Deep Mind, também comprada pela Google e que utiliza IA para traduzir e restaurar textos antigos, e a OpenAI, que cria imagens a partir de descrições feitas com linguagem natural.

4 –  Companhias estão contratando mais Cientistas de Dados

A quantidade de dados coletados por redes sociais e equipamentos IoT cresce a cada dia, aumentando, assim, a demanda por cientistas de dados. Para garantir o tratamento desses dados e a transformação deles em informações úteis, surge cada vez mais a necessidade de profissionais qualificados da área. Por causa desta realidade, o termo “cientista de dados” cresceu 93% em aparições online desde 2017. Outro fato interessante sobre o assunto é o surgimento de novos termos para profissionais que trabalham com dados, ou seja, subdivisões do cargo de cientista de dados, como Analista de Dados, Engenheiro de Dados, Arquiteto de Dados e outros.

5 – Cientistas de dados utilizando o Kaggle

Para quem é da área da ciência de dados isso pode não ser uma novidade. Entretanto, a plataforma Kaggle vem crescendo e sendo cada vez mais utilizada pelos cientistas de dados. Assim, tornou-se quase uma rede social para os profissionais, que a utilizam para tirar dúvidas, compartilhar suas soluções, buscar ajuda para soluções de problemas etc. O número de pesquisas pela plataforma cresceu 55% nos últimos 5 anos. Além disso, ela é utilizada por mais de 5 milhões de usuários em 194 países.

6 – Aumento de interesse na proteção dos dados dos consumidores

Após as últimas polêmicas sobre o uso indevido de dados de usuários de grandes plataformas, intensificou-se a preocupação e procura sobre o tema e questões sobre privacidade e proteção de dados. No Brasil, por exemplo, houve a implantação da LGPD. A partir disso, o número de pesquisas pelo termo “privacidade de dados” cresceu 125% nos últimos 10 anos.

7 – Modos de burlar aplicações de IA

Houve um grande aumento no número de pesquisas sobre o assunto. A ideia deste tipo de ação é provocar “ilusões de óptica” nas aplicações de Machine Learning por meio da utilização de padrões que confundem o funcionamento de Inteligências Artificiais que fazem reconhecimento facial ou adicionando dados que possam resultar em erros. Algumas das motivações para esse tipo de intervenção seria para o cometimento de atividades criminosas ou então para encontrar possíveis erros e realizar melhorias no funcionamento dessas aplicações.

Tendências em ciência de dados – Considerações finais

A tecnologia é uma das áreas que mais produz inovações, e também uma das que mais exige a atenção dos profissionais do setor em relação às tendências, aos temas em alta e às novidades que estão sendo testadas e implementadas. Portanto, estar atualizado sobre as tendências de mercado é algo muito importante e estratégico. 

Os tópicos aqui abordados são previsões para os próximos 3 ou 4 anos, considerando a popularidade dos termos em ferramentas de busca ou de social listening com dados coletados em anos passados. Outro ponto importante é considerarmos que nem toda ação humana é previsível, podendo ser influenciada por grandes eventos e fatores internos e externos ao tema em discussão, mas tendências baseadas em dados como essa lista nos ajudam a traçar um possível panorama de como será o futuro da área de ciência de dados. 


Quer saber mais sobre como funcionam as atividades de previsão? Confira nosso artigo sobre previsão de demanda

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

O impacto da computação quântica na ciência e segurança de dados

O impacto da computação quântica na ciência e segurança de dados

Antes de mais nada, para entender o que é a computação quântica e como um computador quântico vai (possivelmente) impactar as nossas vidas no futuro, precisamos compará-lo com um computador clássico, e compreender como ele processa os dados.

Computador clássico e portas lógicas

Um computador clássico opera com bits, ou seja, unidades binárias de memória que podem receber valores 0 ou 1. Toda a informação, inclusive cada caractere e pixel de luz que está chegando aos seus olhos agora, está armazenado em algum dispositivo eletrônico (no seu computador ou na nuvem) na forma destes bits. Mais especificamente, eles podem ser processados por meio de portas lógicas, ou seja, estruturas físicas ou um sistema que recebe um conjunto destes bits e retornam um outro bit, 1 se a condição for satisfeita ou 0 se não o for. Na área de programação, chamamos essas funções de operadores Booleanos (nome dado devido aos estudos de George Boole, que publicou trabalhos importantíssimos em lógica algébrica).

De maneira resumida, existem 8 tipos de portões lógicos que são utilizados para se construir um computador universal da forma que conhecemos hoje. Isto é, nossos celulares, laptops, SmartTV’s e calculadoras de bolso utilizam circuitos que possuem esses portões em sua construção.  Cada portão possui um símbolo e retorna um bit diferente com base nos bits de entrada. Caso tenha curiosidade em saber mais, aqui está um material bem explicativo sobre o assunto. Algoritmos computacionais, transcritos de maneira física em nossas placas-mãe, memórias e processadores, utilizam diferentes combinações destas portas lógicas para processar dados e informações. Esse é o segredo da computação clássica. 

Ok, mas onde entra a computação quântica, e o que ela tem de tão diferente pra empresas investirem bilhões no seu desenvolvimento?

Computação quântica

O termo “quantum” foi cunhado por Max Planck ainda no início do séc. XX para descrever a energia da radiação que deixou de ser apresentada de forma contínua, e agora precisava ser “quantizada”, ou seja, dividida em pequenos pedaços ou pacotes para que a teoria concordasse com o experimento em algumas áreas da física. Dito isso, a principal diferença está justamente na forma que um processador quântico opera os seus bits de dados.

Na verdade, um computador quântico opera com o que convencionou-se chamar de Qubits, e sua principal (e drástica) diferença é que um Qubit consegue armazenar valores de 0, de 1 e também uma mistura, chamada de superposição, de dois estados 0 e 1. Este terceiro estado, que é uma consequência direta da física quântica (parte da física que estuda sistemas muito pequenos, na escala atômica), é o que possibilita que se crie novas portas lógicas, além das 8 descritas acima, e que algoritmos de computação quântica sejam tão poderosos.

Fonte: https://towardsdatascience.com/the-need-promise-and-reality-of-quantum-computing-4264ce15c6c0

Em outras palavras, portas clássicas operam com bits clássicos, que armazenam apenas 0 e 1, enquanto que portas quânticas operam bom Qubits, que, além dos estados 0 e 1, possuem propriedades adicionais que são superposição e entrelaçamento.

Superposição

Acredito que a forma mais difundida de explicar o fenômeno da superposição seja o experimento mental do Gato de Schroedinger. Verdade seja dita, o Prof. Schroedinger, à época, pensou nesse experimento como um contraexemplo para demonstrar que a interpretação corrente da mecânica quântica não fazia sentido. Anos se passaram e a história do gato vivo e morto agora é usada como camiseta de calouros de cursos de física no mundo todo.

Sem me alongar demais, a questão é a seguinte: A física quântica é descrita matematicamente por meio de uma série de equações diferenciais. Estas equações, que descrevem estados físicos e outras propriedades da matéria, possuem mais de uma solução satisfatórias e que descrevem bem alguns experimentos. Acontece que, matematicamente falando, se uma equação diferencial dessas possui uma solução A, que descreve por exemplo a posição de um elétron; e uma solução B, diferente de A, é possível demonstrar que A e B são uma solução, ao mesmo tempo, para aquela equação. E é aqui que, ao meu ver, começa toda a confusão. A interpretação corrente mais aceita hoje para essas equações é que a partícula existe num estado de superposição, ou seja, no estado A e B ao mesmo, entretanto colapsa para um ou outro, quando uma medida é realizada. 

Entrelaçamento

Bom, como se não bastasse a estranheza do conceito de superposição, algumas partículas ainda apresentam um conceito sujeitado a esse, que é o entrelaçamento. Quando um par de partículas é criado, elas dividem algumas propriedades em comum. De certa maneira, é como se aquela mesma solução A & B valesse para as duas ao mesmo tempo, mesmo que estejam a km de distância uma da outra. Em alguns casos, o entrelaçamento combinado com a superposição significa que quando você medir a solução A e colapsar o estado de superposição da primeira partícula, a segunda, automaticamente, (o que Einstein chamou de ‘Efeito fantasmagórico a distância) colapsará para o estado B sem que seja preciso fazer medida nenhuma (lembre-se que, para colapsar um estado de superposição, é necessário que se faça a medida e no caso do entrelaçamento, a medida precisa ser feita em apenas uma das partículas entrelaçadas).

Não se preocupe se os conceitos acima parecem confusos. São mesmo. Físicos no mundo todo ainda discutem se as interpretações da mecânica quântica têm alguma implicação mais fundamental na nossa realidade do que correntemente aceita. Entretanto, isso não impede de que os resultados da mecânica quântica possam ser utilizados nas mais diversas aplicações. E aqui nós voltamos para a computação quântica. 

Funcionamento do computador quântico

Da mesma forma que computadores clássicos podem ser construídos bit a bit, com transistores e os portões lógicos que mostrei anteriormente, um computador quântico é montado Qubit a Qubit, com portas quânticas que operam estes Qubits e permitem fazer todos os cálculos que um computador comum faria (e muito mais), em teoria. Na prática, a construção e manutenção de um computador quântico é uma tarefa laboriosa, já que os Qubits só mantêm suas propriedades quânticas em condições muito específicas, como baixíssimas temperaturas, próxima do zero absoluto, e isolados de qualquer fonte de perturbação externa. 

IMB cunhou um termo chamado de volume quântico, que expressa de certo modo o número de Qubits num processador quântico versus a taxa de erro. É uma medida de capacidade computacional. Em outras palavras, se o erro nas medidas quânticas persiste, mesmo que na casa dos milésimos, de nada adianta aumentar o número de Qubits. A capacidade computacional só aumentaria de fato quando o erro fosse menor que 1 milionésimo, mas de toda forma as duas coisas precisam caminhar juntas. 

Desafios da computação quântica

Por mais maravilhoso entusiasmado possamos ficar com as notícias de supremacia quântica atingida por algum supercomputador ao redor do mundo, devemos ter cautela em entender que existem também muito mitos por aí e, mais importante que isso, muito desenvolvimento para ser realizado tanto em engenharia quanto em sistemas para esses computadores. Um deles diz respeito ao “paralelismo quântico”, ou seja, um computador quântico poderia realizar várias operações em paralelo e devolver a melhor resposta para um problema específico.

Por mais que de fato um computador quântico possa lhe fornecer a melhor solução para um problema complexo de maneira exponencialmente mais rápida que um computador clássico, a maneira com que ele faz isso se deve intrinsecamente às leis da mecânica quântica, da qual não temos uma compreensão completa, ainda. Michael Nielsen, autor de um dos livros mais citado nesta área, afirma que se houvesse uma explicação simples para como um computador quântico funciona, então isso poderia ser simulado num computador clássico. Mas, se isso pudesse ser de fato simulado num computador convencional, então não seria um modelo acurado de um computador quântico, já que computadores quânticos, por definição, não operam de forma convencional. 

Sendo assim, o aspecto crucial da computação quântica reside na forma que os Qubits estão organizados em portas lógicas quânticas, as quais possuem ainda uma propriedade diferente das portas clássicas, que é a reversibilidade. Isto é, cada porta quântica possui uma espécie de mecanismo que permite acessar valores anteriores, o que não é possível, ainda, na computação convencional. Podemos entender com isso que computadores quânticos não perdem a informação que é processada.

Matrizes de Pauli

Quase toda a física quântica pode ser expressada na forma matricial. Assim, teoricamente, podemos descrever os Qubits como vetores e os portões na forma de matrizes. Um portão pode operar mais de 1 Qubit ao mesmo tempo. Se esse for o caso, este portão será representado por uma matriz 2×2. Estes portões que operam em Qubits únicos por vez são conhecidos como portões (ou matrizes) de Pauli, em homenagem ao físico Wolfgang Pauli, que tem contribuições importantíssimas na mecânica quântica. 

Um exemplo de fácil entendimento é o portão X de Pauli, que opera de maneira semelhante ao portão NOT da computação convencional. 

Fonte: https://towardsdatascience.com/demystifying-quantum-gates-one-qubit-at-a-time-54404ed80640

Dizemos X pois os Qubits podem ser orientados nas três direções espaciais (X, Y, Z), e existe uma matriz de Pauli para operar em cada uma dessas direções. Além do portão de Pauli, talvez outro dos mais importantes que operam em Qubits únicos seja a porta de Hadamard. Sua principal função é transformar um Qubit de estado bem definido (0 ou 1) na tal superposição de estados quânticos.

Computação quântica na atualidade

Não entrarei em detalhe quanto à mecânica de cada portão quântico, mas vale dizer que, assim como na computação convencional, diferentes combinações de portões lógicos quânticos, em teoria, podem ser utilizadas para se criar um computador universal. Entretanto, você já deve ter ouvido falar de computadores quânticos em operação. Essas máquinas, apesar de já alegarem a resolução de problemas centenas de vezes mais rápido que um supercomputador clássico, ainda não são equipamentos universais, e seus chips são criados para resolver uma única tarefa. Não se tem notícia, até a data de escrita deste artigo, de nenhuma empresa que tenha criado um chip de computação quântica universal, porém houve avanços e, atualmente, empresas com a IBM possuem em seus laboratórios de desenvolvimento chips com mais de 100 Quibits em operação, mas com a finalidade de resolução de tarefas e cálculos específicos. 

Outra coisa que vale ressaltar é que estes computadores quânticos em operação são máquinas gigantescas, que ocupam salas, e talvez andares inteiros para que se mantenham em funcionamento.

Decoerência

O fenômeno que assombra processadores quânticos do mundo todo é a decoerência. Nos melhores computadores quânticos de propósito único, ela acontece após alguns poucos segundos em operação, e se deve principalmente na dificuldade de se manter os Qubits em seus estados iniciais e em superposição. Aliás, a decoerência é o principal motivo de não observarmos fenômenos quânticos no nosso mundo macroscópico. Se subirmos pouquíssimas ordens de grandeza em questão de quantidade de partículas, temperatura, ou tamanho, a decoerência entra em ação e todo o sistema volta a se comportar de acordo com a velha e boa física clássica. Entretanto, se lembrarmos que o ENIAC, o primeiro computador universal, também ocupava uma sala inteira, e considerarmos que a lei de Moore também valerá para processadores quânticos, podemos ser promissores em admitir que em algumas décadas teremos capacidade computacional quântica real para aplicações nas mais diversas áreas.

Computação quântica e aplicações

Mesmo com apenas algumas dezenas de Qubits, processadores quânticos universais já seriam capazes de superar a capacidade computacional atual em alguns problemas específico, como a modelagem molecular, essencial para a fabricação de novos fármacos e estudo de doenças, problemas de otimização de rotas e processos e categorização de números primos. Este último aspecto, é talvez o que deixa muitos gerentes de segurança da informação com pesadelos durante a noite. 

Acontece que a maioria dos algoritmos de encriptação e desencriptação de dados hoje funcionam com chaves baseadas em números primos. Sendo assim, um computador quântico universal poderia, em teoria, obter uma chave de desencriptação em questão de segundos. Os melhores firewalls e sistemas de criptografia seriam quase que transparentes para um computador quântico universal com algumas centenas de Qubits. A principal razão para isso é a forma que processadores quânticos processam os dados.

Segurança de dados

Considere um exemplo de um banco de dados com 1 bilhão de linhas, onde cada linha contém um nome. Para fazer uma busca nesse banco, um computador convencional (desconsiderando algoritmos de otimização) checa nome por nome daquela lista, até encontrar o resultado desejado. Dito de maneira bem simples, num computador quântico esta lista poderia estar armazenada num estado de superposição usando os Qubits,  então a “query” seria aplicada de forma a colapsar esta lista para o nome desejado na busca, com uma única operação. Com este simples exemplo já podemos ver a gritante diferença na performance dos computadores quânticos comparados com os convencionais, e muito mais ainda pode ser feito e está em desenvolvimento enquanto você lê este artigo. 

Porém, já existem formas de gestores se defenderem quando a supremacia quântica for atingida de fato. Desde a segunda metade do séc. XX, existem algoritmos de criptografia quântica que utilizam outras propriedades (esquisitas) da física quântica em benefício próprio. Um exemplo seria o (famoso) caso de Alice e Bob. Se Alice envia uma mensagem criptografada quanticamente para Bob, Bob pode saber se a mensagem foi interceptada, pois uma leitura por um terceiro feita à mensagem enviada por Alice alteraria os Qubits enviados de forma significativa. Isso ocorre, pois, estados em superposição, como disse, são alterados ou colapsados quando é feita uma medida. Acredito ser desnecessário dizer que o cenário real é infinitamente mais complexo que esse que apresentei, mas este exemplo foi só para ressaltar que nem tudo está perdido quanto à segurança da informação quando (ou se) os primeiros computadores quânticos universais estiverem disponíveis.

Computação quântica – Considerações finais

Para terminar, devo ressaltar que, apesar de ainda parecer um futuro distante, a computação quântica já está posta no mercado e deve movimentar bilhões de dólares nos próximos anos. Eu acredito que ainda veremos o paradigma da computação quântica ser quebrado e todas as implicações que isso irá trazer.

Mesmo que não compreendamos ainda 100% todos os aspectos da física quântica, ainda assim já a utilizamos há mais de um século em diversos dispositivos eletrônicos. Como comentei no artigo anterior, a miniaturização dos transistores só foi possível graças a cálculos de mecânica quântica. Portanto, não compreender completamente o que se passa dentro da caixa preta, que são as portas lógicas quânticas, não irá impedir a indústria de investir e utilizar essa tecnologia quando estiver pronta.

Existem ainda muitos desafios, seja no desenvolvimento de novos materiais, construção de hardware, algoritmos de programação, desenvolvimentos de sistemas etc. Entretanto, é bom estarmos preparados para as mudanças, principalmente num mundo mais e mais dependente do processamento de dados, pois com toda certeza o mundo vai mudar quando esse processamento crescer de maneira exponencial com o advento da supremacia quântica.

Leia também: Internet Tátil

Referências:

https://towardsdatascience.com/demystifying-quantum-gates-one-qubit-at-a-time-54404ed80640

https://towardsdatascience.com/the-need-promise-and-reality-of-quantum-computing-4264ce15c6c0

https://www.ibm.com/quantum-computing/

https://ai.googleblog.com/2019/10/quantum-supremacy-using-programmable.html

https://www.quantamagazine.org/the-era-of-quantum-computing-is-here-outlook-cloudy-20180124/

https://www.techtarget.com/searchsecurity/definition/quantum-cryptography#:~:text=Quantum%20cryptography%20is%20a%20method,secret%20key%20can%20decrypt%20it.
https://tecnoblog.net/especiais/joao-brunelli-moreno/eniac-primeiro-computador-do-mundo-completa-65-anos/

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Web 3.0 e a democratização do acesso à informação

Web 3.0 e a democratização do acesso à informação

Nos dias atuais, a informação é sem dúvida um dos bens mais preciosos e ter acesso a ela é parte do que faz um ser humano evoluir e expandir seus horizontes. Com a internet, o número de fontes de informação disponíveis só tem aumentado, fazendo com que basicamente qualquer assunto esteja retratado em algum lugar da rede. Porém, infelizmente, nem todos têm acesso a esse conteúdo, pois, por mais que os dispositivos conectados à internet estejam cada vez mais comuns, o acesso à pesquisa por informação ainda não é algo muito convidativo, principalmente para aqueles que não têm costume algum com o ambiente virtual. Entretanto, qual o caminho para a democratização do acesso à informação?

Hoje falaremos um pouco sobre como a web 3.0 pode ajudar nesse processo, principalmente para aqueles que têm dificuldades em interagir com o ambiente virtual. 

Web 3.0 – a democratização do acesso à informação

Primeiramente, precisamos entender um pouco mais sobre web 3.0 para então entendermos como as mudanças causadas por ela podem interferir na democratização do acesso à informação. 

Como já abordado em alguns artigos do nosso blog, a web 3.0 conta com as máquinas se unindo aos usuários para produzir conteúdo e tomar ações. Assim, as pesquisas na web poderão trazer muito mais informações úteis, relacionadas àquilo que o usuário está buscando. Iremos mostrar alguns exemplos nos tópicos seguintes para esclarecer melhor o assunto. 

Pesquisas antigamente

Algum tempo atrás, um dos dramas da vida de um estudante era encontrar informações a partir de uma pesquisa no Google, por exemplo. Caso quiséssemos saber informações úteis sobre o responsável pelo descobrimento do Brasil, precisaríamos pesquisar algo como “quem descobriu o Brasil” e o resultado seria uma grande coluna de links levando para sites que tivessem algo relacionado às palavras-chave da pesquisa. Então, ao entrar em um desses links, ainda precisaríamos ler todo o conteúdo dele para podermos extrair as informações desejadas, como o nome do indivíduo. 

Pesquisas atualmente

pesquisa no Google antigamente

Na imagem acima, podemos ver o resultado atual de uma pesquisa como “Quem descobriu o Brasil?”, onde o resultado nos traz em evidência a resposta exata da nossa pergunta: “Pedro Álvares Cabral”, além de algumas imagens do indivíduo. Isso é possível e frequente graças à web 3.0, que facilita a busca pelos resultados que realmente nos interessam.

Pesquisas futuramente

A ideia é que, com o avanço da tecnologia, pesquisas que nos dão como resultado aquilo que realmente buscamos se tornem cada vez mais comuns, a ponto de buscadores como o Google se tornarem verdadeiros assistentes virtuais, como de fato já acontece em muitos casos, tendo em vista que não só a Google como também outras empresas possuem suas versões de assistentes virtuais. 

Mais exemplos atuais

Além do demonstrado acima, podemos encontrar outros exemplos de pesquisas no Google que nos trazem informações realmente relevantes relacionadas àquilo que estamos pesquisando.

Ao pesquisarmos o código hexadecimal de uma cor, além da cor e informações sobre ela, podemos ver uma ferramenta de controle de cores:

como funciona a pesquisa no Google

Pesquisando “Barcelona”, dois exemplos podem ser notados. À esquerda, há um painel com informações sobre o desempenho do time e notícias. Além disso, podemos acompanhar em tempo real o desenrolar de uma partida, com placar e até mesmo um relógio mostrando o tempo de jogo. À direita, nota-se um outro painel no qual é possível ver informações sobre a história do time, seu escudo e outros pontos importantes.

Pesquisando “Campo minado”, além do painel com informações sobre o jogo, também podemos ver um painel no qual podemos de fato jogar o jogo pesquisado.

democratização do acesso à informação

Google Imagens

A necessidade dos usuários por informações relevantes fez com que o Google adicionasse uma ferramenta extremamente importante ao seu motor de busca: o Google Imagens.

O Google Imagens é um exemplo relativamente antigo de como informações relevantes são importantes no resultado de uma pesquisa. A ferramenta nasceu em 2001, após os desenvolvedores se depararem com a consulta de pesquisa mais volumosa que havia ocorrido até então: Jennifer Lopez em seu vestido verde Versace. A atriz havia usado o vestido na cerimônia do 42º Grammy Awards, em 23 de fevereiro de 2000, e isso fez com que inúmeros usuários buscassem pelo assunto. Enquanto o buscador do Google retornava links a partir da pesquisa, o que os usuários realmente desejavam era deixado de fora: a imagem da atriz usando o vestido. A partir disso, tendo em vista a necessidade dos usuários, a Google criou sua ferramenta de busca de imagens.

Conclusão – Democratização do acesso à informação

Levando em conta o que foi visto, podemos esperar por um ambiente virtual mais amigável para qualquer pessoa, desde crianças até idosos. Com a facilitação da pesquisa, pessoas de qualquer nível de instrução poderão ter acesso às informações que estão buscando de forma mais clara. 

Quem passou muito tempo na internet nas últimas décadas deve ter percebido que o que realmente importa em uma pesquisa são as palavras-chave pesquisadas. Por exemplo: “Brasil descobrimento” ao invés de “Quem descobriu o Brasil?” Entretanto, isso está cada vez mais próximo de mudar, já que a inteligência artificial está evoluindo para entender melhor as perguntas realizadas em linguagem natural. Assim, qualquer um com acesso à internet poderá ter acesso às informações procuradas por meio de simples perguntas aos buscadores, como se estivesse perguntando a um professor.

Leia também: Internet Tátil

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

 Autor

Internet Tátil

Internet Tátil

Como sentir texturas através da internet? A Internet Tátil é a resposta. 

O conceito da Internet Tátil é o próximo passo no avanço das comunicações e na forma como interagimos com a web em direção ao metaverso. Ela tem um grande potencial de impactar em diversos setores, como: varejo online, e-commerce, automação, logística, saúde, educação, trânsito, entre outros. 

Neste artigo, explicamos os principais conceitos relacionados à internet tátil.

O que é a Internet Tátil? 

Pesquisas na área de redes estão abrindo caminho a uma nova geração de Internet, chamada de “Internet Tátil” ou em inglês “tactile internet”, capaz de revolucionar alguns setores ao transmitir sensações por meio da rede, com o auxílio de dispositivos táteis, como luvas tácteis

A internet tátil deriva da tendência de evolução e natural do conceito da Internet das Coisas (Internet of Things, IoT). Ela permite a conexão de variados dispositivos à Internet, promovendo assim a ampliação de suas possibilidades de uso tanto para sistemas de realidade virtual (VR) quanto de realidade aumentada (qual a diferença entre entre realidade virtual e aumentada?). 

Para que a internet tátil funcione é necessário um conjunto de tecnologias (stack tecnológico) desenhadas para transmitir a sensação tátil (o tato) por meio da internet. Isso mesmo, com ela se torna possível sentir texturas de forma remota. Em outras palavras:

A Internet Tátil permite a troca de mensagens com dados táteis entre dispositivos físicos (computadores, celulares e tablets) por meio do uso de luvas e sensores táteis vestíveis. 

A partir dessa tecnologia, surgem diversas possibilidades interessantes, tais como: poder sentir a textura, o peso ou o formato de um objeto virtual em um ambiente virtual. 

Para que a experiência de cenários de controle remoto através de dispositivos vestíveis sejam o mais próximo possível da realidade, a internet tátil deve utilizar redes de baixa latência (muito rápidas) em linha com as evoluções das telecomunicações e as vias 5G.  

O que são os dados táteis?

Dados táteis representam a codificação de sensações táteis de um objeto virtual, aquelas que conseguimos sentir com a ponta dos dedos, como: 

  • Textura (rugosidade);
  • Umidade;
  • Peso;
  • Espessura.

Figura 1 – Associação entre sensações táteis, vibrações e faixas de frequência. 

Na imagem abaixo, está o modelo digital de uma sensação de rugosidade grossa. Isso significa que o processo de captura das sensações se assemelha ao processo de capturas de sons analógicos dos microfones e são então digitalizados.

Em outras palavras, com esta tecnologia será possível ver um objeto na tela do computador e sentir sua textura usando uma luva tátil. 

Modo de funcionamento da Internet Tátil

No sistema de internet tátil, devem existir no mínimo três entidades: 

  • Dispositivo de captura (Sensor) capaz de interpretar as texturas do objeto real (utilizado poucas vezes);
  • Um dispositivo principal que pode ser uma luva composta de sensores táteis que reproduzem os sinais capturados de determinado objetivo
  • Uma rede de comunicação que transmite os sinais táteis (gerados em tempo real ou armazenados em uma base de dados) para um dispositivo secundário (computador ou dispositivo móvel).

Imagine, por exemplo, os dados táteis de uma blusa (textura e peso).

Em um cenário de e-commerce, os dados já capturados de cada produto podem estar armazenados em uma base de dados e serem transmitidos pela rede de comunicação para uma luva tátil para que o cliente decida se quer comprar a blusa. Os dados podem ser tratados de forma similar às fotos dos produtos. 

Um outro cenário possível é a transmissão em tempo real de uma luva tátil para outra luva tátil (com sensores de captura) por meio da rede de alta velocidade. Em outras palavras, seria um cenário de videoconferência transmitindo dados táteis. 

Na figura abaixo está um desenho de um usuário utilizando uma luva tátil e a integração do dispositivo com a internet e o computador pessoal. Podemos imaginar uma luva com acesso direto à internet móvel (4G, 5G, Wi-Fi), enviando os dados pela internet. 

internet tátil

Barreiras para implementação

Em nossos estudos, verificamos que este é um campo relativamente novo de pesquisa e por esse motivo há diversas complexidades a serem resolvidas. 

A internet tátil é intrinsecamente dependente de dispositivos com baixa latência, alta taxa de resposta e dispositivos palpáveis, que transmitem sensações. Nos artigos estudados, os maiores esforços estão em diminuir o tempo de latência que, para ter uma sensação real de toque, deve ficar entre 1 ms até 10 ms

Alguns trabalhos da literatura mostraram que 30% do tempo de resposta (ou latência) é gasto com o dispositivo principal e secundário, porque eles precisam calcular várias operações complexas como os cálculos de cinemática direta e inversa, funções trigonométricas, algoritmos de controle de malha fechada e outros. O restante do tempo de resposta (70%) é gasto na rede de comunicação, ou seja, para 40ms da latência 28ms é para o sistema de comunicação. 

Impactos e Aplicações reais

É esperado que a internet tátil introduza diversas aplicações que irão enriquecer aquelas que já existem hoje. De acordo com o IEEE, tais características disruptivas desta nova tecnologia demonstram potencial para pesquisa e utilidade prática para um amplo espectro de áreas, como e-commerce, automação, logística, saúde, trânsito e outras.

Em outro artigo,  os autores discutem o papel da Internet tátil para vários sistemas industriais e identificam os principais casos de uso com os respectivos requisitos de conectividade. Eles analisam o papel da inteligência artificial e das plataformas de computação de ponta na superação das imperfeições dos ambientes sem fio.

De acordo com as citações mais influentes na área (link dos artigos 1 e 2) a inclusão de algoritmos de aprendizado de máquina em determinados cenários, como a identificação de um objeto a partir de suas características, o potencial desta tecnologia se mostra elevado .

Saúde

Um exemplo valioso para sociedade é a operação de médicos e profissionais da saúde a distância, conforme apresentado nos artigos A Comprehensive Survey of the Tactile Internet: State-of-the-Art and Research Directions e Challenges in Haptic Communications Over the Tactile Internet

Cirurgias remotas podem ser realizadas a partir de locais distantes, reduzindo o risco de pacientes que não podem se locomover. Cenários de urgência também são beneficiados, como quando um paciente necessita de um especialista que se encontra em outro hospital (Open Air).

No âmbito de tratamento de fobias, a exposição do paciente ao estímulo temido se mostra eficaz. Entretanto, esta é uma técnica de confronto que apresenta 45% de desistência. Em um ambiente virtual que pode ser controlado em níveis de intensidade gradativos e com a possibilidade de alternância entre estímulos visuais, auditivos e táteis, enxerga-se um menor risco para o paciente. Tais sessões também poderão ser executadas de quaisquer localizações devido à característica remota da internet tátil.

Comércio Eletrônico

Outro setor que será muito afetado é o de compras online. Além da apresentação visual a internet tátil irá proporcionar também a sensação de toque, textura, rugosidade e etc. 

A figura abaixo mostra um site de vendas online de roupas. Além das informações que já estamos acostumados a encontrar, como tipo da roupa, cor, tamanho e uma imagem representativa, com a internet tátil teremos a possibilidade de sentir a textura da roupa clicando em um botão que irá enviar esses dados para o dispositivo tátil que os clientes terão em casa.

Figura 2 – Site de comércio eletrônico de roupas. Além das informações convencionais (tamanho, preço, cor, imagem), o site irá disponibilizar dados táteis que representam a textura da roupa.

Educação

Muitos setores serão afetados e até remodelados pela internet tátil. Na educação, por exemplo, as tarefas de treinamentos poderão ser mais eficientes e menos custosas. Com uma melhor utilização de recursos, o aprendiz poderá utilizar-se desse novo meio de treinamento para adquirir experiência, evitando assim riscos desnecessários. Este novo tipo de treinamento será capaz de reproduzir o movimento de mãos do professor que está guiando para ensinar pintura e caligrafia, por exemplo [10]

Papel da IA no universo da Internet Tátil

A Inteligência Artificial é um dos principais pilares não apenas da internet tátil, mas de praticamente todas as tratativas ligadas à transformação digital e à indústria 4.0. A IA tem sido uma ferramenta chave para criar informações faltantes de datasets (o que são datasets?), detecção de outliers (o que são outliers?), previsão de demandas e comportamentos, simulações computacionais e até recentemente no controle de operações de alta complexidade de reatores de fusão nuclear.

Especificamente, para a questão da transmissão do tato a IA pode executar um papel importante em casos de falha de comunicação, já que dependendo da localização geográfica dos dispositivos, a latência de rede ainda trará uma sensação de atraso na recepção dos sinais táteis, algo indesejável nesse contexto. Por isso, segundo a IEEE, quando houver um atraso ou uma perda de sinal, o sistema fará uma predição para preencher esta lacuna e garantir que o usuário tenha a sensação tátil esperada. 

Mesmo em situações em que não há falha de comunicação, a IA desempenhará um papel fundamental na predição dos movimentos dos usuários (o que são análises preditivas?). Usando IA, será possível prever os próximos movimentos dos usuários (gestos com as mãos, por exemplo) e enviar esses sinais antes que eles aconteçam, garantindo assim a sincronia de comunicação e sensação tátil que temos no mundo físico.

Internet Tátil – Conclusão e Recomendações

Neste artigo, descrevemos o conceito da internet tátil e dados táteis com um roteiro para o futuro, investigando o papel da Internet tátil em sistemas industriais e comerciais da próxima geração na área da saúde, educação e comércio eletrônico, com algumas direções e desafios para pesquisas futuras. 

Como ponto central, o desenvolvimento desta inovação tecnológica se torna possível graças aos recentes avanços nas áreas de redes de computadores (tecnologias 4G e 5G), hardware (desenvolvimento de micro sensores e micromotores),  software para plataformas web (linguagens de programação, nuvens computacionais, armazenamento e processamento de grandes volumes de dados) e segurança computacional.

Espera-se que toda a sociedade se beneficie da internet tátil. Acreditamos que as escolas poderão utilizar esta tecnologia para abrandar seus métodos de ensino, ao passo que os hospitais e centros de saúde conseguirão ampliar seu atendimento com exames e diagnósticos mais precisos e feitos a distância. 

No campo de vendas e entretenimento, vislumbra-se a concretização do metaverso como uma nova forma de interação entre as pessoas e um uso intensivo de algoritmos de inteligência artificial para a otimização da comunicação e aperfeiçoamento de cada experiência, seja ela totalmente virtual ou de realidade aumentada. 

Gostaria de se aprofundar mais sobre Internet Tátil? 

Aqui separamos mais alguns links da nossa pesquisa como material extra. 

L2 – 01 – ComNets 3 – Tactile Internet – YouTube

L2 – 01 – ComNets 2 – Tactile Internet – YouTube

https://g1.globo.com/economia/tecnologia/video/facebook-demonstra-prototipo-de-luva-tatil-com-foco-no-metaverso-10046242.ghtml

Ainda, caso tenha interesse em participar do grupo de estudo, confira o link do Lapesd (Laboratório de Pesquisa em Sistemas Distribuídos – UFSC) . 

Gostou do artigo? Então deixe o seu comentário.

Referências

[1] Junior, J.C.V.S.; Torquato, M.F.; Noronha, D.H.; Silva, S.N.; Fernandes, M.A.C. Proposal of the Tactile Glove Device. Sensors 2019, 19, 5029. https://doi.org/10.3390/s19225029

[2] Junior, J. C. V. S., Torquato, M. F., Mahmoodi, T., Dohler, M., and Fernandes, M. A. C., Reconfigurable Computing Applied to Latency Reduction for the Tactile Internet, 2020.

[3] Ahmed Slalmi, Hasna Chaibi, Abdellah Chehri, Rachid Saadane, Gwanggil Jeon, Nadir Hakem. On the Ultra-Reliable and Low-Latency Communications for Tactile Internet in 5G Era. Procedia Computer Science, Volume 176, 2020, Pages 3853-3862, ISSN 1877-0509.

[4] A. Aijaz and M. Sooriyabandara, “The Tactile Internet for Industries: A Review” in Proceedings of the IEEE, vol. 107, no. 2, pp. 414-435, Feb. 2019, doi: 10.1109/JPROC.2018.2878265.

[5] N. Promwongsa et al., “A Comprehensive Survey of the Tactile Internet: State-of-the-art and Research Directions,” in IEEE Communications Surveys & Tutorials, doi: 10.1109/COMST.2020.3025995.

[6] M Dohler, G Fettweis, “The Tactile Internet – IoT, 5G and Cloud on Steroids,” Telefonica Guest Blog Post, 30 October 2014, >100k views; http://bit.ly/1BpOG3H.

[7] Aijaz, M. Dohler, A. H. Aghvami, V. Friderikos, and M. Frodigh. Realizing the tactile internet: Haptic communications over next generation 5g cellular networks. IEEE Wireless Communications, PP(99):2–9, October 2016

[8] D. Van Den Berg et al., “Challenges in Haptic Communications Over the Tactile Internet,” in IEEE Access, vol. 5, pp. 23502-23518, 2017, doi: 10.1109/ACCESS.2017.2764181.

[9] S. K. Sharma, I. Woungang, A. Anpalagan and S. Chatzinotas, “Toward Tactile Internet in Beyond 5G Era: Recent Advances, Current Issues, and Future Directions,” in IEEE Access, vol. 8, pp. 56948-56991, 2020, doi: 10.1109/ACCESS.2020.2980369.

[10] M. Aazam, K. A. Harras and S. Zeadally, “Fog Computing for 5G Tactile Industrial Internet of Things: QoE-Aware Resource Allocation Model”, IEEE Transactions on Industrial Informatics, vol. 15, 2019.

[11] Alves, Pedro V. A., Plataforma de teste em tempo real para internet Tátil, em LOCAL DO TCC DO PEDRO, Agosto 2021

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores