Web 3.0 e a democratização do acesso à informação

Web 3.0 e a democratização do acesso à informação

Nos dias atuais, a informação é sem dúvida um dos bens mais preciosos e ter acesso a ela é parte do que faz um ser humano evoluir e expandir seus horizontes. Com a internet, o número de fontes de informação disponíveis só tem aumentado, fazendo com que basicamente qualquer assunto esteja retratado em algum lugar da rede. Porém, infelizmente, nem todos têm acesso a esse conteúdo, pois, por mais que os dispositivos conectados à internet estejam cada vez mais comuns, o acesso à pesquisa por informação ainda não é algo muito convidativo, principalmente para aqueles que não têm costume algum com o ambiente virtual. Entretanto, qual o caminho para a democratização do acesso à informação?

Hoje falaremos um pouco sobre como a web 3.0 pode ajudar nesse processo, principalmente para aqueles que têm dificuldades em interagir com o ambiente virtual. 

Web 3.0 – a democratização do acesso à informação

Primeiramente, precisamos entender um pouco mais sobre web 3.0 para então entendermos como as mudanças causadas por ela podem interferir na democratização do acesso à informação. 

Como já abordado em alguns artigos do nosso blog, a web 3.0 conta com as máquinas se unindo aos usuários para produzir conteúdo e tomar ações. Assim, as pesquisas na web poderão trazer muito mais informações úteis, relacionadas àquilo que o usuário está buscando. Iremos mostrar alguns exemplos nos tópicos seguintes para esclarecer melhor o assunto. 

Pesquisas antigamente

Algum tempo atrás, um dos dramas da vida de um estudante era encontrar informações a partir de uma pesquisa no Google, por exemplo. Caso quiséssemos saber informações úteis sobre o responsável pelo descobrimento do Brasil, precisaríamos pesquisar algo como “quem descobriu o Brasil” e o resultado seria uma grande coluna de links levando para sites que tivessem algo relacionado às palavras-chave da pesquisa. Então, ao entrar em um desses links, ainda precisaríamos ler todo o conteúdo dele para podermos extrair as informações desejadas, como o nome do indivíduo. 

Pesquisas atualmente

pesquisa no Google antigamente

Na imagem acima, podemos ver o resultado atual de uma pesquisa como “Quem descobriu o Brasil?”, onde o resultado nos traz em evidência a resposta exata da nossa pergunta: “Pedro Álvares Cabral”, além de algumas imagens do indivíduo. Isso é possível e frequente graças à web 3.0, que facilita a busca pelos resultados que realmente nos interessam.

Pesquisas futuramente

A ideia é que, com o avanço da tecnologia, pesquisas que nos dão como resultado aquilo que realmente buscamos se tornem cada vez mais comuns, a ponto de buscadores como o Google se tornarem verdadeiros assistentes virtuais, como de fato já acontece em muitos casos, tendo em vista que não só a Google como também outras empresas possuem suas versões de assistentes virtuais. 

Mais exemplos atuais

Além do demonstrado acima, podemos encontrar outros exemplos de pesquisas no Google que nos trazem informações realmente relevantes relacionadas àquilo que estamos pesquisando.

Ao pesquisarmos o código hexadecimal de uma cor, além da cor e informações sobre ela, podemos ver uma ferramenta de controle de cores:

como funciona a pesquisa no Google

Pesquisando “Barcelona”, dois exemplos podem ser notados. À esquerda, há um painel com informações sobre o desempenho do time e notícias. Além disso, podemos acompanhar em tempo real o desenrolar de uma partida, com placar e até mesmo um relógio mostrando o tempo de jogo. À direita, nota-se um outro painel no qual é possível ver informações sobre a história do time, seu escudo e outros pontos importantes.

Pesquisando “Campo minado”, além do painel com informações sobre o jogo, também podemos ver um painel no qual podemos de fato jogar o jogo pesquisado.

democratização do acesso à informação

Google Imagens

A necessidade dos usuários por informações relevantes fez com que o Google adicionasse uma ferramenta extremamente importante ao seu motor de busca: o Google Imagens.

O Google Imagens é um exemplo relativamente antigo de como informações relevantes são importantes no resultado de uma pesquisa. A ferramenta nasceu em 2001, após os desenvolvedores se depararem com a consulta de pesquisa mais volumosa que havia ocorrido até então: Jennifer Lopez em seu vestido verde Versace. A atriz havia usado o vestido na cerimônia do 42º Grammy Awards, em 23 de fevereiro de 2000, e isso fez com que inúmeros usuários buscassem pelo assunto. Enquanto o buscador do Google retornava links a partir da pesquisa, o que os usuários realmente desejavam era deixado de fora: a imagem da atriz usando o vestido. A partir disso, tendo em vista a necessidade dos usuários, a Google criou sua ferramenta de busca de imagens.

Conclusão – Democratização do acesso à informação

Levando em conta o que foi visto, podemos esperar por um ambiente virtual mais amigável para qualquer pessoa, desde crianças até idosos. Com a facilitação da pesquisa, pessoas de qualquer nível de instrução poderão ter acesso às informações que estão buscando de forma mais clara. 

Quem passou muito tempo na internet nas últimas décadas deve ter percebido que o que realmente importa em uma pesquisa são as palavras-chave pesquisadas. Por exemplo: “Brasil descobrimento” ao invés de “Quem descobriu o Brasil?” Entretanto, isso está cada vez mais próximo de mudar, já que a inteligência artificial está evoluindo para entender melhor as perguntas realizadas em linguagem natural. Assim, qualquer um com acesso à internet poderá ter acesso às informações procuradas por meio de simples perguntas aos buscadores, como se estivesse perguntando a um professor.

Leia também: Internet Tátil

Quem é a Aquarela Analytics?

A Aquarela Analytics é vencedora do Prêmio CNI de Inovação e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial),  Auren (energia), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Telefônica Vivo (Telecomunicações), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal!

 Autor

Web semântica, Metaverso e 5G: diretrizes e o futuro dentro da Web 3.0

Web semântica, Metaverso e 5G: diretrizes e o futuro dentro da Web 3.0

Por meio das novas tecnologias direcionadas para a potencialização da Web 3.0 e com base no artigo anterior sobre a importância da web 3.0 nos negócios, percebe-se a relevância que o crescimento da Web semântica possui em relação ao futuro das pessoas e dos negócios, e também para a evolução da web 3.0. A partir disso, abordaremos neste artigo os principais tópicos para o futuro semântico da Web. 

Atualmente, as novas tecnologias impulsionam e facilitam a implantação de ferramentas da Web 3.0. Entretanto, observa-se a individualidade dos paradigmas voltados para o uso de dados. 

SOLID

Solid (Social Linked Data) é um projeto idealizado por Tim Berners-Lee, o criador da World Wide Web. O objetivo do Solid é proporcionar aos usuários o controle de seus dados. Assim, ele preserva a privacidade deles, direcionando quais serviços possuem permissão para utilizar seus dados. 

Para a descentralização do armazenamento dos dados do usuário, o Solid fornece os Pods em que o usuário possui uma espécie de “cofre digital” de seus dados. Dessa forma, o usuário controla todos os dados de forma segura e os aplicativos que podem obter as suas informações, concedendo permissões ou negando-as. Além disso, os Pods são interoperáveis e permitem que vários aplicativos que possuem permissão possam acessar os mesmos dados. Assim, não é necessário que os serviços acessem os dados separadamente.

Metaverso e web 3.0

No dia 28 de outubro, no Connect 2021, Mark Zuckerberg apresentou o projeto Meta. O objetivo do projeto é a junção de tecnologias e aplicativos da empresa proporcionando uma experiência virtual do mundo físico. Por meio de uma virtualização em três dimensões, as pessoas poderão se conectar e compartilhar momentos com outras pessoas, mesmo que elas estejam longe uma das outras. 

O que o Meta possui em relação a Web 3.0?

A proposta busca dar produtividade às práticas virtuais, onde será possível trabalhar, estudar e promover encontros sociais. Tudo isso se tornará possível por meio de realidade aumentada, realidade virtual e óculos inteligentes. Neles estão centrados os investimentos do projeto, visando à efetividade da proposta ao longo dos próximos anos. 

O projeto se sustentará em 4 pilares que se conectam com o futuro semântico da web, os quais são:

  • Expansão de opções e oportunidades na economia digital.
  • Diminuição de dados utilizados, direcionando as tecnologias para priorizar a privacidade através de informações controladas pelos usuários.
  • Fornecer segurança para as pessoas.
  • Acessibilidade: entregar as novas tecnologias de forma inclusiva. 

Qual o papel do 5G na Web 3.0?

O 5G é uma grande evolução na tecnologia, pois proporciona uma potencialização em velocidade e desempenho e um item fundamental para concretização do conceito da indústria 4.0.

Construída por meio de virtualização e direcionada a softwares, a tecnologia apresenta um novo horizonte de conectividade. Além disso, apresenta redução na latência, diminuindo o tempo de requisições e respostas. Desse modo, favorece o contexto da Web Semântica, impulsionando a computação em nuvem e a Internet das Coisas. Outro ponto é a acessibilidade, em que o 5G atuará na melhoria de conexões em áreas mais desfavorecidas e com menores infraestruturas. 

A relação presente entre a tecnologia 5G e Machine Learning impulsiona as inovações tecnológicas para o futuro por meio do alto desempenho, flexibilidade e conectividade. Muitas áreas poderão ser favorecidas com a proposta, se encaixando no contexto da Web 3.0, por intermédio da utilização e abastecimento de dados em tempo real, virtualização e infraestrutura em nuvem. 

SEO e Web 3.0

Search Engine Optimization (SEO) é um conjunto de técnicas que visam à otimização dos sites para alcançarem bons posicionamentos nos resultados das buscas. Essas técnicas estão em constante evolução nos últimos anos. 

Partindo da estratégia de link building, utilizada na web 2.0 com a estrutura de hiperlinks, os mecanismos de busca se consolidaram a partir de páginas com maiores quantidades de links relevantes no assunto que está sendo buscado. Contudo, com o crescimento da web e a alta presença de informações que não possuem relevância, a estratégia de link building vem sendo cada vez mais ineficaz nos avanços para a consolidação da Web 3.0.  

Quais são as evoluções em direção à Web Semântica? 

Presencia-se um novo horizonte para os negócios no plano digital, em que o bom posicionamento nas pesquisas de forma orgânica está cada vez mais seletivo. Isso se dá pelos avanços nos algoritmos dos mecanismos de busca, que estão mais direcionados à relevância do conteúdo construído e menos à quantidade de links presente na página. 

Atualmente, os mecanismos de busca já estão consolidando as propostas da Web Semântica, apresentando resultados estruturados por meio de pesquisas verticais com base na localização, ou seja, dois usuários de locais diferentes fazendo a mesma pesquisa terão resultados diferentes. 

Outro ponto importante é o Gráfico de Conhecimento (Knowledge Graph), produzido pela Google e que se posiciona em consonância com a proposta da Web Semântica, buscando uma maior otimização nos resultados esperados para o usuário. Isso significa que, mesmo que o indivíduo, fazendo uma busca superficial,  não deixe explícito o que espera como resultado, os mecanismos abrangem o conteúdo semântico que possui relação e relevância com aquela pesquisa. 

É possível notar a funcionalidade do Gráfico de Conhecimento por meio deste exemplo, onde foi feita uma pesquisa superficial apenas buscando por Homem-Aranha.

Como teremos o lançamento do novo filme do Homem-Aranha neste próximo mês de dezembro, o mecanismo de busca entende que o usuário pode estar procurando saber sobre esse lançamento, mesmo ele não deixando isso explícito. 

E qual o impacto desses avanços nos negócios? 

É notório os esforços dos mecanismos de busca para apresentar ao usuário os conteúdos que ele realmente precisa. Isso vai ao encontro da proposta da Web 3.0 e algoritmos de inteligência artificial no que diz respeito à entrega de resultados. Com poucas palavras, o indivíduo consegue ter um leque enorme de informações que irão agregar no que ele está esperando receber como resposta. 

Com isso, faz-se necessário a construção de um novo mindset de produção de conteúdo pelas empresas, direcionando o foco do seu negócio digital em agregar valor, ou seja, produzindo conteúdos que realmente façam a diferença para as pessoas, apresentando diferentes abordagens diante do assunto que elas trabalham. 

Assim, os negócios conseguirão acompanhar os avanços semânticos da Web, direcionando seus esforços para fortalecer ainda mais a proposta de consolidar a internet como um lugar de conhecimento mútuo. 

Metadados: XML, JSON

Metadados são referências que demarcam os dados, buscando facilitar a organização e interpretação das informações. Podendo ser estruturados e não estruturados, os metadados fazem parte da segurança, regras de negócio, e aproveitamento dos dados. Em relação à Web 3.0, os metadados constituem a edificação semântica das informações, solidificando os valores que os dados possuem para o usuário. 

Quais as diferenças entre XML e JSON?

XML é uma linguagem de marcação, usada para estruturação de dados, criada pela W3C. Possui facilidade de interpretação, sendo possível analisar sem utilização de softwares e grande integração na web na distribuição de informações. A característica mais relevante do XML está nos serviços que utilizam metadados com grandes complexidades, possuindo maior desempenho e exatidão nas buscas e estruturações. 

Muito usado em serviços web, o JavaScript Object Notation(JSON), vem sendo muito implementado. Possui grande diferencial nas características relacionadas à sua alta legibilidade, rapidez e otimização. Assim, vem se popularizando e se encaixando em várias linguagens, não só em JavaScript. A grande vantagem na utilização de JSON está na simplicidade de interpretação, otimização de recursos e rapidez. 

Em relação à Web Semântica, XML ou JSON?

Partindo da utilização de dados complexos, otimização de buscas e segurança dos dados, a linguagem XML se sobressai com seus recursos voltados a metadados com maiores estruturas, entregando uma facilidade interpretativa. Isso não quer dizer que JSON deva ser descartado do stack tecnológico, muito pelo contrário, sua utilização vem crescendo e implementando aprimoramentos. Com isso, muitas aplicações com o objetivo de serem rápidas e fluidas, conseguem atender a sua regra de negócios partindo da utilização de JSON. Além disso, com o contexto evolutivo das tecnologias e da Web 3.0, as melhorias nos recursos do JSON vêm sendo cada vez mais constantes, se sobressaindo em muitas características ao XML.

Fechamento/conclusão – Web semântica, Metaverso e 5G: diretrizes e o futuro dentro da Web 3.0

Dessa forma, é possível concluir que já se vivencia o processo de transformação da Web por meio de novas tecnologias voltadas para o enriquecimento dos conteúdos na internet. Sendo assim, é preciso mudar os paradigmas presentes nas implementações de negócios digitais, focando no valor do conteúdo que será entregue.

Vale ressaltar também que é possível contribuir para os avanços semânticos da Web, auxiliando em projetos open-source que visam participar do contexto semântico, promover os estudos voltados para as tecnologias implementadas na Web 3.0 e adaptar os negócios à proposta semântica da Internet. 

A convergência das tecnologias digitais como o 5G, Web semântica, Inteligência artificial gerarão ainda mais impactos na maturidade de governança de dados das empresas. Na indústria, haverá a melhoria nos processos de simulação, já no comércio haverá a ampliação do uso de técnicas de precificação dinâmica (pricing), cada vez mais contextualizadas incorporando algoritmos de cenarização.  

Além disso, observa-se o valor dos dados e a importância de o indivíduo possuir controle sobre eles. A finalidade é garantir a segurança, a privacidade e também a exatidão nos resultados que o usuário espera receber. Essa estratégia faz com que o usuário utilize a internet como uma ferramenta direcionada aos seus interesses, não apresentando resultados conforme interesses de terceiros.

Com as propostas expostas pelo projeto Metaverso e as implementações do 5G, é possível notar a importância de se preparar em relação aos requisitos para se ter resultados com a Web 3.0. Além disso, as propostas abrem portas para novos horizontes na internet em direção à riqueza dos conteúdos, realidade virtual, inteligência artificial e machine learning.

Partindo das diretrizes do SOLID é válido se atentar aos possíveis avanços futuros, voltados para aplicações com flexibilidade e segurança nos dados. Em consonância a isso, a estrutura desses dados também possui importância nas implementações. Assim, validam-se as análises entre XML e JSON e outros tópicos voltados para metadados. 

Gostou do artigo? Então deixe o seu comentário.

Quem é a Aquarela Analytics?

A Aquarela Analytics é vencedora do Prêmio CNI de Inovação e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial),  Auren (energia), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Telefônica Vivo (Telecomunicações), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal!

Autores

Indústria 4.0, Web 3.0 e a Transformação Digital

Indústria 4.0, Web 3.0 e a Transformação Digital

A indústria 4.0 é caracterizada pela migração do fluxo de valor em um movimento que sai dos recursos físicos concebidos e produzidos de forma centralizada, para os serviços concebidos e produzidos de forma descentralizada e cada vez mais personalizados pelo forte apoio de Advanced Analytics e IA, a partir de um processo de transformação digital.

Esse processo tem seu início com o boom da internet na primeira década do milênio. A emancipação da Indústria 4.0, que atingiu a sua maioridade em 2018, deixa de existir apenas em artigos científicos e laboratórios e toma força e vigor nos orçamentos das maiores corporações do mundo, conforme estabelecem as pesquisas da OCDE, Gartner Group e PWC.

A indústria 4.0 é materializada a partir dos conceitos da Web 3.0, cujo cerne está na democratização da capacidade de ação e de conhecimento (como já discutido neste post em nosso blog ). Mas antes de chegarmos no 4.0, vamos entender as suas versões anteriores em perspectiva:

Indústria 1.0

 Caracterizada pela descoberta dos ganhos econômicos ao produzir algo em série ao invés de produção artesanal (individual), possibilitando a mecanização do trabalho, que anteriormente só era executado por pessoas ou animais, foi o momento em que o homem começou a usar a força das águas, dos ventos e também do fogo, a partir das máquinas a vapor e moinhos.

Essa visão foi estabelecida por Adam Smith em 1776 no livro – A riqueza das Nações – onde ele apresenta as vantagens da segmentação do trabalho em uma fábrica de alfinetes. (saiba mais)

Componentes fundamentais – Carvão e Máquinas a vapor.

Indústria 2.0

Seu grande impulsionador foi a eletricidade que, a partir de geradores, motores e iluminação artificial, permitiu estabelecer as linhas de montagem, e assim se deu a produção em massa de bens de consumo.

Componentes Fundamentais – Eletricidade e Máquinas eletromecânicas

Indústria 3.0 

Caracterizada pela automação, tem como impulsionador o uso de robôs e computadores na otimização das linhas de produção.

Componentes Fundamentais: Computadores e Robôs

Indústria 4.0

A Indústria 4.0 é caracterizada pela forte automação das etapas de concepção, manufatura e distribuição de bens e serviços com forte uso de IC – Inteligência Coletiva – e IA – Inteligência Artificial. Na Indústria 4.0, com a evolução da Web, indivíduos são cada vez mais empoderados pelos seus agentes (smartphones). Dar vazão às necessidades desse novo consumidor é um dos grandes desafios da nova indústria.

Para ilustrar esse conceito criamos a seguinte tabela:

GeraçõesConcepção (Design)ManufaturaDistribuiçãoServiçosVirtude
Era pré-industrialPessoasPessoasPessoasPessoasTrabalho artesanal
Indústria 1.0PessoasMáquinasPessoasPessoasUso de energia hidráulica, térmica (vapor) e eólica
Indústria 2.0PessoasMáquinasPessoasPessoasUso de eletricidade e estabelecimento das linhas de montagem
Indústria 3.0Pessoas usando máquinas (computadores) como assistentesMáquinasPessoas e MáquinasPessoasUso de autômatos (robôs e computadores)
Indústria 4.0Inteligência Coletiva + MáquinasMáquinasMáquinasInteligência Coletiva + MáquinasUso de inteligência coletiva e computacional na etapa de concepção de produtos e serviços

Quadro 1 – As gerações da indústria – Aquarela Advanced Analytics 2018

Para compreender a Indústria 4.0 é importante esclarecer alguns conceitos que compõem seus alicerces: a IAInteligência Artificial e a IC – Inteligência Coletiva.

Inteligência Coletiva

Vamos começar pela IC, que é mais tangível, uma vez que usamos constantemente mecanismos que se valem da inteligência coletiva na produção e curadoria de conteúdos como: wikipedia, Facebook, Waze e Youtube.

  • Wikipedia: Por exemplo, a maior parte do conteúdo na Wikipedia é produzido por centenas de milhares de editores mundo afora e curado por milhões de usuários que validam e revisam seu conteúdo.
  • Waze: O aplicativo Waze usa o movimento dos próprios usuários para construir e aperfeiçoar seus mapas, fornecendo em tempo real caminhos alternativos para fugir de congestionamentos e novas rotas de novos trechos criados pelas cidades.
  • Facebook: O Facebook e Youtube são serviços que hoje detêm uma gama diversa de conteúdo que é gerado e curado espontaneamente pelos seus usuários por meio de likes e compartilhamentos.

O que esses mecanismos têm em comum? Eles se fiam da chamada inteligência das massas, um conceito estabelecido pelo Marquês de Condorcet em 1785, que define um grau de certeza e incerteza sobre uma decisão a partir de um coletivo de indivíduos.

Com centenas ou milhares de indivíduos agindo ao seu modo, ao somar todas essas ações, obtém-se um todo que é maior que a soma das partes. Esse comportamento coletivo é observado nos chamados efeitos de enxame, em que insetos, pássaros, peixes e seres humanos, agindo de forma coletiva, alcançam feitos muito maiores que se agissem de forma individual.

Condorcet mostrou isso de forma matemática, o que inspirou muitos líderes iluministas que usaram suas ideias como base para a formação das democracias nos séculos 18 e 19.

De forma contemporânea, podemos olhar um banco de dados como um grande lago de experiências individuais que formam um coletivo, o Big Data é responsável por coletar e organizar esses dados e o Advanced Analytics por aprimorar, criar e recriar coisas (disrupção) com o uso intensivo de estatística e IA.

Inteligência Artificial

Em um escrutínio criterioso, é possível entender a IA como uma implementação artificial de agentes que usam os mesmos princípios da IC – Inteligência Coletiva. Ou seja, ao invés de formigas ou abelhas, são usados neurônios e/ou insetos artificiais, que de certa forma simulam os mesmos comportamentos do mundo real em um mundo computacional (nuvem) e, dessa forma, obtém a partir da inteligência das massas: decisões, respostas e criações, como esta peça usada para sustentar uma ponte na capital da Holanda, Haia.

peça para sustentar uma ponte na Holanda

Do lado esquerdo a peça original criada por engenheiros, no meio e à direita duas peças criadas a partir de uma abordagem de IA chamada de algoritmos genéticos. A peça da direita é 50% menor e usa 75% menos material e, apesar disso, por conta de seu design, é capaz de sustentar a mesma carga dinâmica da peça da esquerda.

Há centenas de casos de uso de IA, que vão desde a detecção de sorriso em máquinas fotográficas e celulares a carros que se locomovem de forma autônoma em meio a carros com motoristas humanos em grandes cidades.

Cada caso de uso de IA usa um conjunto de técnicas que podem envolver aprendizado (Machine Learning), descobertas de insights e geração de decisões ótimas por meio de predição e prescrição (Advanced Analytics) e ainda computação criativa (Creative Computing).

Exemplos

O uso intensivo de IC e IA podem gerar novos produtos e serviços gerando disrupções que hoje vemos em algumas indústrias promovidas por empresas como Uber, Tesla, Netflix e Embraer.

Uber

No caso do Uber, eles usam fortemente a IC para gerar competição e ao mesmo tempo colaboração entre motoristas e passageiros, o que é complementada por algoritmos de  IA na entrega de um serviço de transporte confiável a um custo nunca antes disponível.

Apesar de ser 100% digital, está revolucionando a forma como nos transportamos e muito em breve lançará seus táxis 100% autônomos e, em um futuro próximo, drones que transportam seus passageiros pelos ares. Este é um exemplo claro de transformação digital a partir do redesenho por meio da perspectiva da Indústria 4.0.

Tesla

A Tesla usa IC a partir dos dados capturados dos motoristas de seus carros elétricos e, aplicando Advanced Analytics, optimiza seu próprio processo e ainda os usa para treinar a IA que hoje é capaz de dirigir um carro com segurança em meio ao trânsito de grandes cidades do mundo.

Eles são um exemplo material da Indústria 4.0. Usam IC e IA para desenhar seus produtos inovadores, uma cadeia de fábricas automatizadas para produzí-los e os vendem online. E muito em breve transportarão e entregarão seus produtos até a porta de seus clientes com seus novos caminhões elétricos e autônomos, fechando completamente o ciclo da Indústria 4.0.

Netflix

A Netflix, por sua vez, usa o histórico de acessos aos filmes e notas auferidas pelos seus usuários para gerar um lista de recomendações de preferências que servem de entrada para a criação de originais da própria empresa como os sucessos House of Cards e Stranger Things. Além disso eles usam a IA do algoritmo Bandit (da própria Netflix) para gerar capas de títulos e curadoria de lista, que atraiam os usuários (espectadores) a consumir novos conteúdos.

Embraer

A Embraer, 3ª maior fabricante de aviões do mundo e maior empresa de inovação no país usa IA, IC e Advanced Analytics em sistemas de manutenção de equipamentos.

Com o uso dessas técnicas é possível, a partir das experiências de manutenções e procedimentos de mitigação de riscos aplicados a uma IA, conseguir reduzir os custos de processos de troubleshooting em equipamentos de alto valor, chegando a uma economia de até 18% em uma indústria onde margens aparentemente baixas podem gerar impacto competitivo considerável.

Conclusões e recomendações

O caminho para a indústria 4.0 está sendo pavimentado pelas técnicas de IC, IA, Advanced Analytics, Big Data, Transformação Digital e Service Design e com bons exemplos de líderes globais.

A mudança é muitas vezes um processo que pode gerar ansiedade e desconforto, mas ela é necessária para alcançar as virtudes da Indústria 4.0.

Com relação às nações, a entrada tardia nos movimentos industriais pode gerar grandes dificuldades de competição. Por exemplo, no Brasil, a industrialização só foi possível pela força econômica do café centralizada no vale do Paraíba, e de certa forma foi tardia.

Qual a força e região do país que impulsionará a indústria 4.0? Acreditamos que regiões com alto IDH, alta conectividade e apoio ao trabalho em rede na forma de ecossistemas sairão na frente nessa nova corrida industrial.

Sugerimos começar pequeno e pensando grande, inicie pensando em Dados, eles são os blocos construtivos de toda a Transformação Digital. Comece alimentando uma Cultura de Dados em sua empresa/departamento/setor.

E como começar a pensar em Dados? Comece definindo seus dicionários, eles serão suas cartas náuticas em meio à jornada da Transformação Digital.

Entender o potencial dos dados e os novos negócios que eles podem gerar é instrumental para a transição de: produtor de bens físicos para: fornecedores de serviços que podem ser apoiados por produtos físicos ou não. Vide Uber e AirBnb, ambos não possuem carros ou imóveis, mas são os responsáveis por uma fatia generosa do mercado de transporte e acomodação.

Recomendamos elevar o grau de maturidade começando por um diagnóstico, depois a elaboração de um plano de ação e sua aplicação.

Na Aquarela desenvolvemos um Business Analytics Canvas Model que trata-se de uma ferramenta de Service Design para a elaboração de novos negócios baseados em Dados. Com ele é possível promover o uso intensivo de IC, IA nas etapas de Concepção e Serviços, os elos que caracterizam a mudança da Indústria 3.0 para a 4.0.

Em breve publicaremos mais sobre sobre o Business Analytics Canvas Model e as técnicas de Service Design voltadas para Advanced Analytics e IA.

Forte abraço!

Quem é a Aquarela Analytics?

A Aquarela Analytics é vencedora do Prêmio CNI de Inovação e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial),  Auren (energia), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Telefônica Vivo (Telecomunicações), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal!

Autores

O que é a web 3.0? Qual sua importância para os negócios?

O que é a web 3.0? Qual sua importância para os negócios?

Saudações a todos!
O conceito Web 3.0 e seu stack tecnológico (tecnologias envolvidas) são importantes e aqui explicamos o porquê. 

A cada dia o volume de dados e informações na internet cresce exponencialmente. Novos sites, imagens, vídeos e outras mídias são postadas a cada segundo. Assim, com esse volume de dados, como tornar as buscas por informação relevante com um custo benefício aceitável para atividades diárias? Portanto:

Em um contexto complexo de informações intensivas em constante mudança, as ferramentas da Web 3.0 são valiosas para usuários na organização de informações e processos de negócios em grande escala.

A evolução da Web

Desde o surgimento da primeira versão da Web, criada no início da década de 90 por Tim Berners-Lee na Suíça, suas tecnologias sofreram significativas evoluções, principalmente na interatividade com o usuário e na massificação da utilização da rede.

Em resumo, de acordo com nossas pesquisas, a história da web se deu em três fases importantes:

A Web Statica – Web 1.0

A Web 1.0 apresentava dados e informações de forma predominantemente estáticas, era caracterizada pela baixa interação do usuário, permitindo pouca ou nenhuma interação.

As tecnologias e métodos da Web 1.0 ainda são utilizadas para a exibição de conteúdos como leis, informativos e manuais. Assim, essa geração da Web foi marcada pela produção centralizada de conteúdos como os portais, UOL, ZAZ, Terra, AOL e os diretórios, Yahoo, Cadê e Craigslist. 

Nestes portais e diretórios, o usuário é apenas o consumidor de conteúdos em um contexto onde poucos produzem para muitos. Isto é, um modelo muito próximo de broadcasting (TVs, rádios, jornais e revistas). 

A grande virtude da Web 01 é a democratização do acesso à informação.

A Web Interativa – Web 2.0

A Web 2.0 em contraste à Web 1.0, tem seu conteúdo gerado predominantemente por seus usuários em um processo onde: muitos produzem e muitos consomem. 

Um exemplo, talvez um dos principais, desse modelo é a plataforma Wikipédia. Da mesma forma, também se beneficiaram deste conceito foram os blogs, as redes sociais e o conhecido Youtube

Na Web 2.0 o usuário deixa de ser apenas consumidor e se torna um produtor, ou coprodutor de conteúdos. 

A grande virtude da Web 2.0 está na democratização da produção de conteúdo.

A Web da interação inteligente – Web 3.0

A Web 3.0 ou Web Semântica reúne as virtudes da Web 1.0 e 2.0 adicionando a inteligência das máquinas. 

Em 2001 Tim-Berners Lee, o criador da Web, apresenta um artigo na revista Scientific American estabelecendo os pilares para a Web Semântica. 

No texto, Berners-Lee explica como dois irmãos combinam a logística do tratamento médico que a mãe deles precisava fazer. 

Na estória de Berners, os irmãos usando agentes inteligentes fazem todo o planejamento do tratamento, incluindo a marcação das consultas e a escala de caronas que os dois deveriam revezar, os agentes interagem com os sistemas das clínicas, entre si e com os dispositivos da casa.

Na Web 3.0, as máquinas se unem aos usuários na produção de conteúdo e na tomada de ações, tornando a infraestrutura da internet, de coadjuvante para protagonista na geração de conteúdos e processos. 

Assim, os serviços da Web 3.0, unem-se aos usuários e aos produtores profissionais na criação ativa de conhecimento.  Dessa forma, com sua grande capacidade de processamento, a Web 3.0 é capaz de trazer para as pessoas e para as empresas, serviços e produtos com alto valor agregado por conta da sua assertividade e alta personalização,

A grande virtude da Web 3.0 é a democratização da capacidade de ação e conhecimento, que antes só estava acessível às empresas e aos governos.

Resumo comparativo das Webs

comparativos das webs
Resumo da análise da evolução da Web

Exemplos Web 3.0

Alguns exemplos de aplicações da Web 3.0 são o Wolfram Alfa e na Siri da Apple: estes dois aplicativos conseguem resumir grandes quantidades de informações em conhecimento e ações úteis para as pessoas.

Wolfram Alpha

Para entender melhor a diferença entre a Web 2.0 e a 3.0, podemos fazer um pequeno comparativo entre o Wolfram Alfa e o Google, usando as duas ferramentas, digitando a frase “Brasil vs Argentina” em ambos buscadores, vemos a diferença nos resultados, veja na figura abaixo:

Comparativos dos resultados das ferramentas de busca

Comparativo Google e Wofram Alpha como exemplo de aplicação Web 3.0

Primeiramente, no caso do Google, os resultados são voltados aos conteúdos mais frequentes, enfatizando os jogos entre Brasil e Argentina. Nota-se que a palavra “futebol” ou “jogos” não foram mencionadas na busca.

Por outro lado, no resultado do Wolfram Alpha, a ferramenta entende que a busca se trata de uma comparação entre os dois países. Consequentemente retorna dados estatísticos, históricos, geográficos (mapas), demográficos, linguísticos entre outros aspectos úteis de comparação.

Siri Apple

A Siri da Apple, por sua vez, usa técnicas de reconhecimento de voz e inteligência artificial para trazer resultados e efetuar ações, como por exemplo: 

“onde fica a pizzaria mais próxima?”, “estou a quantos quilômetros do próximo posto de gasolina” ou ainda “marque uma reunião para às 15h00 amanhã”.

Na Web 1.0 e 2.0 a busca é espécie de pesquisa “cara-crachá” do texto em relação ao que existe publicado na rede, muitas vezes com o viés do que é mais abundante, não trazendo o que é mais relevante para o usuário naquele momento.

Uma das distinções dos buscadores da Web 3.0, com relação aos da Web 1.0 e 2.0, está no tempo que usuário pode gastar navegando em um mar de informações até realmente encontrar o que ele realmente procurava.

Já os sistemas que operam nos padrões Web 3.0 buscam conhecimento contextualizado para auxiliar as pessoas em suas tarefas, apontando uma série de possibilidades de análise e informações relevantes. 

Conclusões e recomendações

A Web 3.0 surge de maneira gradual, tal qual foi da versão 1.0 para a 2.0, se encaminhando para um ambiente mais dinâmico onde o conhecimento em ação pode acelerar exponencialmente negócios em processos de:

Lembrando que o conhecimento é a informação justificada e contextualizada capaz de mudar algo ou alguém, o que pode ser traduzido como capacidade de ação. Portanto, entendemos que:

 a Web 3.0 começa a trazer conhecimento capaz de promover mudanças em larga escala para as pessoas, organizações promovendo a democratização da capacidade de ação e conhecimento em uma magnitude muito maior se comparada com o que foi alcançado com as Web 1.0 e 2.0.

Empresas como Apple e IBM vêm investindo pesado em tecnologias da Web 3.0, por exemplo, a Google Inc. na última década fez várias aquisições de empresas que trabalham com as tecnologias da Web Semântica, como por exemplo a Applied Semantics, e a Metaweb Technologies, Inc, entre outras.

Vale a pena aos inovadores, sejam eles empresários, políticos ou pesquisadores, entender mais sobre esse novo horizonte de possibilidades e estarem preparados para a nova geração de negócios. 

Sem a visão das mudanças da Web 3.0 há um risco grande de empresas tradicionais tornarem obsoletas no momento da virada de paradigma, assim como aconteceu com gigantes do passado como Kodak,  Nokia e Altavista, que em seus mercados, não se modernizaram em tempo.

Quem é a Aquarela Analytics?

A Aquarela Analytics é vencedora do Prêmio CNI de Inovação e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial),  Auren (energia), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Telefônica Vivo (Telecomunicações), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal!

Autores

Dados desbalanceados: como equilibrar as ocorrências das classes?

Dados desbalanceados: como equilibrar as ocorrências das classes?

A ciência de dados é uma área da inteligência artificial que tem crescido muito nos últimos anos. Essa área é responsável pelo estudo e análise de dados de diversos ramos para obtenção de ideias, identificação de padrões, desenvolvimento de modelos matemáticos e estatísticos para inferir sobre novos dados, entre outros. A partir disso, hoje iremos falar um pouco sobre um problema associado a ela, os chamados dados desbalanceados.

Veja também: 7 tendências em ciência de dados

Dados desbalanceados

Podemos pensar em um banco de dados (dataset) como uma tabela em que cada coluna representa uma informação sobre determinado tópico e as linhas são as quantidades de dados disponíveis. No mundo da ciência de dados, é comum encontrar datasets que relacionam os dados com uma classe (também chamada de categoria ou rótulo).

Na grande parte dos problemas cotidianos, é frequente que haja mais dados de uma classe do que de outra, conforme no exemplo da Figura 1, em que temos muito mais ocorrência de dados na classe A do que na classe B. Um exemplo mais prático disso seria na área da saúde, em que há mais exemplos disponíveis de pessoas saudáveis do que com algum problema de saúde (câncer, arritmia cardíaca, convulsões, entre outros); ou então em fraudes de pagamento, sendo mais comum a não ocorrência de fraude. 

Figura 1: Exemplo de dados desbalanceados em duas classes hipotéticas, A e B.
Figura 1: Exemplo de dados desbalanceados em duas classes hipotéticas, A e B

Dessa forma, o desbalanceamento de dados é justamente a questão de termos mais informações a respeito de uma classe (majoritária) do que da outra (minoritária). Pode-se expandir a mesma lógica para problemas com múltiplas classes. 

Problemas causados pelos dados desbalanceados

Quando o assunto é análise exploratória de dados, o desbalanceamento não chega a ser tão comprometedor. Se a quantidade de dados disponível for o suficiente para buscar insights, o desbalanceamento não chega a ser um problema, uma vez que podemos obter algumas conclusões sem uma grande quantidade de dados. Entretanto, quando o assunto são modelos de aprendizado de máquina, a influência do desbalanceamento de dados fica evidente. 

Digamos que um cientista de dados esteja trabalhando para desenvolver um modelo de aprendizado de máquina para algum problema de classificação ou previsão e ele possui um banco de dados desbalanceado. Caso nenhuma medida seja tomada a esse respeito, é muito provável que o modelo projetado tenha facilidade em identificar os dados referentes à classe majoritária (afinal, ele teve mais exemplos de dados dessa classe), mas tenha dificuldade na identificação dos dados da classe minoritária. Isso pode gerar uma má interpretação do modelo, pois, a princípio, ele está tendo um bom desempenho no acerto geral (acurácia), mas, se a intenção for justamente identificar os dados da classe minoritária, ele se torna um péssimo modelo.

Para visualizarmos isso de forma mais simples, vamos olhar para a Figura 2, que mistura imagens de cachorros da raça Chihuahua com muffins.

Figura 2: Cachorros Chihuahuas e muffins.
Figura 2: Cachorros Chihuahuas e muffins (Google Imagens)

Apesar de serem coisas completamente diferentes, os rostos dos Chihuahuas e os muffins da figura apresentam algumas características em comum, como formato, tamanho e cor. Para um modelo de aprendizado de máquina, essas características da classe Chihuahua e da classe muffin podem ser parecidas ao ponto de haver certa dificuldade para diferenciá-las. Nesse sentido, se por acaso tivermos muito mais imagens de Chihuahuas do que de muffins, o modelo apresentará dificuldades na classificação.

Tratando o problema

Vimos com um exemplo simples como o desbalanceamento de dados pode dificultar o trabalho de um cientista de dados. Portanto, é de suma importância que haja uma forma de lidar com esse problema de forma a minimizar a maior influência da classe majoritária sobre a minoritária. A busca de mais dados seria a forma mais simples e óbvia.

Retomando como exemplo a Figura 1, bastaria buscar mais dados da classe B até se igualar à da classe A. Acontece que nem sempre é tão fácil quanto parece. No exemplo da Figura 2, essa abordagem é perfeitamente viável, mas quando um profissional está trabalhando com o banco de dados de um cliente nem sempre isso é possível. Logo, outras ferramentas são necessárias para balancear os dados.

Undersampling

A técnica de undersampling consiste em retirar dados da classe majoritária para se igualar à da majoritária, conforme mostrado na Figura 3.

Figura 3: Exemplo da técnica de undersampling, com diminuição de dados da classe A para se igualar à quantidade de dados da classe B.

Ainda na técnica de undersampling, existem diversos métodos que podem ser aplicados para selecionar quais dados serão retirados. Por exemplo: retirar dados de maneira aleatória ou seguindo alguma métrica matemática de distância entre os dados de cada classe no plano amostral. Outras técnicas de undersampling procuram agrupar dados correlatos, podendo retirar algumas amostras sem comprometer muito a quantidade de informação da classe.

Oversampling

Já a técnica de oversampling consiste em gerar dados sintéticos da classe minoritária a partir dos seus dados originais de forma a se igualar com o número de dados da classe majoritária. As principais técnicas de oversampling são SMOTE e ADASYN, que utilizam cálculos matemáticos para gerar novas amostras que se assemelham às originais, aumentando a quantidade de dados e mantendo as características da classe.

A Figura 4 exemplifica a ideia geral da técnica de oversampling, em que foram gerados novas amostras de forma a igualar o número de ocorrência da classe B à da classe A.

Figura 4: Exemplo da técnica de oversampling, com a inserção de dados sintéticos na classe minoritária para de igualar à quantidade de dados da classe majoritária.

Dados desbalanceados – Considerações finais

O desbalanceamento de dados é um tema comum no dia a dia das pessoas que trabalham nesse meio, entretanto pode ser um empecilho nos momentos de construção de modelos de classificação ou regressão. A identificação e o tratamento de dados faltantes é essencial para o bom desenvolvimento das atividades de um time de cientistas de dados, visto que o desbalanceamento de dados é muitas vezes responsável por acrescentar um viés nos modelos de aprendizado de máquina, distorcendo suas análises de desempenho.

Dessa forma, o objetivo deste texto foi apresentar a problemática envolvida no desbalanceamento de dados, bem como indicar algumas técnicas e métodos utilizados para contornar esse problema. Assim, chega a ser instigante pensar que, em um mundo cada vez mais rodeado de acesso à informação e geração de grande quantidade de dados, ainda tenhamos um tema que trata justamente de classes com maior ocorrência de informação do que outras.

Gostou do artigo? Então, deixe o seu comentário.

Leia também: Web 3.0 e a democratização do acesso à informação.

Quem é a Aquarela Analytics?

A Aquarela Analytics é vencedora do Prêmio CNI de Inovação e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial),  Auren (energia), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Telefônica Vivo (Telecomunicações), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal!

Autor