Qual a relação do Design de Serviços, a UX e a Indústria 4.0?

Qual a relação do Design de Serviços, a UX e a Indústria 4.0?

Muito tem se ouvido falar sobre a nova geração de produtos fruto da Indústria 4.0. Mas você sabe como eles surgiram e quais são os pilares por trás da criação desses produtos? Neste artigo, você poderá compreender como o design de serviços, aliado à automação do comportamento inteligente, pode interferir positivamente na vida das pessoas e trazer oportunidades para as empresas gerarem produtos mais eficazes e desejáveis.

Experiência do Usuário

O termo User Experience foi utilizado pela primeira vez por Donald Norman, designer, pesquisador, professor e autor americano na área de ciências cognitivas e da computação, na década de 1990. Norman defende o bom design e o uso de objetos e serviços de forma fácil e eficiente. Um famoso exemplo disso é o caso das “Portas de Norman”, citado em seu livro “O Design do Dia a Dia”. Ele identificou uma grande dificuldade de compreensão do uso das portas da universidade onde lecionava, pois elas possuíam puxadores, mas eram feitas para empurrar. Outras serviam para arrastar, mas não possuíam acessório para seu manejo. Então, em síntese: “Qualquer objeto que precise de instruções de uso, falhou no quesito funcionalidade.”

porta
Imagem: reddit.com

Uma boa experiência do usuário consiste não só em encontrar facilidade de usabilidade em um produto/ serviço, como também envolve aspectos psicológicos e cognitivos da experiência, uma vez que o usuário se identifica com o universo daquele bem de consumo, seja ele tangível ou intangível. Existem três pontos básicos para uma boa experiência:

(1) a utilidade (o produto precisa servir para alguma coisa, resolver um problema);

(2) a usabilidade (precisa ser fácil de usar);

(3) a desejabilidade (satisfazer ou encantar com suas soluções).

O Design de Serviços e os produtos

Utilizando metodologias do design, o Service Design (ou Design de Serviços) trabalha para entender o perfil dos consumidores, seus desejos e suas necessidades. Tudo para garantir que determinado serviço seja competitivo para o mercado e relevante para quem o usa. Em sua essência, se atenta às necessidades humanas no geral. Não apenas do cliente, mas de todos os atores envolvidos, como: colaboradores, fornecedores, distribuidores, entre outros.

As interações entre o consumidor e a empresa prestadora do serviço gera uma jornada de experiência de ponta a ponta. Assim, o Service Design analisa os recursos da empresa e projeta para ela formular todas as estratégias que atendem às necessidades dos clientes de forma relevante e econômica – ou sustentável. São analisadas todas as atividades (processos), infraestrutura, comunicação, pessoas e componentes/ materiais envolvidos. Tudo isso com o intuito de melhorar a qualidade do serviço e as interações entre o prestador do serviço e seus clientes. E é altamente aplicável a serviços digitais.

Do ponto de vista prático, uma ferramenta proveniente do Design de Serviços que oferece uma excelente clareza mental é a construção da jornada do cliente. Ao mapear todos os pontos de contato e as relações de troca que se estabelecem, torna-se mais evidente onde a companhia consegue (ou não) entregar valor ao cliente e aos demais envolvidos no sistema.

Design, IA e Indústria 4.0

E como isso interfere em nosso cotidiano? Atualmente, estamos transitando para a Era da Indústria 4.0, que se iniciou com o boom da internet na primeira década do milênio. Ela caracteriza-se pelo forte uso de Inteligência Coletiva (IC) e Inteligência Artificial (IA) para a automação de etapas de concepção, manufatura e distribuição de bens e serviços. De lá pra cá, a popularização do acesso ao conhecimento por meio de smartphones e outros dispositivos resultou em um novo perfil de consumidor, cada vez mais próximo do mundo automatizado e de suas facilidades.

Existem grandes benefícios em aplicar a Inteligência Artificial ao Design de Serviços, onde podemos citar o uso de dados para analisar as variáveis do mercado; em produtos que ajudam empresas a mensurar melhores preços para seus produtos; ou ainda para a prevenção de danos, como no caso da IA que monitora refrigeradores de vacinas, alertando sobre a necessidade de sua manutenção a tempo de prevenir a perda dos medicamentos.

evolução das indústrias
Imagem produzida pelos autores.

Não podemos deixar de citar também algumas empresas que começaram como startups e revolucionaram a forma de prestar serviços de forma disruptiva, como: Uber, Airbnb e Netflix. O uso da IA associada ao Design de Serviços trouxe cases de sucesso no que diz respeito à inovação, solução de problemas e usabilidade, pois facilitaram a experiência e mudaram o mindset nos segmentos de locomoção urbana, hospedagem e entretenimento.

Assistente virtual Alexa

Um perfeito exemplo de produto resultado da Indústria 4.0 é a assistente virtual Alexa, da Amazon. Ela foi projetada com forte uso de machine learning (sistemas que podem aprender sem serem programados para realizar tarefas específicas e com o mínimo de intervenção humana). A Alexa é capaz de assimilar textos e comandos de voz. Aliás, visto que está constantemente aprendendo e se adaptando às preferências do usuário, essa assistente vai oferecendo respostas cada vez mais adequadas às demandas de cada pessoa. 

Assistente virtual Alexa
Fonte da imagem: amazon.com.br

A Alexa entende e responde vários idiomas, incluindo o português brasileiro. Para isso, os engenheiros da Amazon usaram milhares de horas de áudio e texto para “ensinar” a Alexa a ouvir e a falar sem sotaque. Com essa escuta, ela é capaz de entender o que lhe é pedido e executar tarefas simples (por enquanto), como configurar alarmes, falar sobre a previsão do tempo ou executar uma playlist. Além disso, a Alexa pode interagir com smart TVs, geladeiras, entre outros dispositivos, como lâmpadas inteligentes, controles remotos e interruptores. Da mesma forma que ela aprendeu a ouvir e a falar a língua de vários países, os engenheiros também estão usando os dados de uso para que, via aprendizados, ela atenda cada vez melhor às expectativas dos usuários.

UX Design, Inteligência Artificial, Service Design, Inteligência Coletiva, Indústria 4.0
Imagem produzida pelos autores

Então, como podemos entender como a UX, IC, SD e a IA se conectam e se complementam, formando algo maior que a soma das partes?

Em nosso artigo sobre a Indústria 4.0, explicamos como a inteligência coletiva e a artificial são os pilares dos produtos e serviços dessa nova era. Embora esses dois conceitos sejam os fundamentos que empoderam o processo, ainda existem duas dimensões complementares que instrumentalizam o processo de mudança de paradigma que vivemos, sendo eles: i) UX Design e o ii) Service Design (SD).

Enquanto o UX Design busca entender e aprimorar o design de um produto, o Service Design busca criar e aperfeiçoar todo o ciclo de vida da experiência. Com isso, podemos ver a Inteligência Coletiva e a Artificial atuando de duas formas: i) como componente dos produtos em seu uso; e no próprio processo de concepção. Vejamos isso em mais detalhes:

i) no uso:

No caso da Alexa, ao pedirmos algo para ela, como por exemplo: Alexa, vai chover hoje?

No momento em que o áudio entra nos microfones do hardware, ele é digitalizado e enviado para as redes neurais, que fazem o reconhecimento dos fonemas (pedaços de som), que consequentemente são transformados em texto com a transcrição da frase. Então, essa frase passa por mecanismos probabilísticos que ajudam a corrigir qualquer interpretação errada do áudio. Por isso, se você falar “Alexa, vai “shomer” hoje? Ela provavelmente responderá como se você tivesse falado “chover”.

A partir desse texto, um mecanismo de NLP (processamento de linguagem natural) faz a quebra da frase em componentes do discurso usando IA simbólica para isso. Então, medem-se os conceitos entre si, suas distâncias, decidindo qual o contexto da interação. Nesse caso, a Alexa vai acionar seu skill (serviços de contexto) de clima passando para ele a posição captada pelo GPS do hardware.

Dentro do Skill de clima, há algoritmos de deep learning, algoritmos genéticos, modelos estocásticos e outras técnicas já previamente executados para as macrorregiões do planeta; com isso o Skill faz uma busca do modelo mais adequado à posição do interlocutor, gerando uma probabilidade de temperatura, sol, chuva ou neve.

Essa probabilidade é convertida em um texto pelo Skill, buscando usar uma linguagem mais coloquial ou formal, de acordo com os aprendizados das preferências do usuário. Assim, um mecanismo de IA simbólica concatena as melhores palavras e envia o texto para a IA de sintetização de voz. Ela usa redes neurais gerativas e proporciona uma voz sintética muito parecida com uma voz humana real, incluindo até as tomadas de ar. Por fim, executa-se o áudio na placa do hardware.

ii) no processo de concepção – Design

Você reparou quantos passos são necessários para que uma simples interação como a citada acima seja possível? E se minha Alexa está conectada a um monitor? Ou ainda, se ela está ligada à automação de minha casa e é capaz de fechar as janelas sozinha ou mudar a atuação do ar-condicionado? Quantas interações são possíveis nessa extrapolação? O Design de Serviços trata de todas essas extrapolações e possibilidades. Já o UX Design se responsabiliza pelas telas de uma possível interação, pelo formato do produto, pela forma de invocação. Em alguns dispositivos é necessário apertar o botão mic no controle remoto e, em outros, basta apenas começar a frase com a palavra “Alexa”.

E onde está a IA e a IC?

Ela se encontra em duas formas: 1) no uso, onde os modelos já treinados atuam tomando decisões a partir das entradas do usuário; 2) no momento do treino em si, onde os engenheiros de machine learning testam diversos algoritmos e arquiteturas para obter as melhores respostas de cada Skill.

Esses treinos fazem uso de giga até terabytes de informações coletadas de diversas formas. O intuito é criar modelos com uma ampla gama de respostas e resilientes a dados com ruídos, algumas vezes ambíguos. Como já exploramos em posts anteriores, a IC – Inteligência Coletiva é o resultado do armazenamento e processamento de milhares de interações (amostras de dados, armazenadas nos banco de dados e data-lakes) de pessoas reais.

É no momento da concepção de um produto como a Alexa que a interdisciplinaridade mostra toda sua força. Assim, UX-Designers, Service Designers, Engenheiros de Machine Learning, Cientistas de dados e Engenheiros de Software e Hardware trabalham em conjunto para obter, a partir de toda a complexidade debaixo do capô, uma experiência tão simples quanto perguntar e ser respondido sobre o clima.

Conclusões

Os mecanismos que permitem o funcionamento da Alexa, da Siri e de outros assistentes pessoais ou outros sistemas de IA já existem há décadas. A IA simbólica foi criada por Alan Turing há mais de 60 anos. As redes neurais já estão por aí há mais de 40 anos. E, praticamente, toda tecnologia que empodera uma Alexa já existe há pelo menos 30 anos.

E por que só agora isso está começando a se popularizar?

Isso se dá porque que todas essas peças foram colocadas juntas, resolvendo problemas reais, criando uma experiência fluida, integral e agradável ao usuário. Nada disso seria possível sem os Designers de Experiência (UX Designer) e os Designers de Serviço (Service Designers), além dos bons empreendedores que colocam todos esses profissionais para trabalharem juntos, atendendo às necessidades do mercado.

Considerações finais e oportunidades

Assim como a Alexa e a Siri estão encontrando seu caminho nas prateleiras reais e virtuais de todo o mundo, existem milhares ou milhões de oportunidades que envolvem essa conexão de IC, IA, SD e UX nas empresas. Essas oportunidades vão desde experiências de compra com precificação inteligente, atendimento ao cidadão, otimização de manutenção, processos mais assertivos de M&A, na melhora da qualidade de vida daqueles que sofrem de alguma necessidade especial, ou ainda no salvamento de vidas, seja pelo uso de gadgets e robôs ou na criação de novos fármacos, tratamentos e vacinas inteligentes.

Na Aquarela, reconhecemos a força da sinergia entre UX, SD, IC e IA na construção de produtos e serviços da Indústria 4.0 e Web 3.0. Por isso, incorporamos vários construtos do UX Design e Service Design em nossa metodologia DCIM’ (Data Culture Intensive Methodology), integrando práticas de modelagem de IA, Big Data (IC), design thinking, e diagramas e métodos próprios na entrega de aplicações disruptivas.

Gostou do artigo? Então, leia também: Como escolher o melhor fornecedor de Data Analytics e Inteligência Artificial? 

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

Impactos dos microsserviços em projetos de Analytics

Impactos dos microsserviços em projetos de Analytics

Um conceito importante, que vem ganhando popularidade no mundo da tecnologia da informação, é o de microsserviços. Essa abordagem de gestão de sistemas tem um grande potencial de permitir que os departamentos de TI possam se aproximar cada vez mais das áreas de negócios e também da área de analytics.

De acordo com o ResearchAndMarkets, o mercado global de microsserviços em nuvem crescerá a uma taxa de 22,5% com o mercado americano projetado de 27,4% para os próximos 4 anos. Dentre os setores do mercado, estima-se um crescimento superior a 23,4% do segmento de plataforma de microsserviços, alcançando $1,8 milhão em 2025. Contudo, quais os prós e contras dessa arquitetura? Qual o futuro dessa prática? Devemos investir nessa tendência? Quais tecnologias usar? 

A arquitetura de microsserviços

A ideia por trás dessa arquitetura baseia-se na construção em um ambiente onde os serviços sejam independentes, em vez de uma extensa e única base de código (monolito). Esses serviços comunicam-se frequentemente por meio de APIs, com cada um tendo sua própria base de dados reduzida e mais leve.

Fonte: State of Microservices

A implementação de uma arquitetura de microsserviços não diz respeito, necessariamente, a tecnologias específicas, mas sim à adoção de boas práticas que facilitem a integração de diversas fases no ciclo de vida do desenvolvimento de software, como: conteinerização, integração contínua (CI), DevOps, integração automática de testes e, em muitos casos, metodologias de desenvolvimento ágil.

Benefícios 

Os 2 tópicos mais importantes quando o assunto é microsserviços são performance e escalabilidade.

State of Microservices

Quando implementado corretamente e, em conjunto com a adoção de boas práticas citadas anteriormente, a arquitetura de microsserviços pode trazer uma série de benefícios para os projetos e aplicações:

  • Agilidade, facilidade e escalabilidade no processo de desenvolvimento e manutenção da aplicação: construída a partir de módulos e códigos reduzidos, as aplicações tornam-se mais acessíveis para os desenvolvedores entenderem as funcionalidades do serviço, visto que estes são separados. Além disso, há a possibilidade de escalá-lo no tempo específico, ao contrário de toda a aplicação;
  • Possibilidade do uso de diversas linguagens e tecnologias: elimina o fator de dependência e lock in, isto é, possibilita a flexibilidade de utilizar novas tecnologias que sejam mais performáticas para determinado serviço, utilizando menos recursos;
  • Melhor detecção de falhas: como os serviços são separados e menores, torna-se mais fácil monitorar e detectar quando há uma falha na aplicação. Além disso, grandes aplicações podem se manter intactas mesmo por uma falha de um módulo específico;
  • Potencialização da integração contínua e no processo de deploy: em vez de toda a aplicação, o deploy pode ser realizado apenas no serviço específico, onde foi atualizada determinada feature. Isso e outras práticas já citadas incentivam a integração contínua (CI).

Quando usar microsserviços? 

Como os microsserviços abordam questões estruturais dos sistemas e até de modelos de negócio, indica-se a sua utilização em times de desenvolvimento pequenos (squads), aplicações grandes, alta taxa de comunicação e/ou aplicações complexas que precisam escalar.  

O papel dos microsserviços em Analytics

Hoje vemos uma grande dificuldade das empresas de grande porte em conseguir interagir com seus sistemas de ERPs e também com os ecossistemas de empresas externas. Quando algumas análises são feitas, normalmente são bastante manuais, trabalhosas e não replicáveis. Geralmente, as análises ficam restritas às planilhas.   

O impacto da nova abordagem de microsserviços é vasto em toda área da computação. No entanto, no que tange à área de Analytics, eles podem ser utilizados de forma estratégica em camadas para potencializar a qualidade e a profundidade da análises de dados.

Com os microsserviços há um ganho de flexibilização da integração de dados. Em outras palavras, os datasets (o que são datasets?) poderão ser enriquecidos com dados de naturezas diferentes, não apenas internos da organização, mas externos. Exemplos: dados de temperatura, colocações, consultas de preço, previsão de demanda e outros.  

Exemplos da nova geração de sistemas

Dos pedidos feitos pelo aplicativo Ifood e filmes sugeridos na Netflix aos sistemas de identificação bancária ou reconhecimento facial, não são poucas as aplicações que tem como base os conceitos de microsserviços, sendo desenvolvidas por empresas dos mais variados setores da economia.

Um dos exemplos mais icônicos da nova realidade de sistemas é o aplicativo Uber, que integra serviços altamente especializados, tais como: 

  • geolocalização;
  • cobrança;
  • cartão de crédito;
  • envio de mensagens. 

Tudo isso é orquestrado por técnicas avançadas de UX para que o aplicativo, 100% baseado em microsserviços, entregue o valor aos usuários, que, ao fim do processo, querem se deslocar do ponto A para o ponto B no menor tempo possível, com segurança e comodidade.  

Tecnologias e Plataformas

Existem diversas tecnologias e plataformas encontradas no mercado que possibilitam o sucesso na implantação da arquitetura de microsserviços. Abaixo, encontram-se algumas importantes:

  • Plataformas de conteinerização: mover-se entre diferentes serviços pode ser um pesadelo para configurar a máquina. Entretanto, ferramentas como Docker permitem o deploy de imagens em seu computador localmente, independente do sistema operacional usado;
  • Ferramentas automatizadas de deploy: softwares como jenkins combinam com a arquitetura de microsserviços, permitindo assim a integração contínua e deploy;
  • Plataformas de testes de integração automatizada: plataformas como Selenium são de grande importância na integração contínua e na arquitetura de microsserviços;

Dentre algumas ferramentas para a área de analytics, podemos citar:

  • Sistemas de mensagens: geralmente, utilizam-se plataformas, como: Apache Kafka e Amazon Kinesis. Transferem dados de um aplicativo para outro para que os aplicativos possam se concentrar nos dados sem se atrapalharem na transmissão e no compartilhamento dessas informações.
  • Sistemas de orquestração:  plataformas como Kubernetes automatizam, configuram, coordenam e gerenciam sistemas de computador e software.
  • Computação em nuvem: serviços como Amazon AWS e Microsoft Azure facilitam o deploy e escalam os recursos, potencializando assim a adoção de microsserviços.

Mundo

O State of Microservices 2020 tem como objetivo mensurar a utilização de microsserviços por profissionais ao longo do globo. A pesquisa reuniu dados de 650 desenvolvedores de softwares, sendo, em sua maioria, CTOs, líderes e seniors espalhados por todos os continentes do mundo (exceto a África), de empresas de pequeno, médio e grande porte. Destaca-se que o tempo de utilização dessas tecnologias por parte da maioria dos profissionais é de, em média, 1 ano.

Tempo utilizando microsserviços
Tempo utilizando microsserviços | Dados: State of Microservices

“Por muito tempo, a arquitetura de microsserviço foi associada a grandes soluções corporativas, as quais eram geralmente construídas usando Java ou .Net. No entanto, parece que as coisas estão mudando rapidamente. Em primeiro lugar, cada vez mais pessoas estão falando sobre JavaScript universal e como essa linguagem (ambas com TypeScript) está ganhando popularidade. Em segundo, os desenvolvedores começaram a construir microsserviços não apenas para plataformas de nível empresarial, mas também para projetos de software de médio porte. Em terceiro lugar, o modelo “microsserviços sem servidor” também está em ascensão e todos nós sabemos que JavaScript e TypeScript funcionam muito bem com ou sem servidor.”

State of Microservices
Principais tecnologias utilizadas na-arquitetura de microsserviços
Tecnologias nos microsserviços. Dados: State of Microservices

A integração contínua é uma importante prática no processo de desenvolvimento de software, podendo trazer diversos benefícios a quem usa. Por isso, atualmente, existem diversas opções no mercado que, aliadas a um bom planejamento, podem trazer liberdade e recompensas futuras. Além disso, a migração de uma tecnologia para outra torna-se mais acessível de acordo com a melhor solução para o negócio. A pesquisa apontou que 87% dos entrevistados já utilizam ferramentas de integração contínua, tornando-se assim um padrão para os desenvolvedores.

Fonte: State of Microservices

Conclusão

Os microsserviços representam uma forte tendência de arquitetura na área da computação. Existem diferentes tecnologias para implementar soluções que, por sua vez, podem atender necessidades variadas de negócio. 

Neste artigo, abordamos os conceitos básicos de arquitetura de sistemas e buscamos dar alguns exemplos daqueles que já operam nesta visão. Também mostramos como os projetos de analytics podem se beneficiar disso. 

Embora o maior fator de sucesso dos projetos de analytics resida na estratégia de governança e cultura informacional das empresas, um fator crítico ainda continua sendo a qualidade dos registros armazenados. Vemos um grande potencial para ganhos de maturidade analítica com esta abordagem, principalmente pelo enriquecimento de conjunto de dados a partir da integração com parceiros especializados em determinados tipos de informações. 

Futuro da arquitetura de microsserviços_
Futuro dos microsserviços. Dados: State of Microservices

Acreditamos que o futuro das arquiteturas de sistemas terão como base os microsserviços e que o próximo grande desafio, depois da estabilização desta arquitetura, será a falta de mão de obra de profissionais criativos para conectar cada microsserviço nos processos de negócios. Nesse sentido, já existem pesquisas avançadas para utilização de web semântica (o que é web semântica?) e inteligência artificial para ajudar. 

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores:

Agro 4.0: aplicações de IA e Analytics no agronegócio

Agro 4.0: aplicações de IA e Analytics no agronegócio

A utilização de Inteligência Artificial e Advanced Analytics no desenvolvimento do Agro 4.0

A Quarta Revolução Industrial, comumente chamada de Indústria 4.0, é um tema que permeia os mais diversos setores e cada vez mais faz parte do do dia-a-dia de empreendedores, gestores e principalmente times de inovação que buscam novos caminhos e tecnologias para capitanear mudanças. Aqui mesmo, no nosso blog, já discutimos a Indústria 4.0, sua definição e iniciativas desenvolvidas por diversas empresas nesse âmbito. 

No livro Indústria 4.0: status atual e tendências futuras, os autores afirmam que, após as transformações físicas e tecnológicas das revoluções anteriores, o desenvolvimento da Indústria 4.0 agregou aos sistemas de produção previsões e auxílio na tomada de decisão. Além disso, a Quarta Revolução é vista pelos autores como um desenvolvimento baseado na criação de um sistema integrativo e ambiente colaborativo, onde o cliente é considerado como parte do processo de produção. 

Dentro desse contexto, vamos abordar nesse artigo o Agro 4.0, ressaltando o papel da IA e Analytics no desenvolvimento do agronegócio.

O que é o Agro 4.0?

De acordo com a Brasil Agro, o Agro 4.0 incorpora as mais modernas práticas e processos de manejo com tecnologias de precisão, uso de sensores e mecanismos para previsão e resposta. Sendo assim, o processo de modernização do agronegócio está vinculado à utilização de novos hardwares em conjunto com ferramentas que auxiliam em todo o ciclo do setor. Nesse último tópico, entram conceitos como Inteligência Artificial e Machine Learning, Data Analytics, IoT e Smart Sensors.

Aplicações práticas

O agronegócio é um dos setores mais fortes do Brasil. Em 2019, por exemplo, foi responsável por aproximadamente 40% das exportações brasileiras. Se olharmos o total de bens e serviços finais do país, o setor representou 21,4% do PIB. Esses dados são do Centro de Estudos Avançados em Economia Aplicada (CEPEA/USP) e da Confederação da Agricultura e Pecuária do Brasil (CNA). Posto isso, os desenvolvimentos tecnológicos da Indústria 4.0 podem trazer incrementos de produtividade significativos para o setor e consequentemente para a economia do país.

Algumas vezes, as inovações tecnológicas em indústrias mais tradicionais são vistas como grandes desafios. No entanto, os saltos tecnológicos nos momentos de inflexão das indústrias são oportunidades para ganhos de produtividade.

Leia também: A utilização da Inteligência Artificial na Indústria

Otimização de área cultivável

Qual área é mais adequada para o plantio de determinada cultura ou qual solo é mais adequado para minimizar as perdas?

Por meio de dados georreferenciados, em conjunto com dados de plantio e produtividade, modelos de Machine Learning respondem essas perguntas com maior objetividade e embasamento estatístico. A Inteligência Artificial possibilita a otimização do tempo durante o processo de definição do cultivo, redução da subjetividade e maximização do Retorno sobre o Investimento (ROI).

Gestão de rebanho

No campo da pecuária de precisão, ferramentas de Data Analytics podem auxiliar no ganho de peso do rebanho, monitoramento em confinamento e até mesmo rastreabilidade na cadeia de beneficiamento. O uso dessas ferramentas aumenta a eficiência do processo de acompanhamento do rebanho, assim como oferece maior confiabilidade aos clientes finais. Além disso, sensores inteligentes podem ser utilizados para monitoramento e identificação do rebanho em grandes áreas.

Previsão de demanda

Assim como na otimização de área cultivável, reduzir a subjetividade no momento de decisão do que será produzido em cada período é muito importante e gera maximização de receita. Produzir em excesso determinado produto ou sofrer uma ruptura na cadeia produtiva de outro impactam diretamente as margens de uma empresa e a capacidade de gerar receita, respectivamente. Um preditor de demanda que utiliza dados de consumo doméstico e global reduz o MAPE (Mean Absolute Percentage Error), indicador de acurácia nos processos de previsão e acompanhamento da demanda.

Antecipação de fenômenos climáticos

O campo da meteorologia é um dos mais avançados no âmbito de modelos estatísticos com grande nível de confiança. A antecipação de fenômenos climáticos é crucial para a minimização de perdas em safras de diversas culturas, assim como para o manejo da pecuária. Sem dúvidas, ferramentas que utilizam IA podem fornecer maior confiabilidade em relação às previsões e mitigar possíveis riscos.  

Previsão de preço

O setor Agro, de maneira geral, está exposto à volatilidade das commodities agrícolas. Os preços dessas commodities possuem como direcionadores a demanda externa, a oferta total dos países produtores e o câmbio. Usualmente, as projeções de preços e hedge dessas commodities representam desafios internos para as empresas. Nesse contexto, ferramentas de IA reduzem o erro das projeções e auxiliam nas estratégias de hedge para a safra, por exemplo.

Automatização de plantio e colheita

A inserção de maquinário agrícola nas revoluções industriais anteriores aumentaram de forma significativa a produtividade do agronegócio. A automatização de processos como o plantio e colheita estão cada vez mais presentes, principalmente em grandes áreas com culturas menos sensíveis. 

Gestão e manutenção de ativos

O agronegócio, com o uso de máquinas e novas tecnologias da indústria 4.0, pode ser caracterizado como intensivo em capital. Para reduzir custos de monitoramento e manutenção de máquinas, a manutenção preditiva é uma solução tecnológica muito utilizada. A mudança de manutenção corretiva para preditiva reduz custos em maquinários de alto valor agregado, assim como evita rupturas na cadeia produtiva.

Agro 4.0 – Conclusões

Conforme levantamento realizado pela Comissão Brasileira de Agricultura de Precisão (CBAP) em 2017, 67% das propriedades agrícolas no país utilizam alguma inovação tecnológica em seus processos produtivos. Isso demonstra a forma como o setor está aproveitando as oportunidades de digitalização e desenvolvimento industrial.

Ganhos de produtividade, redução de custos de produção, modernização da lavoura e redução do uso de insumos, por exemplo, são alguns dos benefícios que a IA e Analytics agregam à agricultura intensiva.

A transformação do agronegócio tradicional em agronegócio digital está batendo na porta e já é uma realidade. A tecnologia pode permear ainda mais o segmento Agro, principalmente no Brasil. Afinal, nosso país é uma potência agrícola que traz em sua trajetória a inovação.

Quer aumentar a produtividade na lavoura, reduzir custos e melhorar a qualidade das decisões de negócios? Então, conheça o Agro 4.0

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

A utilização da Inteligência Artificial na Indústria

A utilização da Inteligência Artificial na Indústria

É recente o uso de Inteligência Artificial na indústria brasileira, configurando casos isolados considerados outliers. Nesses casos, a utilização de IA já vem gerando resultados otimizados, como a maximização da eficiência nos processos e a redução de custos, além de contribuir para o aperfeiçoamento da vantagem competitiva. 

O que faz algumas empresas se destacarem em relação à normalidade (curva normal) do nível de maturidade das empresas brasileiras é sem dúvida a coerência de seus programas estratégicos de governança de dados e conexão de processos de negócio industriais com as novas e diversas técnicas de inteligência artificial

Neste artigo, vamos compartilhar alguns exemplos do uso da Inteligência Artificial na indústria. 

Gestão e manutenção de ativos

De um modo geral, as indústrias detém grande quantidade de ativos físicos de alto valor agregado. Esses ativos, que demandam um controle apurado de suas condições de uso (monitoramento), podem se beneficiar de estratégias de IA para que suas manutenções sejam mais bem planejadas.

“Todos os ativos precisam de manutenção. A grande questão da otimização é reconhecer o melhor momento para ela”.

Joni Hoppen

A inteligência analítica preditiva e prescritiva, mais dispositivos de IOT, estão atuando para descobrir o melhor plano de ação das manutenções, que, dependendo do cenário (operação, ativos e usuários), podem representar milhões de reais em economia direta. 

Quer saber mais sobre o tema? Acesse o artigo: Manutenção planejada na indústria.

Gestão de preços mais dinâmicos

Com a movimentação dos estoques e das linhas de produção cada vez mais mapeadas digitalmente, torna-se mais tangível materializar estratégias de precificação dinâmica e inteligente dos produtos e até de serviços. Além disso, como efeito direto dessa digitalização, é possível criar e aproximar processos de previsão de demanda baseados em Inteligência Artificial com a operação com ganhos consideráveis de economia pela estratégia de demanda ajustada. 

Recursos humanos otimizados

Assim como as máquinas, as pessoas desempenham um papel fundamental na produção industrial, seja na confecção do produto final ou na construção dos equipamentos. 

Por esse motivo, há a tendência crescente de soluções de IA voltada para a evolução das pessoas. Estes sistemas, chamados de People Analytics ou People 4.0, são soluções customizadas para acompanhar a evolução dos profissionais. Cabe à Inteligência Artificial identificar padrões de comportamento e perfis a fim de recomendar cursos e atividades que auxiliem nas progressões de carreira. 

Em breve, compartilharemos um de nossos cases sobre o assunto.

Desenvolvimento de novos produtos 

Sem dúvidas, a maior parte de todos os produtos industriais que conhecemos e usufruímos hoje são resultado direto das milhares de interações entre profissionais, universidades, empresas, professores e alunos. Mas o que muda no novo paradigma industrial baseado em IA?

Que os novos produtos podem ser concebidos com todos os insumos citados acima e ainda milhões de opções criadas por simuladores 100% digitais. Como resultado, a Inteligência Artificial começa a permitir que a concepção de novas peças seja mais aderente e rápida ao atendimento dos requisitos do mercado. Assim, ela pode, inclusive, gerar peças de melhor qualidade com melhor custo de produção. 

Atualmente, trabalhamos com esta frente que consideramos uma das mais estratégicas da indústria avançada. 

Considerações finais – Inteligência Artificial na Indústria

Neste artigo buscamos apresentar quatro áreas/abordagens do uso estratégico de Analytics com foco na indústria. 

A indústria, em especial, a brasileira, passa por um profundo momento de transformação digital. Ela precisa de aprimoramentos em seu stack tecnológico analítico para então colher os frutos gerados pela inteligência artificial. 

A lista de oportunidades em IA não é exaustiva, mas aponta para alguns caminhos que certamente mudam a forma de se trabalhar na indústria, apresentando resultados cada vez mais expressivos. 

Sobre o futuro, a Inteligência Artificial na indústria ainda reserva algumas novidades. Entretanto, temos a certeza de que os produtos industriais serão mais otimizados e integrados em uma cadeia de valor cada vez mais digital e global. 

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

6 recomendações de gestão para projetos de Data Lake

6 recomendações de gestão para projetos de Data Lake

Há diversas razões para a criação de projetos de Data Lake, Big Data e Data Analytics na indústria. Pois, a partir desses projetos, torna-se possível concretizar a ideia de tomadas de decisão baseadas em dados (Data-driven) e a automação de decisões inteligentes por algoritmos de Inteligência Artificial

Nesse caminho, vale lembrar que a construção de grandes bancos de dados já é, por si, um grande desafio técnico. Além disso, há a necessidade do alinhamento entre pessoas, processos e o negócio para que o tão esperado Data Lake não se torne um Data Swamp (pântano de dados). 

Neste artigo, apresentamos alguns pontos de atenção aos gerentes, diretores de tecnologia da informação e CIOs neste processo de alto risco e que geralmente está atrelado a altas cifras.

O que é um Data Lake? 

Antes de mais nada, existem diversas definições de Data. Para embasar nossa discussão, escolhemos a definição da Amazon que diz (tradução livre):

“Data Lake (Lago de dados) é um repositório centralizado que permite armazenar dados estruturados e não estruturados em qualquer escala. Em um data lake é possível armazenar dados como eles são/estão, sem ter que primeiro estruturá-los, sendo também possível executar diferentes tipos de análise sobre os dados”.  

Pontos de Atenção em Projetos de Data Lake

A ideia de um data lake é de fato muito interessante e acaba evidenciando sua importância estratégica no médio e longo prazo. No entanto, aqui vão algumas dicas gerenciais (não tecnológicas) relacionadas aos processos de construção e estruturação de Data Lake.  

01 – Estruturar os dados: significado e metadados

Após a realização de diversos tipos de projetos relacionados a Data Lakes, chegamos a algumas conclusões interessantes que detalhamos abaixo:

  • O principal fator relacionado ao sucesso ou fracasso das iniciativas de lago de dados era a concepção incompleta e até ambígua das análises. Isso nos levou à criação, registro e publicação do Analytics Business Canvas, que tem o objetivo de extrair o real significado de cada esforço analítico.
  • Embora o conceito “Lago de Dados” informe que os dados podem ser guardados como são/estão, começar projetos guardando os dados sem uma estratégia clara de negócios não é uma boa intuição. Além disso, ter membros sêniores na equipe ajuda a mitigar muito esse tipo de risco. 
  • O grande sucesso dos projetos de analytics geralmente está na estratégia do uso dos dados frente às oportunidades de negócio e não necessariamente na tecnologia envolvida. O foco deve ser nas motivações e “PORQUÊS” e depois nos “COMOS”. Inclusive, com boas motivações até “COMOS” se tornam mais fáceis de responder.
  • Além das questões dos significados dos processos de negócio, é importante (muito importante) o uso sistemático de metadados (informações sobre os dados). 

Uma dica importante para quem está começando a organizar a área de análise e data lakes é começar estruturando os dicionários dados (um modelo básico pode ser baixado aqui). 

  • É fundamental entender a diferença entre a natureza dos dados transacionais e dados analíticos e os seus papéis/expectativas no projeto. Neste artigo – Como estruturar projetos de analytics de alto nível –  apresentamos essa diferença e o porquê isso é fundamental para o processo. 

02 – Escolher o stack tecnológico adequado

Embora a tecnologia seja o segundo passo para a estruturação dos lagos de dados, ela é uma das decisões mais importantes a serem tomadas no projeto. A palavra-chave desse processo é a “Arquitetura de sistemas”. 

A escolha do stack tecnológico para a criação do data lake (O que é um stack tecnológico de analytics?) deve estar alinhado tanto ao problema de negócio quanto ao conhecimento técnico do time de operação.

Neste ponto, para desenhar a arquitetura da(s) solução(ões) recomendamos profissionais com experiência em engenharia de software, bancos de dados, administração e criação de processos de ETL, escalabilidade de infraestruturas de armazenamento. 

Para que o stack tecnológico analítico não entre em desuso é altamente recomendado garantir um alto nível de interoperabilidade entre os sistemas. 

03 e 04 – Cuidar com a sub/super estimação do volume de dados

Assim como no planejamento e construção de uma casa, nos projetos, os lagos de dados necessitam de informações mínimas à correta estruturação. Entretanto, muitas vezes, essas informações mínimas não são claras nem para o time de negócios, nem para os arquitetos de sistemas. 

Super-estimação

Já vimos casos em que se imaginava um conjunto imenso de dados (muito acima da realidade) para se investigar padrões dos comportamentos de uma indústria em específico. 

Com o tempo foi verificado que pequenos ajustes na estratégia dos indicadores de desempenho (dicas sobre estruturação de KPIs) com o uso de técnicas de amostragem (O que é amostragem?) já solucionaram com elegância e precisão mais de 80% dos problemas analíticos. 

A dica é questionar diferentes atores envolvidos no projeto, buscando entender a natureza do problema, das perguntas e então olhar para os dados internos e externos. 

Sub-estimação de dados

Do mesmo modo que é possível superestimar a necessidade de dados, é também possível subestimá-los. 

Existem inovações vindas de outras áreas, com especial ênfase aos projetos de IOT (Internet das Coisas) que, na sua natureza, baseia-se a obter o máximo de dados possível dos sensores. Isso implica de fato em estratégias de armazenamento, compactação, tipos de análise, segurança e ainda velocidade de transmissão. 

Neste mesmo assunto, comentamos anteriormente sobre as diferenças conceituais entre amostragem e recorte de dados.

Outra forma de subestimação de dados é a exploração combinatória dos registros que em alguns casos se tornam computacionalmente inviáveis ao processamento e/ou armazenamento. Assim, são imperativas técnicas apropriadas para cada caso. 

05 – Analisar a necessidade do uso de índices

A criação de índices nos bancos de dados deve estar bem estruturados e não criados descontroladamente. 

“Uso inapropriado e/ou excessivo de índices”

O uso de índices em bancos de dados é uma boa prática que visa aumentar a eficiência de consultas muito frequentes. Isso possibilita ao sistema gerenciador de bancos de dados (SGBD) fazer busca de menor complexidade, evitando as custosas buscas sequenciais. No entanto, índices ocupam espaço, podendo um índice muito facilmente chegar a corresponder a 25% do tamanho de uma tabela.

Em data lakes, o acesso não é repetitivo, não são necessárias consultas de alto desempenho. Portanto, utilizar índices além de chaves primárias para estabelecer as relações entre entidades pode vir a criar volumes desnecessários para atingir uma eficiência não-desejada.

“Lembre-se que nos livros os índices são menores do que o próprio conteúdo”.

06 – Manter a segurança da informação

É evidente que onde há informação valiosa há também riscos de segurança. 

A segurança requer um nível de maturidade das estruturas de permissões que, por um lado permitam, acesso rápido e fácil aos analistas e máquinas de analytics sem comprometer regras de acesso que rompam com o sigilo de determinadas informações. 

As soluções mais avançadas de governança de dados que conhecemos usam com maestria a teoria da identidade em seus sistemas, não permitindo assim que haja usuários utilizando acessos de terceiros. 

Toda a engenharia de software do projeto deve estar em constante comunicação com os times da gestão e do negócio para garantir o nível correto de permissão de cada usuário a cada dataset (O que são datasets?)

Atualmente, com a entrada em vigor da Lei Geral de Proteção Dados (LGPD), o fator segurança se torna ainda mais crítico, caso em que os dados armazenados são dados pessoais.  

Data Lake – Conclusões e recomendações

Projetos relacionados à estruturação de data lake, big data, analytics de grande escala são complexos por natureza e com grandes riscos de se tornarem pântanos de dados (Data Swamps) inacessíveis e com alta complexidade. 

Os pontos apresentados aqui não são exaustivos, mas pontos de vista que minimamente devem ser levados em consideração para mitigação do risco do projeto de montagem de lagos de dados.

Não existem soluções mágicas ou prontas devido ao alto grau de customização dos dados para cada negócio, setor e estratégia empresarial.

A contratação (terceirização) de empresas especializadas no processo é um caminho que pode ser mais seguro e eficiente. Contudo, a terceirização de analytics merece alguns cuidados. Pensando nisso, separamos estes dois artigos:  

Como escolher o melhor fornecedor de Data Analytics?

Quanto investir em Analytics e Inteligência Artificial? 

Finalizando, a transformação digital está se tornando real em várias empresas e indústrias. Os data lakes serão, cada dia mais, um ponto central na estratégia empresarial digital. O tema é relevante e deve ser abordado de forma irrestrita entre os vários departamentos. 

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

Onde grandes empresas utilizam Inteligência Artificial (IA)?

Onde grandes empresas utilizam Inteligência Artificial (IA)?

Quando falamos de Inteligência Artificial ou simplesmente IA, é comum pensarmos em robôs e tecnologias abstratas e distantes. Apesar de ser utilizada para tais feitos, a IA também está presente no nosso dia a dia, muito mais perto do que costumamos pensar. 

Além de facilitar nossa rotina diária, a IA também é responsável por ajudar empresas e indústrias em seus processos de tomada de decisão, precificação e manutenção, melhorando processos e aumentando o retorno financeiro. Por isso, o investimento em inteligência artificial vem crescendo mundialmente e fazendo a diferença em diversos setores da economia (Internacional Finance Corporation). 

Neste artigo vamos mostrar como a IA tem impactado algumas das maiores empresas do mundo.

Alibaba

A gigante chinesa Alibaba utiliza algoritmos baseados em IA e processamento de linguagem natural (NLP) para ajudar na recomendação de produtos aos compradores e na previsão de demanda para os varejistas (Previsão de demanda na visão da Aquarela parte 1

Além disso, ela possui também um chatbot que, de acordo com a empresa, consegue suprir 90% das solicitações dos clientes. Essas tecnologias, no primeiro ano de sua implementação, permitiram que a empresa alcançasse a marca de US$ 25 bilhões em vendas no famoso Singles Day, contra US$ 17,8 bilhões quando comparado ao ano anterior.

Netflix

A Netflix revolucionou o mercado de streaming utilizando uma estratégia de personalização com recomendações focadas no usuário. Utilizando IA e análise de dados, a Netflix consegue entregar um serviço personalizado que deixa seus assinantes mais satisfeitos por encontrarem o que precisam sem buscar muito, tornando-se, dessa maneira, a líder mundial em serviços de streaming.

American Express

 A American Express, empresa de serviços financeiros, utiliza das vantagens da IA para prevenção de fraudes, detecção de outliers (O que são outliers?) e prevenção à inadimplência. Com algoritmos de aprendizado de máquina e análise de dados embutidos em um processo de precificação dinâmica, a empresa consegue economizar milhões em perdas. Assim, consegue detectar fraudes quase em tempo real e definir o limite de crédito de acordo com o perfil de seus clientes. 

Google

Talvez não seja novidade para ninguém que o buscador do Google utiliza recursos da Inteligência Artificial para recomendações e ranqueamento de sites, mas vai muito além disso. 

Outros sistemas que também utilizam IA são: 

  • assistente virtual, o Google Assistente
  • Google Fotos para reconhecimento e agrupamento de imagens; 
  • Gmail para sugestão de textos na escrita de e-mail; 
  • Google Maps para traçar a menor rota de um ponto ao outro e diversas outras aplicações. 

Infervision

Apesar de não ser tão conhecida, a Infervision ajudou a salvar milhares de vidas na China utilizando Inteligência Artificial (IA). Por meio de aprendizado de máquina e reconhecimento de imagens, a startup de diagnóstico por imagem conseguiu treinar algoritmos capazes de captar sinais precoces de câncer de pulmão com precisão e eficácia, um problema que aflige milhares de chineses todos os anos. Com isso, além de salvar vidas, conseguiu se estabelecer no mercado.

Aquarela + Grupo São Carlos

Em parceria com o grupo São Carlos, desenvolvemos um conjunto de mecanismos inteligentes para indústria e serviços de refrigeração que envolve a prevenção a falhas e a otimização do processo de manutenção. 

Neste cenário, a plataforma Vortx identifica os fatores críticos para a manutenção preventiva e corretiva a partir de dados de operação e IoT, utilizando técnicas de Machine Learning. Por meio de painéis online, monitora-se o estado do equipamento em tempo real e recomenda-se os procedimentos de troubleshooting. Assim, é gerada uma lista otimizada de procedimentos para a prevenção de falhas.

Impactos nos negócios a partir da utilização da Inteligência Artificial (IA):

  • Aumento da segurança;
  • Redução de custos com manutenção;
  • Maior produtividade.

Conclusão

Neste artigo mostramos que a Inteligência Artificial (IA) traz impactos positivos para a sociedade e para a economia. Além disso, é um mercado que vem trazendo retornos financeiros consideráveis para as empresas e indústrias que estão investindo nesse mercado crescente. 

Gostou do artigo? Deixe seu comentário e compartilhe.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), Solar Br Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores: