Teste de software: como blindar sua aplicação

Teste de software: como blindar sua aplicação

Teste de software é um processo sistemático e metódico de avaliar se o software desenvolvido atende aos requisitos esperados, garantindo que o produto esteja livre de defeitos. A realização desses testes envolve a execução de componentes do software utilizando ferramentas manuais ou automatizadas com o intuito de avaliar propriedades de interesse. O software devidamente testado garante confiabilidade, segurança e alto desempenho, resultando em economia de tempo e dinheiro e maior satisfação do cliente.

Os primeiros testes de software apareceram junto ao desenvolvimento de software, que teve seu início logo após a segunda guerra mundial. O cientista da computação, Tom Kilburn, escreveu o primeiro software, que estreou em 21 de junho de 1948, na Universidade de Manchester, na Inglaterra. Ele executou cálculos matemáticos usando instruções de código de máquina. Nessa época, a depuração era o principal método de teste e ainda permaneceu nas duas décadas seguintes. Contudo, na década de 1980, as equipes de desenvolvimento passaram a testar aplicativos em configurações do mundo real. Isso proporcionou uma visão mais ampla dos testes de software, que englobava o processo de garantia de qualidade e fazia parte do ciclo de vida do desenvolvimento de software.

Um dos motivadores por trás do impulso para as metodologias de desenvolvimento ágil é permitir que o teste seja incorporado ao longo da construção do software. Diante disso, a realização de teste de software desde o início da construção do projeto permite detectar bugs ou erros antecipadamente. Assim, torna-sesendo possível resolvê-los antes da entrega do produto final.

Quais são os benefícios do teste de software?

Uma das vantagens mais importantes dos testes de software é o custo-benefício. Realizando os testes durante todo o desenvolvimento do software, é possível detectar os erros na medida em que eles são criados e quanto mais rápido um problema for detectado, menos custará para consertá-lo. Outro benefício é a maior segurança, visto que os testes ajudam a remover riscos e vulnerabilidades. 

Atrasos na entrega ou defeitos de software podem prejudicar bastante a reputação de uma marca e frustrar o público-alvo. Em casos extremos, um bug ou defeito pode degradar os sistemas interconectados ou causar sérios problemas de funcionamento. Logo, os testes também permitem que um software de qualidade seja entregue aos clientes, implicando na satisfação do usuário. Além disso, ao observar artifícios de design e de interações homem-máquina, os testes de UI/UX Design garantem uma melhor experiência, trazendo a sensação de conforto a quem utiliza. Veja mais sobre UX Design aqui.

Exemplos de falhas de software 

Infelizmente, falhas de software são muito comuns. Algumas podem causar grandes perdas econômicas e outras podem até trazer risco à vida das pessoas. 

– Em 26 de Abril de 1994, o Airbus A300 da China Airlines caiu devido a um bug de software, matando 264 pessoas.

– Em 2017, o streaming HBO Go atraiu muitos fãs de Game of Thrones com o lançamento da sétima e última temporada da série. No entanto, na estreia da série a plataforma online do canal a cabo ficou completamente inacessível durante várias horas, frustrando bastante os usuários. A HBO afirmou que a alta demanda de usuários se preparando para a estreia foi responsável pelos problemas de conexão no serviço, derrubando completamente a plataforma.

– A Nissan fez um recall de mais de 1 milhão de carros do mercado devido a uma falha de software nos detectores sensoriais de airbag. Foram relatados dois acidentes ocasionados por essa falha de software.

– Em abril de 1999, um bug de software causou o fracasso de um lançamento de satélite militar de U$ 1,2 bilhão, um dos acidentes mais caros da história. A falha desencadeou uma revisão militar e industrial completa dos programas de lançamento espacial dos EUA, incluindo integração de software e processos de teste.

– Em 2020, o esperado jogo Cyberpunk 2077, da CD Projekt, ficou bastante marcado no ramo dos games. Contudo, a antecipação do lançamento passou por diversos erros despercebidos pela equipe de desenvolvimento, sendo considerado uma decepção pelos fãs. Isso causou um prejuízo para a empresa, que tinha um jogo promissor em mãos.

Boas práticas

Bem como na medicina ou na engenharia, o desenvolvedor possui grande responsabilidade com a qualidade do código, pois pode afetar toda a reputação de uma empresa, além de culminar em um prejuízo econômico exorbitante. Desse modo, é necessário algumas medidas providenciais para que se assegure uma qualidade de código bem definida.

Suponha que uma montadora de veículos multinacional necessite reconstruir todo um lote de carros porque um sensor está desregulado, gerando uma insatisfação dos seus clientes e ocasionando um prejuízo bilionário, ou um software de machine learning aplicado na neurociência, que possa falhar e causar um dano vital. Todos esses casos podem ser solucionados com boas práticas e testes eficientes em seu desenvolvimento, que possam salvar milhões de dólares ou milhares de vidas. Diante disso, podemos citar algumas dessas boas práticas:

  • Testes de continuidade: São testes contínuos que vão sendo realizados à medida que a aplicação vai sendo construída. Realizados no desenvolvimento das aplicações para validação e critério de aceitação, diminuindo significativamente os possíveis erros e evitando riscos iminentes durante o processo de implementação no deploy.
  • Gerenciamento de configurações: As equipes possuem acesso à assets, tais como código, modelos, scripts e resultados de testes. Diante disso, é inerente de boas aplicações a autenticação de usuário e trilhas de auditoria. A finalidade disso consiste em auxiliar as equipes a atender aos requisitos de conformidade com o menor esforço administrativo possível.
  • Virtualização dos serviços: Ao início do processo de construção de uma aplicação, é evidente que não há ambientes de teste ainda. Desse modo, deve-se utilizar ambientes virtualizados para simular os serviços que não foram finalizados, permitindo a realização de testes antecipadamente. Ademais, abre a possibilidade de modificação para fins de testes sem que afete o ambiente original.
  • Detecção de falhas: A detecção de bugs e problemas devem ser realizadas o mais rápido possível e é de extrema importância que não sejam aplicados no deploy. Portanto, ferramentas de automação de testes devem ser aplicadas para que sejam realizadas diversas sessões de testes para descobrir falhas que não estão tão evidentes, mas que possam ser de suma importância.
  • Métricas e relatórios: As análises dos desenvolvedores são essenciais para um bom desenvolvimento e comunicação da equipe, portanto tudo o que é realizado deve ser documentado e estar alinhado. Para isso, pode-se aplicar algumas técnicas de gerenciamento e padronização. Desse modo, o ambiente cooperativo entra em ação para solucionar problemas e evitar retrabalho.

Sabendo que não é possível testar tudo, como decidir quando parar de testar?

Dois fatos devem ser considerados para decidir quantos testes devemos realizar, sendo eles: o fato de que todo sistema está sujeito a algum tipo de risco; e que existe um nível de qualidade aceitável para cada sistema. 

A priorização é o aspecto mais importante para alcançar um resultado aceitável de uma quantidade finita e limitada de teste. Primeiramente, realize os testes mais importantes para que, se a qualquer momento as atividades de teste forem reduzidas, você possa ter certeza de que os testes prioritários já foram feitos. Esses testes serão os relacionados aos aspectos essenciais do sistema. Isso significa que eles vão testar as funções mais importantes, conforme os requisitos dos usuários e o comportamento não funcional mais relevante para o projeto. Além disso, eles abordarão os riscos mais significativos.

O próximo aspecto é conhecido como critério de conclusão e define os padrões para a atividade de teste. Por exemplo, ele define quanto do software deve ser testado e quais níveis de defeitos podem ser tolerados em um produto que será entregue. Ou seja, devem ser definidos critérios que indiquem se e quando é seguro interromper os testes, de modo que o tempo e outras pressões não interfiram no resultado final.

Prioridades e critérios de conclusão fornecem uma base para o planejamento de testes. No fim, os níveis desejados de qualidade e risco podem ser comprometidos. Porém, utilizando os dois fatores apresentados, podemos garantir que ainda seja possível determinar quantos testes serão necessários para atingir os níveis acordados.

Teste de software – Conclusão

Embora o processo de teste de software seja financeiramente custoso, as empresas conseguem economizar muito em desenvolvimento e suporte se implementarem boas técnicas de testes e processos de controle de qualidade. Utilizar os testes de software desde o início do processo de desenvolvimento possibilita que o produto vá para o mercado com menos falhas. Além disso, quanto antes as equipes de desenvolvimento receberem os resultados dos testes, mais rapidamente eles poderão solucionar problemas, tais como: falhas na arquitetura do projeto, vulnerabilidades do sistema, problemas de escalabilidade, funcionalidades inválidas ou incorretas, entre outros.

Quando a equipe de desenvolvimento permite um amplo espaço para testes no projeto, consequentemente a confiabilidade do software é amplificada e aplicativos de alta qualidade são entregues aos consumidores. Assim, ao atender as expectativas do usuário ou até mesmo excedê-la, o produto ganha mais visibilidade e maior participação no mercado. 

Leia também: Como escolher o melhor fornecedor de Inteligência Artificial?

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

IA na negociação de compra e venda de energia

IA na negociação de compra e venda de energia

Há um termo no mundo dos negócios que está sempre presente na rotina de qualquer profissional, independentemente do cargo hierárquico: Negociação.

Negociar é uma arte que envolve algumas etapas, e uma delas é a busca por informações, afinal, quem entra numa negociação sem estar munido de informações estratégicas? 

No artigo de hoje, vamos falar sobre a Inteligência Artificial e estratégias de Data Analytics que contribuem para negociações complexas de compra e venda de energia. Então, para isso, vamos fazer um paralelo com a técnica de negociação BATNA.

O que é o BATNA

Já ouviu falar em BATNA? BATNA é um conceito desenvolvido por dois grandes negociadores,  William Ury e Roger Fisher e significa ‘Best Alternative to a Negotiated Agreement’, que, em português, pode ser interpretado como a “Melhor Alternativa ao Acordo Negociado” ou então “Melhor Alternativa para Negociar o Acordo”.

Sabe quando a negociação fica travada e então cria-se um impasse entre as partes? É justamente nesse momento que pode se aplicar o BATNA. É aí que entra a provocação na introdução deste artigo: “Quem entra numa negociação sem estar munido de informações estratégicas?”. Não confie apenas no seu poder de persuasão. 

Na ilustração abaixo, temos: de um lado, o comprador;  de outro lado, o vendedor de um imóvel.  No exemplo, leva-se em conta apenas o custo como a variável a ser analisada (lembrando que custo não é o único fator que influencia no preço de compra e venda de um imóvel). 

Fonte  – Negotiation made simple.

Antes de iniciar a negociação, o vendedor deve ter bem definido seus limites de preço:

  • o preço bom;
  • o preço ótimo;  
  • o menor preço possível. 

Mas, convenhamos que do outro lado o comprador também definiu as suas faixas de preço, o quanto está disposto a pagar, suas preferências.

ZOPA

Já que não é possível ler a mente do comprador (situação de assimetria de informação entre os indivíduos), o vendedor pode fazer perguntas estratégicas na tentativa de descobrir as preferências dele, e a partir daí coletar essas informações para conseguir uma boa negociação, que seja interessante para ambas as partes. 

No exemplo acima, o negócio é fechado na ZOPA, Zona de Acordo Possível. Ela pode ser interpretada como a área de negociações modo ganha-ganha. Isso quer dizer também que, provavelmente, valores negociados fora da ZOPA podem acarretar em uma negociação Ganha-Perde.  

Percebe o quanto a negociação é sobre informação? Por isso, no tópico a seguir, vamos relatar de forma bem objetiva como as informações são fundamentais na negociação para a comercialização de energia.

Comercialização de energia e precificação

Antes de mostrar como a IA é uma poderosa aliada na negociação no mercado de energia, vamos falar brevemente como funciona a comercialização nesse mercado.

Para negociar contratos no mercado de energia, é necessário que o distribuidor, gerador, comercializador, sejam membros do SIN (Sistema Interligado Nacional), pois as negociações de compra e venda ocorrem nesse sistema e são gerenciadas pela CCEE, Câmara de Comercialização de Energia Elétrica

A fim de valorar/precificar a energia no Mercado de Curto Prazo, a CCEE utiliza o PLD (Preço de Liquidação de Diferenças) como referência para os preços no Mercado Livre de Energia.

Assim como em qualquer outro tipo de mercado, a regra é a mesma para comercialização: 

“Se o preço sobe, os traders querem vender, se os preços caem, os traders querem comprar. No entanto, para uma boa negociação, é necessário considerar não somente o momento atual. A previsibilidade é fundamental para o aumento da confiabilidade na operação, acompanhar a volatilidade e flutuação do mercado, para melhor alocação dos recursos de capitais disponíveis, e assim consequentemente aumento dos retornos”.

Percebe o quão é importante identificar oportunidades de ganhos e os riscos presentes nesse mercado a partir de várias fontes de informação? 

Além da variedade de fontes de informação, também é importante ter um bom entendimento sobre a natureza de cada tipo de dado, conforme mostramos na figura abaixo, extraída do artigo Natureza dos dados e estrutura para Data Science.

E agora, onde entra a Inteligência Artificial para negociação e comercialização no mercado de energia? Vamos explicar.

Fatores de influência na negociação de compra e venda de energia

Os especialistas que atuam no mercado de energia, conhecidos como traders, sabem que são múltiplos os fatores que implicam em uma boa negociação. Assim, para conseguir realizar as melhores negociações de compra e venda, os experts desse mercado precisam estar munidos de informações estratégicas, tais como: 

  • Quais as condições hidrológicas previstas a curto, médio e longo prazo? 
  • Qual o fluxo do mercado? 
  • Como identificar possíveis padrões ou mudanças de comportamento nos dados? 
  • Como identificar liquidez? 
  • Quais as particularidades das bacias hidrográficas  por região? 

Esses foram apenas alguns exemplos básicos de fatores que podem influenciar as negociações do valor da energia. Temos, nesse cenário, análises de múltiplas variáveis, também conhecidas como análises multivariadas ou até, de forma mais simples, multicolunar (tabela com diversas colunas).  

A maioria das variáveis relativas ao processo de decisão normalmente se encontram apartadas uma das outras, tornando complexa a análise por um humano. Como resultado, perde-se a oportunidade de identificar padrões valiosos nos dados, automatizar processos e eventualmente dar escalabilidade aos resultados do negócio. 

Facilitadores nas negociações de compra e venda de energia

Uma das formas mais eficazes de solucionar ou pelo menos contornar esses problemas é aproveitar a onda de digitalização da economia para uso das melhores práticas de governança de dados e assim integrar indicadores de forma harmoniosa em datasets (o que são datasets?) coerentes ao negócio, se possível utilizando arquiteturas de microsserviços (Impactos dos microsserviços em projetos de Analytics).

Com datasets de boa qualidade, a complexidade de análise pode ser otimizada utilizando Inteligência Artificial. Aliás, somente com datasets bem estruturados que a IA será capaz de gerar resultados válidos para a negociação.

Técnicas de analytics podem ajudar a fazer melhores inferências sobre a posição dos limites do BATNA, ajudando a identificar outliers que podem afetar de forma considerável as análises, viesar os resultados e causar impactos negativos nas negociações. 

Em complemento, os algoritmos de Machine Learning podem ainda ser treinados para identificar soluções ótimas de negociação dentro da ZOPA e até permitir a automação de comportamentos inteligentes e decisões autônomas de precificação. Afinal, bons retornos são sempre esperados, mas os riscos em uma operação também precisam ser mitigados, considerando o curto, médio e longo prazo. 

IA na negociação de compra e venda de energia – Conclusões e recomendações

Nesse artigo, falamos sobre a importância de obter informações estratégicas para negociação de compra e venda de energia, apresentamos o conceito BATNA e como abordagens de Data Analytics e IA podem contribuir para melhores negociações e até a automação do processo. 

Os feelings dos especialistas são importantes, mas não suficientes para aumentar o market share de uma comercializadora e aumentar a margem de assertividade. Consideramos que as novas tecnologias e metodologias de dados são um “must have” para o mercado de comercialização como um todo.  

Abaixo, listamos algumas dicas que fazem a diferença na implementação de processos digitalizados de apoio à decisão:

Gostou desse artigo? Então, deixe o seu comentário.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

Aftermarket automotivo: IA na indústria de autopeças

Aftermarket automotivo: IA na indústria de autopeças

Você conhece o segmento de mercado de “aftermarket automotivo”? Esse termo se refere ao segmento de mercado de reposição de peças automotivas, o qual dá suporte para a continuidade das operações de aproximadamente 42.6 milhões de veículos (motos, carros, caminhões e até máquinas agrícolas) no Brasil. O faturamento desse segmento industrial oscila entre 75 e 85 bilhões de reais por ano (dados da Issuu).

O processo de aftermarket automotivo envolve uma grande quantidade de dados sobre um grande número de peças (SKUs) produzidas e comercializadas ao longo de décadas. Assim, isso, muitas vezes, dificulta a identificação do market share e de novas oportunidades de negócio. Mas como superar esses desafios? 

Market share no aftermarket automotivo

Para responder a esse questionamento, preparamos um material apresentando nosso case de sucesso no setor automotivo no segmento de aftermarket, em que mostramos como estratégias avançadas de analytics e inteligência artificial podem resultar em grandes benefícios à operação comercial. 

O estudo de caso aborda o problema de negócio do nosso cliente, imerso em diversos desafios, como por exemplo, a dificuldade de entender o comportamento das vendas de alguns grupos de peças; a jornada, marcada pelo desenvolvimento de um sistema capaz de apresentar a evolução do market share da organização; e os resultados gerados para o nosso cliente. 

Nosso objetivo é auxiliar gestores de marketing, gestores comerciais e administradores que atuam em operações de grande escala. 

Conclusão – Aftermarkt automotivo

Como vimos, identificar o market share e novas oportunidades de negócios no setor de autopeças é um desafio, mas que pode ser superado por meio de ferramentas como IA e Advanced Analytics. Entretanto, seu processo de implementação é complexo, demandando de fornecedores de inteligência artificial e data analytics qualificados e reconhecidos no mercado. Leia também – Como escolher o melhor fornecedor de Data Analytics e Inteligência Artificial

Ficou com alguma dúvida sobre o nosso case de sucesso do setor de reposição automobilística? Então, deixe o seu comentário.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

Planejamento estratégico de IA e Analytics: conceito e impactos

Planejamento estratégico de IA e Analytics: conceito e impactos

Os benefícios e os impactos positivos do uso de dados e sobretudo da inteligência artificial já são uma realidade no mercado brasileiro em áreas que vão desde precificação dinâmica na educação, a previsão de faltas em agendamentos médicos,  a previsão de quebra de equipamentos e até o monitoramento do mercado de reposição de autopeças. No entanto, para se colher esses benefícios, as organizações necessitam alcançar um nível de maturidade analítica adequada para cada desafio. 

Neste artigo, vamos falar sobre o que é o Planejamento Estratégico de IA e Analytics, quais as características dos cenários que demandam este tipo de projeto dentro da jornada de Transformação Digital das empresas em direção à Indústria 4.0.

O que é o planejamento estratégico de IA e Analytics? 

O planejamento estratégico de IA e Data Analytics é um projeto de caráter estruturante que combina um conjunto de atividades consultivas elaboradas (preferencialmente por equipes com uma visão externa da organização) para o levantamento de cenários, mapeamento de processos analíticos, elaboração de ativos digitais (sistemas e bancos de dados e outros) a fim de auferir os diferentes níveis de maturidade analítica dos times, dos departamentos e da organização como um todo. 

Como resultado, chega-se às definições compartilhadas da visão, missão, valores, políticas, estratégias, planos de ações e boas práticas de governança de dados para alavancar o nível de maturidade analítica da organização no menor tempo e custo possível.  (Quais são os 5 níveis de maturidade analítica?

Sintomas de cenários de baixa maturidade analítica

Embora existam muitos tipos de negócios, produtos e serviços no mercado, apresentamos, aqui, padrões emergentes que ajudam a caracterizar o problema da maturidade analítica das empresas e que podem gerar reflexões interessantes:

  1. Atualmente, é possível saber quais iniciativas de analytics (análises de dados) já aconteceram e quais ainda estão acontecendo? Além disso, quem são os responsáveis? E quais foram os resultados? 
  2. Nas iniciativas analíticas, é possível saber quais dados foram utilizados e até reproduzir a mesma análise? 
  3. As análises de dados acontecem de forma aleatória, espontânea e isoladas nos departamentos? 
  4. É possível visualizar todos os ativos de dados ou datasets disponíveis para gerar análises?
  5. Existem situações em que um mesmo indicador aparece com valores diferentes dependendo do departamento em que é feita a análise? 
  6. Existem dicionários de dados analíticos definidos? 
  7. Qual é o stack tecnológico analítico
  8. Projetos estruturantes de data analytics estão sendo contemplados no planejamento estratégico?

Outros problemas comuns

Identidade organizacional

Cenários com baixa maturidade analítica não apresentam problemas na qualidade de dados de forma isolada. Normalmente, existem problemas sistêmicos que envolvem a complexidade de processos de negócio, o nível de capacitação dos times, processos de gestão do conhecimento e, por fim, as escolhas das tecnologias da operação do ERP, CRM, SCM e como esses sistemas transacionais se relacionam. 

Questões de segurança

As empresas são organismos vivos que evoluem constantemente com pessoas atuando em diferentes áreas. Assim, com o passar do tempo, perde-se o controle dos níveis de acesso de cada colaborador fazendo com que pessoas não autorizadas tenham acesso a informações sensíveis e também o inverso, quando pessoas não conseguem acesso aos dados que precisam para seu trabalho. 

Excesso de planilhas e duplicidades

As planilhas são uma das ferramentas mais úteis e importantes da gestão e por isso estão sempre auxiliando em diversos processos. O grande efeito colateral do uso excessivo de planilhas é a manutenção do conhecimento de cada processo. Quando existem duas ou mais pessoas e o volume de informações e atualizações começam a crescer se torna difícil gerenciar o conhecimento que trafega em blocos com as planilhas. Além disso, muitas duplicidades acontecem e tornam praticamente impossível consolidar dados com segurança e em grande volume.

Mais sobre as limitações das planilhas neste outro artigo

Quais os benefícios do planejamento estratégico de IA e Analytics?

Espera-se de uma gestão data-driven que os dados forneçam não apenas desenhos e rascunhos das condições da operação ou do mercado, mas uma fotografia em alta resolução da realidade presente e futura. Assim, fornece subsídios para o planejamento estratégico corporativo de curto, médio e longo prazo com os seguintes ganhos: 

  • Prontidão processual e tecnológica para projetos de data lakes e laboratórios de Advanced Analytics e IA. 
  • Aumento da intensidade de aplicação de técnicas científicas aos negócios, por exemplo: análises comparativas, simulações de cenários, identificação de padrões de comportamento, previsão de demanda e outros.
  • Aumento da veracidade das informações.
  • Segurança de acesso a informações em diferentes níveis.
  • Aceleração dos processos de onboarding (entrada de novos membros dos times), que por sua vez aprenderam mais rapidamente sobre o cenário de trabalho, como também começam a se comunicar de forma mais eficiente.  
  • Maior enriquecimento de dados a partir do aumento da interação de equipes de diferentes setores para desafios analíticos. 
  • Maior visibilidade das operações de analytics, organização para localizabilidade, acessibilidade, interoperabilidade e reutilização de ativos digitais. 
  • Plano de mudança otimizado para Governança Corporativa orientada a dados.
  • Incorporação da mentalidade Analítica e de IA em diferentes setores. 
  • Homogeneização das políticas e controles de dados.

Planejamento estratégico de IA e Analytics – Conclusões e recomendações 

A elaboração de um planejamento estratégico de IA e Analytics é um passo importante para se atingir o nível de governança de dados que permita o uso intensivo de analytics e inteligência artificial nas operações, uma vez que a alta taxa de insucesso de projetos analíticos estão ligadas à baixa qualidade de dados, de processos e até do correto uso das tecnologias (capacitação).   

Projetos estruturantes, como o planejamento estratégico de IA e Analytics são, ou pelo menos deveriam ser, o primeiro passo na jornada de transformação digital das empresas tradicionais. Por isso, temos a convicção de que no futuro toda empresa de sucesso terá uma ideia clara e compartilhada (visão, missão e valores) do que os dados significam para ela e para o seu modelo de negócio, em contraste aos investimentos em tecnologia de dados pura e simplesmente por conta da concorrência.  

Acreditamos que o foco em dados orquestrados (arrumados e sincronizados) se refletirá em quase todas as áreas, por exemplo: na gama de serviços, nos modelos de receitas, nos principais recursos, processos, estruturas de custos, em sua cultura corporativa, seu foco em clientes e redes, e em sua estratégia corporativa. 

Por último, mas não menos importante, vale apontar que, para que uma estruturação de sucesso aconteça, deve-se ter uma abordagem holística de longo prazo. Isso significa investimentos em tecnologia, pessoas e processos otimizados a fim de permitir o crescimento contínuo dos negócios. 

Como a Aquarela vem atuando

A Aquarela Analytics vem desenvolvendo novas tecnologias e modelos de negócios baseados em dados em uma visão de que a quantidade e disponibilidade desses dados continuará crescente. Assim, levará os negócios a outros patamares de otimização.

O que fazemos especificamente para empresas:

  • Analisamos ecossistemas corporativos geradores de dados;
  • Determinamos a maturidade analítica. Além disso, derivamos campos de ação para organizações e serviços baseados em dados;
  • Desenvolvemos e avaliamos serviços baseados em dados;
  • Identificamos e estimamos o potencial dos dados para modelos de negócios futuros;
  • Desenhamos processos de transformação digital com base científica e orientamos sua integração organizacional.

Mais informações em: www.aquare.la/projetos-estruturantes/

Gostou do artigo? Então, deixe o seu comentário.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores

Como os modelos estatísticos se aplicam no Machine Learning

Como os modelos estatísticos se aplicam no Machine Learning

Alguns avanços tecnológicos integram a nossa rotina de uma maneira tão silenciosa e sutil que muitas vezes não identificamos e muito menos somos capazes de entender a lógica envolvida neles. Esse é o caso do Machine Learning (aprendizagem de máquinas), que utiliza meios estatísticos para tornar possível a execução de tarefas de forma otimizada e com o mínimo de interação humana possível.

Por meio de modelos estatísticos, os algoritmos são capazes de aprender a partir de diversas bases de dados e do acúmulo de experiência, possibilitando assim que esses padrões tornem-se um aprendizado que possa automatizar ou prever futuras ações sem a necessidade de serem reprogramadas para tal tarefa. Desse modo, possibilitam tomadas de decisões mais precisas e inteligentes.

Mas como isso acontece? É por conta da matemática envolvida nos processos de aprendizagem dessas máquinas, ou seja, da estatística, que nada mais é do que o ramo da matemática que trata da coleta, da análise, da interpretação e da apresentação de massas de dados numéricos.

A matemática envolvida no machine learning

Para tornar possível toda otimização que vemos atualmente no Machine Learning, utilizam-se diversas técnicas estatísticas como base. Dentre elas, estão: 

  • Teste de hipóteses: É uma metodologia estatística que auxilia na tomada de decisões que permite rejeitar ou não uma hipótese estatística. Isso permite fazer testes por meio de uma amostra para termos evidências suficientes de determinada informação. A maioria das pessoas já ouviu falar dos termos falso positivo e falso negativo, que vêm dos tipos de erros identificáveis a partir do teste de hipóteses. São eles: o erro do tipo I (Falso positivo), que rejeita a hipótese quando ela é positiva; e o erro do tipo II (Falso negativo), que acontece quando ele não rejeita a hipótese quando na verdade ela é falsa. 
  • Distribuições probabilísticas: Esse mecanismo analisa o comportamento aleatório dos dados e identifica padrões dentro dessa aleatoriedade a fim de entender a natureza dessas informações. Uma das aplicações simples de distribuição probabilística seria, por exemplo, em um e-commerce. Por meio das análises periódicas de comportamento dos dados de compra dos clientes ao longo de um tempo determinado, seria possível calcular a probabilidade do fluxo de compras nos meses subsequentes. Esse método também pode ser aplicado na previsão do preço do dólar ou da gasolina, por exemplo.
  • Modelagem estatística: esse método relaciona variáveis aleatórias em forma de equações matemáticas a fim de entender qual a relação entre elas. Um exemplo é a regressão linear simples, que mostra como o comportamento de uma variável tem relação com o resultado de outra.
  • Intervalo de confiança: Por meio de uma amostra da população, utiliza-se o intervalo de confiança para estimar a confiabilidade da estimativa de um parâmetro de interesse. Ele é muito usado em pesquisas, onde é calculado para descrever o quão confiável são os dados daquele estudo.

O papel da estatística: aprendizados supervisionados e não supervisionados

Dentre as diversas técnicas estatísticas, é possível estabelecer dois tipos de aprendizado: o supervisionado e o não supervisionado. No aprendizado supervisionado, nós sabemos quais são nossas variáveis dependentes e independentes. Assim, assim, os dados utilizados para o treinamento do modelo já contêm a resposta que desejamos. Já no aprendizado não supervisionado, a ideia é achar uma informação mais relevante dos dados que temos. Dessa maneira, o algoritmo se baseia em estruturas de similaridade, funcionando muito bem em dados transacionais.

Dependendo do modelo de aprendizado e do seu objetivo, o algoritmo de Machine Learning também será diferente. Confira alguns exemplos:

  • Aprendizado Supervisionado: Árvores de Classificação, Support Vector Machine (SVM), classificação (Regressão Logística, KNN-K vizinhos mais próximos), regressão (Regressão Linear, Splines, Árvores de Regressão, Redes Neurais);
  • Aprendizado Não Supervisionado: redução de dimensionalidade (Análise de Componentes Principais, Escalonamento Multidimensional), análise de agrupamento (K-médias, Métodos Hierárquicos), regras de associação, sistemas de recomendação.

Além disso, existem subcategorias dentro desses aprendizados que definem qual é o tipo de problema que você deseja lidar, sendo de regressão ou de classificação. Os modelos para problemas de regressão tentam prever valores numéricos específicos, podendo ser o preço de um produto ou a altura de uma pessoa. No problema de classificação, o modelo tenta identificar a classe que mais se adequa dentro das que já existem. Por exemplo, identificar o humor de um usuário por meio de comentários. 

As diferentes aplicações dos modelos de machine learning

Com o avanço tecnológico, lidamos com esse tipo de inteligência nas formas mais habituais do nosso cotidiano e muitas vezes isso passa despercebido. Alguns exemplos mais comuns são:

  • resultados de pesquisa nos buscadores;
  • filtragem de spams;
  • sistema de recomendações (filmes, livros, músicas, conexões em redes sociais, etc);
  • reconhecimento de voz e facial;
  • automação residencial;
  • previsão de falhas em equipamentos;
  • análise de sentimentos baseada em textos;
  • pontuação de crédito;
  • predições da Bolsa de Valores.

Leia também: Onde grandes empresas utilizam Inteligência Artificial.

Dentre esses exemplos mais conhecidos e que estão presentes na realidade de diversas pessoas, podemos citar os sistemas de recomendações para ilustrar melhor o funcionamento da estatística dentro desse modelo de machine learning. 

Quando entramos pela primeira vez em algum sistema de streaming, como: Netflix, Disney Plus, o aplicativo começa imediatamente a coletar dados de acordo com a nossa interação com a ferramenta. Por meio da análise e modelagem desses dados, utilizando as técnicas estatísticas citadas anteriormente, o mecanismo os lê de forma inteligente a fim de oferecer ao usuário recomendações de filmes e séries que farão sentido para o seu gosto pessoal. A partir disso, esse indivíduo é inserido em um grupo de similaridade para que as mesmas recomendações sejam feitas para outras pessoas que se assemelham com as características daquele perfil. 

Esse tipo de personalização na entrega, que só é possível por conta da matemática por trás do aprendizado de máquinas, melhora a experiência do usuário, deixando, assim, o aplicativo em evidência quando se trata de competitividade de mercado e também se adequa ao consumidor atual, que busca cada vez mais esse tipo de troca mais pessoal com as ferramentas do seu dia a dia. 

Conclusões – Machine Learning

É perceptível que machine learning nada mais é do que pura estatística e, por isso, é preciso muito estudo e análise de dados para garantir o seu avanço e eficiência. Muito do que vemos atualmente era visto como impossível há alguns anos, mas a lógica matemática permite cada vez mais que as tecnologias cresçam e facilitem a vida dos seus usuários.   

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Redes neurais: A utilização de IA nas artes

Redes neurais: A utilização de IA nas artes

Franz Schubert foi um grande compositor austríaco nascido em 1797 e tornou-se um dos principais influenciadores do período romântico. Desde criança, mostrou um enorme talento musical e aos 15 anos já havia composto sua primeira sinfonia, destacando-se como compositor consagrado. Assim, Schubert se tornou famoso com suas melodias belas e geniais, como a linha melódica da Ave Maria, tão tocada ao redor do mundo. Uma de suas obras de maior destaque é a Sinfonia nº 8, a sinfonia inacabada de Schubert. O compositor, infelizmente, teve uma vida breve e faleceu antes de concluir uma de suas obras mais profundas, complexas e belas. 

Desde a sua morte, pelos últimos dois séculos, diversos compositores renomados contribuíram com suas próprias versões para o terceiro movimento da Sinfonia inacabada de Schubert, alcançando resultados memoráveis. Uma dessas versões foi feita recentemente e merece nosso especial destaque, pois foi composta inteiramente por uma inteligência artificial. Diferentemente do que poderíamos pensar, essa versão “artificial” da música não é previsível, repetitiva ou robótica, mas fluida e bonita o suficiente para enganar até mesmo músicos clássicos profissionais. 

IA além da música

A criação de músicas por IA não é o único exemplo de expressão artística e criativa dessa tecnologia. Já é possível encontrar redes inteligentes capazes de pintar quadros que são negociados por centenas de milhares de dólares, geradas no estilo de artistas famosos como Pablo Picasso ou Vincent Van Gogh. Também, existem algoritmos que conseguem capturar e replicar o estilo de escrita de autores como William Shakespeare ou Ernest Hemingway. Outro exemplo impressionante é a aplicação das redes neurais para a geração de rostos de pessoas que não existem, como pode ser observado na Figura 1. As possibilidades são um tanto assustadoras e aparentemente infindas. Seria possível que a Inteligência Artificial de fato automatizasse a arte?

Foto de pessoa gerada por IA
Foto de pessoa gerada por IA. Fonte: https://thispersondoesnotexist.com/

Introdução às redes neurais

Embora as aplicações de Inteligência Artificial tenham ganhado proporções incríveis nos últimos anos, esse termo não é necessariamente novo. Esse ramo da computação teve início por volta da década de 1950, e vem se expandindo desde então. Dentre as diversas ramificações dessa grande área, a aprendizagem de máquina e, em especial, as redes neurais são talvez as principais tecnologias responsáveis por permitir algo tão complexo quanto a expressão da criatividade humana por máquinas.

As redes neurais são estruturas matemáticas que, basicamente, permitem que uma máquina aprenda padrões. Como seu próprio nome indica, foram inspiradas na neurociência e no comportamento do cérebro humano. 

Sabemos que a atividade mental consiste, de maneira simplificada, em estímulos eletroquímicos em redes de células do sistema nervoso chamadas de neurônios. Baseado nesse comportamento, as redes neurais também foram construídas com unidades atômicas chamadas neurônios, que se conectam em diversas camadas profundas e complexas. A modelagem matemática desses neurônios é relativamente simples: temos a princípio um determinado estímulo ou diversos estímulos que são entradas desse neurônio; tais entradas, por sua vez, são processadas por uma função de ativação; por fim, temos como saída um outro estímulo que será passado para um neurônio da camada seguinte. A Figura 2 traz um exemplo dessa unidade básica.

Redes neurais - estrutura básica de um neurônio
Figura 2: Estrutura básica de um neurônio. Fonte: Artificial Intelligence, a Modern Approach

Arquiteturas de redes neurais

É importante destacar que existem inúmeras maneiras em que os neurônios podem se conectar e isso define a arquitetura da rede neural utilizada. Por exemplo, temos arquiteturas de redes que trabalham muito bem em problemas envolvendo imagens, como as redes neurais convolucionais. Existem também redes neurais recorrentes, que possuem diversas aplicações no ramo do processamento da linguagem natural.

Novas arquiteturas para diferentes problemas são propostos constantemente nos dias atuais, expandindo rapidamente a força dessa tecnologia. No contexto da criação de músicas, quadros ou diferentes tipos de artes utilizando a inteligência artificial, temos que destacar uma dessas arquiteturas: as Redes Generativas Adversariais – do Inglês GAN (Generative Adversarial Networks).

Redes Generativas Adversariais

A arquitetura GAN, criada pelo renomado Ian Goodfellow, utiliza dois tipos de redes neurais para conseguir replicar trabalhos artísticos: as redes neurais classificadoras (ou discriminadoras) e as redes neurais generativas. O primeiro tipo vêm sendo desenvolvido intensivamente nos últimos anos. 

As redes neurais já se consolidaram como ótimas ferramentas para análise e classificação de imagens, sons, textos, dentre outros tipos de dados não estruturados. Com um grande conjunto de dados de treinamento, essas redes conseguem, a cada camada, extrair padrões cada vez mais abstratos, de modo a conseguir realizar classificações com acurácias incríveis. Em uma tarefa para lidar com imagens, por exemplo, a rede pode, em sua primeira camada, detectar as cores utilizadas; em camadas seguintes, pode identificar linhas, formatos, objetos e assim por diante, até ter uma compreensão holística do dado. De maneira simplificada, esse tipo de estrutura pode se tornar um verdadeiro especialista em problemas de classificação. 

As redes generativas, por sua vez, também extraem padrões cada vez de mais alto nível em suas camadas. Porém, seu objetivo final é utilizar esses padrões aprendidos para gerar novos exemplos. Esse tipo de modelo possui dados ruidosos em sua entrada para que cada imagem, som ou texto gerado seja diferente um do outro – há um fator probabilístico envolvido.

Como funciona

Dessa forma, podemos entender como uma GAN conseguiria compor o terceiro movimento da sinfonia inacabada de Schubert. Uma rede classificadora primeiro analisaria as mais de 1000 composições criadas pelo artista, entendendo como suas melodias são formadas, que tipo de harmonia é utilizado, quais os instrumentos predominantes nas orquestras, dentre outros diversos aspectos do compositor romântico. Em seguida, uma outra rede seria treinada para conseguir gerar composições no estilo de Schubert. Por fim, as duas redes seriam postas para trabalhar em conjunto: a rede generativa tentaria, a cada iteração de treinamento, “enganar” uma rede especialista nas composições do autor e a rede classificadora compararia o exemplo de obra gerada com as composições reais. 

Pontos negativos

Embora as aplicações das GANs sejam incríveis, também existem implicações negativas. Esse tipo de rede permitiu o surgimento do que é conhecido como deep fake, em que é possível criar vídeos falsificando falas de pessoas ou políticos famosos. Algumas outras aplicações envolvem a geração de fotografias realistas, previsão de vídeos, geração de fotos de animais, personagens de desenho, dentre outros. O Google Arts & Culture, por exemplo, permite que o próprio usuário transforme suas fotos para que virem pinturas em estilos de artistas como Van Gogh.

Discussão sobre arte

A arte e, particularmente, a música, embora existam no registro de todas as culturas humanas ao longo de toda a nossa história, elas ainda possuem seus mistérios. A música é capaz de produzir estímulos emocionais tão poderosos quanto drogas estimulantes. Assim, é uma expressão, não somente da criatividade humana, mas também da sua história, de como percebemos o ambiente à nossa volta e de como tudo isso pode ser traduzido em sentimentos.

Aparentemente, sabemos que a música é composta por 3 elementos básicos – ritmo, melodia e harmonia – que transformam o som em algo a mais, que não é percebido da mesma maneira pelas outras espécies conhecidas. Dessa forma, é difícil imaginar que uma Inteligência Artificial, criada a partir de um código de computador, pudesse participar desse mundo que é tão ligado à nossa natureza. 

Essa não é a primeira vez que vemos uma forte participação da aprendizagem de máquina em algo que consideramos humano. O Xadrez é um jogo de tabuleiro secular, considerado ao mesmo tempo como um esporte, arte e ciência. Em 1997, um dos maiores jogadores de todos os tempos (Garry Kasparov), enfrentou a inteligência artificial criada pelo supercomputador da IBM, o Deep Blue. Kasparov foi derrotado de maneira icônica, o que se tornou um divisor de águas na história do esporte. Hoje em dia, é impensável que mesmo os melhores jogadores do mundo consigam vencer as máquinas. Embora haja essa superioridade, o público que assiste às competições entre os computadores é muito menor do que o que assiste às competições humanas. Os computadores hoje são ferramentas que auxiliam os jogadores a melhorarem, em vez de tomar seus lugares como protagonistas.

Redes neurais nas artes – Conclusões

As construções artísticas criadas por Inteligências Artificiais não ocupam o mesmo lugar que as geradas pela inteligência humana. Entretanto, as máquinas conquistaram seu espaço, com composições, quadros e outras formas de expressão de fato bonitas, mas que acabam servindo como ferramenta para auxiliar nossa criatividade, em vez de objetos finais artísticos. Além disso, hoje em dia, existem plataformas que auxiliam artistas na construção de melodias e harmonias por meio de redes neurais capazes de identificar padrões musicais. Isso facilita a criação da música e possibilita que pessoas sem um treinamento formal também possam se expressar de maneira que antes não conseguiriam. Portanto, é inegável a transformação que está acontecendo no meio artístico com a introdução dessas tecnologias. Esperamos que isso venha contribuir ainda mais com maneiras inovadoras para a expressão humana.

Gostou do artigo? Então deixe o seu comentário.

Referências:

https://towardsdatascience.com/are-neural-nets-close-to-producing-real-art-6a3943b915ed | https://www.bbvaopenmind.com/en/articles/artificial-intelligence-and-the-arts-toward-computational-creativity/ | https://bgr.com/tech/nvidia-ai-fake-faces-look-100-percent-real-5665483/ | https://www.weareworldquant.com/en/thought-leadership/generating-art-from-neural-networks/ | https://www.youtube.com/watch?v=01Own2PW9mk&t=563s | https://www.youtube.com/watch?v=dCKbRCUyop8 | https://arxiv.org/pdf/1406.2661.pdf

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodologia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros.

Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Send this to a friend