Web scraping: coleta de dados automatizada

Web scraping: coleta de dados automatizada

Web scraping é uma ferramenta que permite a coleta de dados automatizada de websites. Essa técnica possibilita a aquisição de grandes quantidades de dados em tempo reduzido, permitindo assim análises e estudos para desenvolvimento de modelos de inteligência artificial. Diversos setores fazem uso e se beneficiam dessa ferramenta, portanto vale a pena conferir melhor o que é, como funciona e qual é a sua utilidade.

Digamos que você queira obter informações de um site. Basta entrar nesse site, procurar a informação desejada e então copiá-la para um arquivo. Imagine agora que você precisa obter informações de dezenas de sites. O processo se torna muito mais demorado e cansativo de ser realizado manualmente. E se pudéssemos automatizar esse processo de busca, adquirindo e armazenando diversas informações de diversos sites distintos? É nesse cenário que entra o conceito de web scraping.

O que é web scraping?

Web scraping pode ser entendido como uma coleta de dados automatizada de websites. Dessa forma, é possível adquirir e armazenar grandes quantidades de dados disponíveis publicamente em diversos sites. Posteriormente, podemos utilizar esses dados para análise e obtenção de insights, comparação de dados, criação de modelos de inteligência artificial e outras aplicações. Alguns exemplos de dados coletados por web scraping podem ser preços de mercadorias, dados de monitoramento climático e ações.

Como funciona?

É muito comum que os dados de diversos sites sejam não estruturados, misturando informações de textos, imagens e links. Dessa forma, a utilização de web scraping converte esses dados para um formato estruturado, agrupando informações semelhantes em uma planilha, por exemplo, para melhor visualização e acesso.

O conceito básico envolvido no web scraping é: 

  1. Especificar o site do qual se deseja obter informações;
  2. Solicitar o código HTML da página do site;
  3. Identificar no código a marcação das informações a serem coletadas;
  4. Salvar os dados no formato desejado.

Pode-se aplicar essa metodologia utilizando a linguagem de programação Python em conjunto com algumas bibliotecas voltadas para web scraping.

Qual a utilidade do web scraping?

Podemos utilizar o Web scraping em diversas áreas para a mesma finalidade: coleta de dados.

Pesquisa de mercado: é muito comum a utilização da coleta de dados automatizada para obtenção de informações de concorrentes, por exemplo: preço, vendas e demanda. Essas informações são de grande interesse para auxiliar na decisão de estratégias de precificação e promoções.

Monitoramento de notícias: outra aplicação é para obtenção e estruturação de notícias. Muitas empresas utilizam notícias para tomada de decisão, por isso é tão importante o monitoramento automatizado dessas informações.

Monitoramento do tempo: dados climáticos são de extrema importância para os setores agropecuário e de energia, tendo assim grande impacto em sua produção e geração. Diversas empresas utilizam a coleta de dados do tempo para a construção de modelos de inteligência artificial e tomada de decisão.

Sistemas de recomendação: grandes empresas de redes sociais coletam grandes quantidades de dados para o desenvolvimento de sistemas de recomendação de seus produtos para os usuários, considerando o seu histórico de buscas e interesses.

Conforme mencionado, o web scraping automatiza a coleta de dados e, posteriormente, utilizam-se esses dados para alguma finalidade dentre tantas áreas.

Web scraping – Considerações finais 

Para uma grande geração de dados, é necessário ferramentas para lidar com coletas e armazenamento. A técnica de web scraping é amplamente utilizada por empresas para coletar e armazenar automaticamente grandes quantidades de dados de diversas fontes que são posteriormente utilizadas para o benefício da empresa.Vale ressaltar que o web scraping é uma ferramenta única para cada site, sendo que sua construção varia de acordo com o site a ser examinado. Além disso, se o site sofrer alguma atualização ou alteração, é muito possível que o scraper (código que implementa o web scraping) desse site também precise ser alterado. Portanto, apesar da facilidade trazida pelo scraper, é necessário um constante monitoramento para garantir seu bom funcionamento.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Segurança na gestão de dados

Segurança na gestão de dados

Os dados se tornaram um dos ativos mais valiosos das organizações no mundo atual. Sua importância se tornou evidente a partir da democratização do acesso à internet, meios computacionais, e adoção de técnicas de IA e Machine Learning em larga escala. 

Isso, aliado ao poder da computação atual, possibilitou o uso dos dados para análises e previsões que antes eram impossíveis, revolucionando as operações e a forma como as empresas fazem negócios.

Em um cenário como esse, torna-se necessário adotar técnicas de segurança na gestão de dados a fim de garantir a integridade das informações confidenciais de clientes e da própria organização. 

Segundo reportagem do CanalTech, empresas devem investir cerca de 83% em segurança digital em 2022. Sendo assim, selecionamos aqui algumas ações que podem ser adotadas para reforçar a segurança na gestão de dados das organizações.

Política de backups e snapshots

Implementar uma política de backup e restauração é de absoluta importância. Com procedimentos e ações bem definidas, é possível recuperar os sistemas afetados por falhas ou ataques em menor tempo, com mais efetividade e integridade dos dados.

Ter snapshots recentes dos servidores web e de banco de dados é essencial para garantir o funcionamento das operações em caso de desastres. Uma política de snapshots regulares reduz o risco de perda de dados e proporciona um menor tempo de downtime.

Replicação de dados

As bases de dados são, sem dúvida, um dos ativos mais valiosos das organizações, sem eles, operações inteiras simplesmente param. 

Uma boa política de gestão de dados deve levar em consideração a necessidade de criar réplicas dos bancos de dados a fim de garantir a alta disponibilidade das informações em eventos de natureza inesperada. 

Criptografia de arquivos e discos

Implementar criptografia nos arquivos e discos de armazenamento deve ser mandatório. As boas práticas de segurança na gestão de dados preveem o uso da criptografia em todos os estágios do ciclo de vida dos dados.

Computadores e laptops corporativos também devem utilizar-se da criptografia para garantir que arquivos não sejam acessados indevidamente. Assim, mesmo que o disco rígido caia em mãos erradas, o acesso aos dados contidos nele estará protegido pela criptografia.

Além disso, o tráfego das informações pela internet deve estar sempre protegido por certificados SSL ou TLS. Dessa forma, evita-se que os pacotes sejam interceptados em trânsito por estarem sendo transmitidos de forma desprotegida.

O princípio do menor privilégio

O princípio do menor privilégio é a prática de limitar os direitos de acesso dos usuários ao mínimo necessário para a realização de uma tarefa. Isso garante que o usuário ficará restrito aos recursos definidos pelo administrador da organização.

As permissões normalmente são concedidas aos grupos, que podem ser um departamento ou um cargo. Elas serão definidas com base na função desempenhada por este cargo, impedindo assim um colaborador de acessar recursos não relativos às suas atribuições.

Em caso de necessidade de permissionamento adicional, esse pode ser concedido de forma definitiva ou temporária para que atenda apenas ao período necessário para o desempenho da atividade.

Revogação de acesso

A revogação de acesso é uma política de segurança crítica para uma organização. 

O acesso de colaboradores desligados e contas de sistema inutilizadas devem ser revogados o mais rápido possível para impedir que sejam usadas indevidamente para acessar os dados da organização. 

Uma boa prática é desativar o usuário em vez de excluí-lo. É importante poder reativar o usuário novamente em caso excepcional. 

VPN

O acesso aos servidores cloud e sistemas importantes deve-se preferencialmente estar protegido por uma conexão do tipo VPN (Virtual Private Network).

Ao estabelecer uma VPN, cria-se um túnel virtual entre a origem e o destino, proporcionando assim um ambiente seguro para o tráfego dos dados.

Buckets e Cloud Storage

Aqui, recomenda-se utilizar o serviço mais adequado à necessidade dos dados a serem armazenados. 

A gestão de dados deve considerar o tempo estimado para recuperação dos dados e o custo por objeto armazenado, que pode variar de acordo com a necessidade.

Google e AWS, por exemplo, oferecem diferentes classes de armazenamento, em diferentes características e custos envolvidos. 

Armazenamentos do tipo Archive, por exemplo, possuem um custo menor, mas um tempo de recuperação que pode levar horas, sendo inadequado para backups de sistemas em produção, mas ideal para arquivar dados que não serão acessados, como arquivos XML de notas fiscais.

Já os do tipo Standard, são ideais para sistemas em produção, pois seu tempo de recuperação é imediato, permitindo uma ação rápida em casos excepcionais.

Segurança na gestão de dados – Considerações finais

Como vimos, à medida que os dados tornam-se cada vez mais importantes para as empresas, devido a seu valor estratégico, aumenta a preocupação com a segurança da informação.

Nesse cenário, é imprescindível às empresas a adoção das medidas de segurança listadas anteriormente a fim de garantir a integridade das informações confidenciais de clientes e da própria organização. No entanto, cabe ressaltar que garantir a segurança na gestão de dados é um trabalho contínuo das empresas, que exige atenção e atualização constantes.  

E aí, gostou das dicas para reforçar a segurança na gestão de dados? Então deixe o seu comentário.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

Dicionário de Dados Tradicional vs Analítico

Dicionário de Dados Tradicional vs Analítico

Anteriormente explicamos com detalhes o que é um dicionário de dados de Data Analytics, apresentamos seu conceito e diferenças quando comparados com dicionário de dados tradicionais.

Uma das principais diferenças entre dicionários tradicionais e de Data Analytics é que os dicionários analíticos integram conhecimentos negócio em diferentes níveis de granularidade, removendo ambiguidades sem priorizar requisitos de sistemas. Isso não deve reduzir a importância dos dois tipos de dicionários em seus contextos. (Joni Hoppen)

Embora a finalidade de ambos os dicionários seja a mesma, ambos buscam unificar e padronizar informações sobre os dados guardados em sistemas de informação.

Portanto, neste artigo vamos apresentar um comparativo entre os dois tipos de dicionário de dados e o seu papel nas atividades das empresas.

Dicionários Tradicionais

Os modelos tradicionais, são mais complexos e detalhados e fazem parte de de processos maduros e boas práticas de engenharia de software, informando até o tamanho do texto permitido em cada coluna. Por exemplo, a coluna nome do paciente tem um limite de 50 caracteres.

Estas informações são relevantes para garantir o planejamentos da infraestrutura ou stack tecnológico, tais como escolha de uma linguagem de programação, o tipo de integração de sistemas e diversas atividades que garantem a operação diária da empresa.

Contudo, quando se planeja utilizar a Inteligência Artificial e algoritmos de mineração de dados, estas informações podem ser irrelevantes e adicionam grande complexidade ao processo de análise.

Dicionários de Data Analytics (dados analíticos)

Para que um modelo tradicional de dicionário (mais completo) seja adequado aos processos de Data Analytics na criação de datasets (o que é um dataset?), ele precisa ser ajustados aos perfis profissionais que irão consumir a informação.

Os clientes dos dicionários analíticos são, sobretudo, cientistas de dados e analistas de negócios que possuem um grande interesse na assertividade das predições/prescrições dos modelos estatísticos e integração com o modelo de negócio.

Em data analytics, os dicionários estão mais focados nos significado das linhas (registros) dos datasets e das colunas das tabelas (variáveis, fatores, características) para que pessoas envolvidas pensem sobre o problema de negócio (o que se quer analisar) na forma mais prática e simplificada possível.

Tabela comparativa

Na tabela a seguir, apresentamos algumas sugestões de atividades e os clientes dos dicionários tradicionais da engenharia de software e dos dicionários analíticos.

AtividadeTradicional
(Tecnologia da Informação)
Dicionário de Analytics
(Escritório de Ciência de dados)
Ambos
Integração de sistemasX  
Modelagem de bancos de dados;X  
Migração de sistemasX  
Higienização de dados  X
Criação de modelos, exploratórios,  preditivos e prescritivos. X 
Geração de relatórios analíticos  X
Dados transacionaisX  
Dados analíticos X 
Tabela comparativa de atividades e dicionários de dados

Modelo de dicionário de dados grátis

Neste artigo (o que são dicionários de dados analíticos?) é possível baixar um modelo de dicionário que vai direto ao ponto.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autor

4 métricas fundamentais para qualidade de dados em analytics.

4 métricas fundamentais para qualidade de dados em analytics.

Qualidade de dados tem sido um dos temas mais abordados nos projetos de estruturação em data analytics, sendo um dos principais indicadores do nível de maturidade das organizações.

Nossa percepção ao longo dos últimos 10 anos atuando em diferentes setores, é que a Qualidade de Dados é sem dúvida um dos principais fatores ligados ao sucesso ou fracasso dos projetos. 

Embora a baixa qualidade dos dados afete negativamente o Analytics,  destacamos que o contrário – possuir dados de alta qualidade – não é garantia de impactos positivos, pois sucesso de um projeto ainda depende de uma estratégia de negócio adequada, alinhada a uma metodologia de trabalho.

Neste artigo, sugerimos algumas métricas para avaliar seus próprios dados e priorizar suas análises.

Mas antes de começarmos, vale deixar um tópico claro:

O que é o índice de qualidade de dados.

O Índice de Qualidade de Dados (IQD) é a composição de diversas métricas (indicadores), que como o nome sugere, busca mensurar a qualidade dos dados analisados. O IQD deve ser empregado na priorização de decisões sobre a utilização de determinados conjuntos de dados (datasets) em projetos de análises de dados. 

Quando bem ajustado pode informar, de forma assertiva, quais dados são mais ou menos adequados para análise e uso de inteligência artificial.

Completude 

A completude é definida como o percentual de registros ou campos preenchidos. 

Ex. Se 100 pessoas recebem um formulário e apenas 40 respondem completamente (completude de registro). Temos 40% de preenchimento. 

Se destes 40 respondentes, 20 não preencheram alguma resposta temos 50% de completude do preenchimento do respectivo campo.

Case Aquarela: Já fizemos uso da Inteligência Artificial para ajudar o Governo do Estado de São Paulo (e seus 645 municípios) a melhorar a completude dos registros de óbito e nascimento nos sistemas DataSus Sim/SINASC.

No mapa abaixo, estão pontuados 397 municípios com mais de 30 nascimentos ocorridos durante um ano, junto ao Índice de Completude dividido em faixas:

  • Verde – alto completude
  • Amarelo – Média completude
  • Vermelho – Baixa completude

O  IQD em conjunto com outros indicadores possibilitou a criação de um Sistema de Recomendação capaz de apontar quais Municípios, Profissionais de Saúde e partes do formulário tinham mais ou menos lacunas, o que resultou em novas e adequadas estratégias de treinamento, redução de custos e claro, aumento da performance do setor público.

Acurácia / Veracidade – Erro de observação

A acurácia e a veracidade avaliam o quão próximo ou distante está a informação da realidade. Ex. A temperatura de todos os pacientes está em 39 graus, será que todos podem estar com febre ao mesmo tempo? Será que é verdade?

Existem diversas formas de verificação, tais como; mudanças na técnica de amostragem (O que é amostragem), substituição dos sensores térmicos, validação da metodologia de captura, transferência de escalas e até uma boa revisão do dicionário de dados, para verificar se as unidades de medidas estão de acordo. 

Já tivemos um caso onde a mensuração estava informada como metros cúbicos, porém na evolução das análises esse indicador apresentou resultados muito incoerentes.

Com mais algumas horas de investigação e diversas interações com os especialistas, descobrimos que aqueles números, na verdade, estavam falando de caixas e não metros cúbicos. Um bom analista deve ser desconfiado sempre. 

Consistência

A consistência de um conjunto de dados está associada com vários aspectos, tais como: 

  • Frequência dos preenchimentos;
  • Integração dos dados entre vários bancos de dados;
  • Mudanças nas fórmulas de cálculo ao longo de uma série;
  • Duplicidades ou falta de registros;
  • Presença de outliers (o que são outliers e como tratá los?).

O trabalho de verificação pode ser inicialmente manual, com uso intensivo de visualizações de dados e técnicas estatísticas como verificação de máximas, mínimas, médias, distribuições e assim por diante. 

Para a consistência de dados, menos é mais, por isso sugerimos uma boa discussão entre as equipes de TI e negócios sobre a arquitetura dos bancos de dados durante conformação de datasets analíticos

Em um projeto de pricing para educação, economizamos milhares de horas despendidas com as incoerências entre códigos antigos, novos e não informados. Pequenos ajustes que impactam grandes mudanças trazendo melhores resultados. 

Validade

A validade está ligada ao formato dos dados esperados com os dados informados, mais ou menos um cara crachá que busca garantir que os dados estejam válidos em relação aos modelos adotados. Segue alguns exemplos de dados inválidos frequentes: 

  • Ponto e Vírgula nas casas decimais no padrão Brasileiro (1.345,20) e no padrão americano (1,345.00). 
  • Datas em diferentes formatos “12/janeiro/2020”, “12-01-2020”.
  • Codificação da tabela de acentos (encoding padrão UTF8, Latin-1 e outros tantos) incompatibilidades geram acentos estranhos  (este tópico merece um artigo específico) 

Já realizamos a organização de validade em bilhões de registros se contarmos todos os projetos que já atuamos, como principal recomendação, sempre busque garantir a validade dos dados na origem, se ele for capturado inválido é muito mais trabalhoso.

Conclusões

Neste artigo apresentamos 4 indicadores/métricas de qualidade de dados com exemplos práticos de cases já vivenciados.

O conjunto das métricas pode ser utilizado para criar um índice de qualidade de dados, por setor ou departamento da empresa, sendo muito útil na evolução da maturidade de analytics nestes ambientes. 

Vale notar que algoritmos de inteligência artificial não se restringem somente a análises preditivas e prescritivas. Eles podem auxiliar na melhoria dos indicadores, detecção outliers e automação de processos de higienização de dados brutos, por exemplo.  

Vemos que sistemas e práticas de manutenção de métricas são ainda pouco cultivadas, mas devem ganhar força e forma com o movimento e intensificação da digitalização da economia e crescimento da área de data analytics nas empresas. Isso certamente poderá auxiliar na garantia da qualidade da informação dos processos de negócio existentes.  

Trabalhamos com grandes corporações e sempre buscamos utilizar técnicas de tecnologias de analytics de forma prudente, seguindo os conceitos aqui abordados.

Estamos a disposição para dúvidas ou sugestões sobre o tema.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

 Autores

O que Sun Tzu ensina sobre Data Analytics Parte II

O que Sun Tzu ensina sobre Data Analytics Parte II

No post I, ver aqui, falamos sobre o quanto é importante o planejamento e se preparar para a nossa guerra contemporânea, que tem como objetivo a informação certa no menor prazo possível.

Nosso soldado data scientist  já tem consciência de ferramentas e possíveis estratégias para a batalha da análise de dados. Porém, o fato de ter apenas os métodos comprados e instalados na empresa nem sempre geram resultados, e por que isso acontece?

Disposição de Ferramentas

“7. Prever uma vitória que o homem comum pode prever não corresponde ao auge da habilidade.”

Sun Tzu falava da Disposição das Tropas, nós falamos da Disposição de Ferramentas. Descobrir o óbvio não agrega valor à empresa e é o principal ponto de atenção das equipes de analytics. A exceção a essa regra está nos casos onde análise tem o objetivo de testar um algoritmo ou abordagem e então saber se as ferramentas (metodologia + inteligência artificial) foram capazes de encontrar o que já se sabe e ir além.

Verificamos que a experiência dos analistas é um fator determinante no sucesso dos estudos de analytics. Isso se deve, principalmente, por prever erros estruturais nos fluxos de análise e a criatividade para desenvolver testes contra os algoritmos. Ainda, compará-los em diversas dimensões e eventualmente encontrar explicações esperadas de validação e no auge da habilidade, informações não previstas que geram oportunidades reais de melhoria.

Forças normais e extraordinárias

“5. Na batalha, valha-se da força normal para o combate e utilize a extraordinária para vencer.”

Existem forças normais que podemos usar para complementar as extraordinárias, é o exemplo das ferramentas livres e open source ou mesmo estratégias coerentes de indicadores (KPIs – Key Performance Indicators) já fazem uma diferença bastante grande no desempenho com impacto direto nos níveis de maturidade de analytics.

Agora dependendo do nível da competição, do timing e tamanho do mercado, utilizar ferramentas fechadas podem fazer a diferença do extraordinário, por isso, fique atendo a soluções fechadas disponibilizadas por APIs.

O preço da dúvida

“9. Na guerra, o perito age de maneira sutil e insubstancial, não deixa pistas; divinamente misterioso, é inaudível; torna-se, ele próprio, senhor do destino de seu inimigo.”

No mundo analytics, cases detalhados são raramente divulgados. Do que dá certo ou errado, cada um guarda para si, mais ou menos como no investimento em ações. Aparentemente, uma das formas mais plausíveis de se obter conhecimento real das tentativas e erros é pela incorporação e disseminação de processos de gestão do conhecimento e contratações estratégicas.   

Conclusão: Estratégias

“4. Na guerra, tanto a vantagem quanto o perigo são inerentes às manobras.”

Há uma expectativa bastante grande com relação a qualquer iniciativa de Data Analytics dentro das organizações e isto acontece independentemente do nível de maturidade de dados em que elas se encontram. O fato é que, para chegar a modelos preditivos realmente assertivos, o caminho é tortuoso e multidisciplinar. Por tanto, projetos com poucos recursos (horas de analistas, computadores parrudos, ferramentas de análise e capacitação) tendem a ter resultados coerentes com o investimento.  

Então é isso pessoal, espero que a analogia ajudou no entendimento e que gere valor no seu negócio. Um forte abraço de toda a equipe da Aquarela Advanced Analytics.

Gostou da leitura? Tem muito mais da onde veio este post, inscreva-se em nossa Newsletter e não perca nossos conteúdos!

Fiquem ligados em nossas redes sociais:

Facebook, Twitter, Linkedin

*SUN TZU. A Arte Da Guerra – por uma estratégia perfeita. São Paulo: Madras Editora, 2003.

Quem é a Aquarela Analytics?

A Aquarela Analytics é pioneira e referência nacional na aplicação de Inteligência Artificial na indústria e em grandes empresas. Por meio da plataforma Vortx e da metodolgia DCIM (Download e-book gratuito), atende clientes importantes, como: Embraer (aeroespacial), Scania e Grupo Randon (automotivo), SolarBR Coca-Cola (alimentício), Hospital das Clínicas (saúde), NTS-Brasil (óleo e gás), Votorantim (energia), dentre outros. Fique atento às novas publicações diárias da Aquarela Analytics no Linkedin e assinando a nossa Newsletter mensal! 

Autores