Arquivo da categoria: Tecnologia

Profissionalização da Informação

O ferramental de integração de dados está partindo para sua terceira geração. Já ouviu falar em DataOps?

Já tratamos aqui de diversos aspectos da tecnologia de análises, das aplicações nos negócios, do papel do cientista de dados e de outros profissionais de dados (engenheiros, arquitetos entre outros), assim como do crescimento constante, consistente e cada vez mais acelerado do volume, variedade e velocidade de dados.

Estes elementos estão inseridos em um contexto tecnológico onde a velocidade de evolução das soluções é, sem dúvida alguma, maior do que a capacidade que muitas organizações têm de acompanhar o lançamento de novos componentes; quem dirá sobre a forma como organizam as atividades de análise de dados, aplicação de conhecimento em seus processos e formação de pessoas.

Soma-se a isso o estabelecimento de métodos e dinâmicas para obtenção e tratamento de dados que não atendem mais à incerteza dos negócios e o fato de que cada vez mais são geradas informações com menor controle, menos estrutura e menor preocupação com o será feito com elas. Temos, então, um cenário de saturação em relação aos benefícios que podem ser extraídos da informação em curto prazo, ou seja, cada vez leva-se mais tempo para organizar as informações que irão subsidiar análises e suportar decisões de negócio.

Neste cenário, alguns princípios e elementos ainda são válidos, mesmo que em escalas muito diferentes das existentes na época de Bill Inmon ou de seu antagonista, Ralph Kimball, assim como algumas abordagens e tecnologias inovadoras e absolutamente necessárias atualmente – que em muitos casos, eram realmente dispensáveis na época em que estes dois senhores começavam a popularizar a prática de Data Warehousing e Business Intelligence.

O que ainda não mudou?
Priorizar e entregar de valor ao negócio (e não simplesmente usar a tecnologia pela tecnologia). Por mais que hoje em dia seja tentador usar o enorme ferramental à disposição, muitas vezes de forma gratuita na Internet, os benefícios aos processos de negócio, aos cidadãos ou à cadeia produtiva (entre outros) não pode ser colocado em segundo plano. Caso contrário, corre-se o risco de investir recursos que escassos na busca do ‘prego mais bonito’, quando o problema pode ser resolvido por um parafuso.

Entender a estrutura e conteúdo de suas fontes de dados e balancear o investimento em tratar, ajustar e combinar dados em elementos de análise, por mais inovadoras que as fontes e origens de dados possam ser (por exemplo, imagens de satélite, dados de telemetria, ocupação de linhas de produção em fábricas etc). É sempre importante entender o significado dos dados para que seja possível planejar – não só a eventual mecânica de separação de ‘ruído’ e de ‘informação’, mas também a melhor engenharia para ingestão desta informação (exemplo: usando arquivos, trazendo apenas atualizações, controlando fluxo de dados etc).

Definir objetivos de longo prazo, entregando resultados rapidamente e com capacidade de expansão, já que para quem não sabe seu destino, qualquer caminho é válido. Isso implica na incapacidade de medir retorno sobre investimento de recursos (seja em pessoas, ferramental ou serviços) se os objetivos ou direção não estiverem ao menos alinhadas com o grupo que realiza as análises.

Organizar equipes de trabalho multidisciplinares, uma vez que a miríade de tecnologias, processos, áreas de conhecimento, detalhes de operações, riscos e visão de negócio ainda não são conseguidas de forma efetiva e escalável em apenas um departamento da empresa, ou em apenas um “super-herói”.

Priorizar indivíduos e interações sobre processos e ferramentas, já que não há receitas prontas para o sucesso, ferramentas totalmente inteligentes e mecanismos não-supervisionados de identificação de ruído em dados dispersos suficientemente bons para serem usados de forma automática.

Possuir uma metodologia interativa e evolutiva para a realização de análises e aplicação de resultados. Aplicar tecnologia em grande escala para resolver problemas sem métodos (adotando apenas a “força bruta”) é apenas garantia de consumo de recursos humanos e computacionais. Métodos como o de “Processos Industriais para Mineração de Dados” (ou CRISP-DM – em Inglês) ainda suportam de forma bastante completa a geração de insights mesmo em situações extremamente inovadoras, onde a equipe possui conhecimento específico limitado da indústria ou do problema em questão.

O que vem por aí?
O ferramental de integração de dados está partindo para sua terceira geração. A primeira geração focou em extração, transformação e carga de dados (ou “ETL” – Extract, Transform & Load, em Inglês).

Como a transformação gradativamente demonstrou-se subestimada pelas empresas e organizações, a segunda geração incorporou aspectos e componentes de qualidade, padronização e enriquecimento de dados.

Já a terceira geração de ferramentas reconhece as limitações de gestão de elementos de dados de alguns sistemas internos das empresas e novas fontes de informação, focando na curadoria de dados, de forma escalável e replicável. Além disso, muitas vezes incorpora elementos e algoritmos de Inteligência Artificial no reconhecimento de padrões e potenciais combinações, visando aumento de qualidade e usabilidade de dados, além de integrar capacidades de ‘expert sourcing’ (e não simplesmente crowdsourcing) para validação, ou mesmo curadoria de regras de tratamento de dados em casos específicos.

Além dos mecanismos de ingestão de dados, outra discussão que está cada vez mais madura é a constatação de que vale mais a pena catalogar a informação e os elementos de dados que serão usados para a realização de análises e tomada de decisão, e não apenas consolidar, harmonizar e padronizar dados que em alguns casos não são ‘harmonizáveis’ entre departamentos e áreas das empresas.

Isso leva a uma abordagem comum, mas em alguns casos mal interpretada (ou mal implantada) nos ambientes com tecnologias de big data que se chama de “schema on read”. Esta abordagem diz respeito à organização dos dados (o “schema”) ser dependente de seu uso (“on read”), e não é a forma como tipicamente os dados são organizados em sistemas e arquiteturas de Business Intelligence, chamada de “schema on write”, que busca organizar as informações para serem armazenadas, independente de como ou por quem serão utilizadas, e que depende de um esforço complexo, corporativo e em muitos casos pouco sucedido de padronizações de dados em toda empresa.

IAanalytics

Outras novidades que estão ganhando o dia a dia prático na resolução de problemas envolvem Inteligência Artificial e correlatos, mas abordaremos mais sobre eles em outros artigos.

A melhor forma de organizar os princípios que ainda não mudaram com o que está vindo por aí até o momento chama-se DataOps. É a combinação de técnicas, tecnologia e processos ágeis, inovadores e em alguns casos disruptivos, visando suportar a entrega de insights que impactem o negócio e a vida de cidadãos em qualquer lugar do mundo.

Princípios de DataOps
Compartilho aqui a lista dos dezoito princípios do Manifesto DataOps que orientam o desenvolvimento de novas tecnologias e estão, pouco a pouco, sendo adotados por algumas organizações ágeis (como Startups) e tendem a começar a fazer parte do mundo corporativo em menos tempo do que imaginamos.

1. Satisfaça continuamente seu cliente
A maior prioridade é satisfazer o cliente por meio da entrega rápida e contínua de insights analíticos valiosos, de alguns minutos até semanas.

2. Valor da análise de trabalho
A principal medida do desempenho da análise de dados é o grau em que as análises perspicazes são fornecidas, incorporando dados precisos em estruturas e sistemas robustos.

3. Abraçar a mudança
A necessidade dos clientes em evolução é a motivação e, na verdade, necessária para gerar vantagem competitiva. O método mais eficaz e ágil de comunicação com os clientes é o diálogo cara a cara.

4. É um esporte de equipe
As equipes analíticas sempre terão uma variedade de papéis, habilidades, ferramentas favoritas e títulos.

5. Interações diárias
Clientes, equipes analíticas e operações devem trabalhar juntos, diariamente, durante todo o projeto.

6. Auto organizar
A melhor percepção analítica, algoritmos, arquiteturas, requisitos e projetos emergem de equipes auto organizadas.

7. Reduza o heroísmo
À medida que o ritmo e a amplitude da necessidade de insights analíticos aumentar, as equipes analíticas devem se esforçar para reduzir o heroísmo e criar equipes e processos analíticos de dados sustentáveis e escaláveis.

8. Reflita
As equipes analíticas devem ajustar seu desempenho operacional por meio da autorreflexão em intervalos regulares, e pelo feedback fornecido por seus clientes e estatísticas operacionais.

9. Analytics é código
As equipes analíticas usam uma variedade de ferramentas individuais para acessar, integrar, modelar e visualizar dados. Fundamentalmente, cada uma dessas ferramentas gera código e configuração que descreve as ações tomadas nos dados para fornecer insights.

10. Orquestrar
Todo o ciclo, do começo ao fim da orquestração de dados, ferramentas, códigos, ambientes e o trabalho das equipes analíticas é um fator chave do sucesso analítico.

11. Torná-lo reprodutível
Resultados reproduzíveis são necessários e, portanto, tudo precisa ser “versionado”: dados, hardware e configurações de software, o código e configuração específica para cada ferramenta na cadeia de ferramentas.

12. Ambientes descartáveis
É importante minimizar o custo para os membros da equipe analítica experimentar, possibilitando a criação de ambientes técnicos descartáveis, isolados e seguros que refletem seu ambiente de produção.

13. Simplicidade
A atenção contínua com a excelência técnica e bom design aumenta a agilidade; da mesma forma a simplicidade – a arte de maximizar a quantidade de trabalho não feito – é essencial.

14. Analytics é fabricação
Os fluxos analíticos são análogos às linhas de produção enxutas. Um conceito fundamental de DataOps é um foco no processo de pensamento visando alcançar a eficiência contínua na geração de insights analíticos.

15. A qualidade é primordial
Pipelines analíticos devem ser construídos com uma fundação capaz de detectar automaticamente anomalias (jidoka) em código, configuração e dados, e fornecer feedback contínuo aos operadores para evitar erros (poka yoke).

16. Monitorar qualidade e desempenho
O grande objetivo é ter medidas de desempenho e qualidade monitoradas continuamente para detectar variações inesperadas e gerar estatísticas operacionais.

17. Reutilização
Um aspecto fundamental da eficiência da fabricação de insights analíticos é evitar a repetição do trabalho anterior por parte do indivíduo ou da equipe.

18. Melhorar os tempos de ciclo
As equipes devem se esforçar para minimizar o tempo e o esforço para transformar a necessidade do cliente em um produto analítico: criá-lo em laboratório, liberá-lo como um processo de testes produtivo e, finalmente reutilizar esse produto como acelerador para implantação de novas necessidades”

Estude, aprenda, teste, conecte-se e busque a combinação que funciona para você entre seus conhecimentos, as habilidades de sua equipe de trabalho e as tecnologias que estão inundando nosso panorama.

Autoria: Daniel Lázaro

 

 

Por que adotar soluções baseadas em MDM para os dados dos clientes?

Entenda como as soluções baseadas em MDM contribuem para aumentar a competitividade da empresa, através da adoção de estratégias baseadas em visões 360º dos clientes

MDM você já conhece. É a sigla de Master Data Management, que engloba um conjunto de metodologias, processos, soluções arquiteturais e software que, juntos,  ajudam os gestores a entender e gerenciar as características dos seus dados mestres, garantindo: coerência, controle na manutenção e condições de utilização desses dados.

Geralmente, um dado mestre nasce dentro da organização e possui características corporativas. É utilizado em vários processos que permeiam diversas áreas da empresa e são considerados extremamente importantes para a existência da mesma. Entre alguns exemplos de dados mestres podemos citar produtos, clientes, fornecedores, etc.

Uma das principais características de um dado mestre é a qualificação das transações de negócio, envolvidas com os processos do “core business” da empresa. Por exemplo, em uma transação de compra de produtos em um website, podemos afirmar que cliente e produto são dados mestres que qualificam uma transação de compra, representada pela emissão da Nota Fiscal. Uma Nota é emitida para um cliente e faz referência à venda de um ou mais produtos. Enfim, sem essas duas informações não seria possível concretizar a venda.

Por que o MDM é necessário para os dados dos clientes?
A necessidade de adoção de uma solução MDM surge quando as empresas começam a entender os prejuízos decorrentes da má qualidade e do alto grau de redundância dos dados existentes em suas bases.

De forma geral, muitas empresas ainda desenvolvem softwares orientados ao “ritmo dos projetos”, especificados para atender solicitações isoladas dos usuários das áreas de negócio, ao invés de desenvolver softwares orientados à “arquitetura”, ou seja, verificando se as soluções são realmente necessárias, se estão aderentes às

estratégias de negócio, se já existem partes a serem reutilizadas e considerando o impacto do desenvolvimento dessas aplicações na organização.

Com isso, cria-se uma série de sistemas que suportam diversos processos de negócio. Esses processos acabam sendo tratados isoladamente, passando a conviver com diversas bases de dados, não integradas, uma (ou mais) para cada fase da cadeia de negócio. Além disso, a aquisição de pacotes, implementados de forma isolada, sem considerar todas as integrações e eventuais customizações necessárias, também contribuem para gerar todo esse “caos”.

data

Desta forma, o cadastro dos clientes passa a existir de forma proprietária em diversas aplicações da cadeia, com formas desiguais, conceitos diferentes e dados não integrados.

A adoção de uma solução MDM inicia o processo para “estancar” este ciclo vicioso. A partir da definição de uma estratégia baseada em uma nova arquitetura, convivência com as bases dos legados e apoio de softwares específicos, a empresa começa a ter condições de trabalhar com visões unificadas sobre os dados dos clientes. Contudo, vale ressaltar que este trabalho não é simples e envolve a adoção de mecanismos para garantir a governança e a qualidade dos dados.

Enfim, posso afirmar que o MDM é um preço caro a ser pago, devido a ineficiência arquitetural, construída ao longo dos anos nas empresas.

MDM como diferencial competitivo
Em um cenário econômico desfavorável, com investimentos cada vez mais escassos e um grau de exigência dos clientes cada vez mais alto, a competição entre as empresas torna-se cada vez mais acirrada. A fim de se manterem competitivas, as organizações precisam cada vez mais ter uma visão integrada dos dados dos seus clientes.

Desta forma, as empresas buscam oferecer aos seus clientes uma melhor experiência de relacionamento e consumo nos diversos processos e diversos canais de acesso disponíveis. Para isso, o cliente precisa ser visto pelos diversos canais através de uma visão única e confiável, não importando o processo de negócio onde ele esteja acessando a organização. Cabe ao cliente decidir qual o melhor canal para se relacionar com a empresa. A conveniência é uma escolha do cliente, ele é que escolhe por onde irá acessar a organização, seja por uma central de atendimento, portal web, loja física, terminal de autoatendimento, etc.

Empresas que negligenciam a conveniência e ainda insistem em possuir bases sem qualidade e não consolidadas estão fadadas ao fracasso. Atualmente, situações antes comuns como, por exemplo, receber correspondências com diferentes nomes e endereços, campanhas de ofertas de produtos já adquiridos pelo cliente ou fora do perfil de consumo não são mais ignoradas pelos consumidores, tornando cada vez mais baixa a credibilidade da empresa perante aos mesmos.

Neste caso, a vantagem competitiva não é ter produtos mais baratos ou competitivos e sim, quão eficaz é o relacionamento e a comunicação com o cliente. Se a empresa conhece bem o seu cliente, certamente, estará à frente de alguns competidores.

Os dados dos Clientes devem ser encarados como estratégicos. Logo a adoção de uma solução MDM deve acompanhar esta premissa.

Infelizmente, algumas empresas ainda tratam a gestão dos dados dos clientes de forma arcaica. Procuram resolver essas questões através do desenvolvimento de soluções caseiras para manter e chancelar seus dados mestres, sem considerar aspectos de governança e arquitetura. Como consequência, encontramos soluções vulneráveis a falhas, não escaláveis, envolvendo profissionais além do necessário e limitadas a visão de uma ou duas gerências da TI. São os famosos “Cadastros de Pessoas” que geralmente, se tornam legados problemáticos, logo após suas implementações.

Por outro lado, de forma inteligente, a adoção de um software de MDM, alinhado com iniciativas para governança e qualidade dos dados, reduz consideravelmente os riscos e os esforços em relação a adoção de uma solução caseira. Atualmente existem soluções de mercado e consultorias especializadas para todos os bolsos e necessidades.

Uma solução de MDM para clientes traz para as organizações a possibilidade de igualar, consolidar e unificar os conceitos dos dados mestres dos Clientes da empresa, trazendo para o negócio às informações certas na hora certa.

Autoria: Bergson Lopes

 

A análise biométrica de voz e o combate contra a engenharia social

Tecnologia permite uma rápida autenticação dos clientes, melhorando a experiência, reduzindo as fraudes e os custos operacionais

Se você acha que a central de atendimento da sua empresa ainda não foi vítima de ataques de roubo de identidade e engenharia social, recomendo verificar o quanto antes porque é bem provável que estejam acontecendo com grande frequência.

A engenharia social é um ataque de interação humana em que o fraudador utiliza habilidades sociais e psicológicas para manipular o agente do call center com o intuito de obter informações pessoais e confidenciais.

Esses falsificadores são criminosos profissionais e especializados que realizam repetidas tentativas até encontrar um funcionário menos preparado ou uma brecha sistêmica. São poucos fraudadores responsáveis pela grande maioria dos ataques. Os call centers são o alvo constante de ataques de roubo de identidade e invasão de conta e essa prática têm crescido diariamente.

Os criminosos estão se aproveitando das metas agressivas de redução de custos operacionais, como resolução de chamados no primeiro contato, redução do tempo médio das chamadas, diminuição do quadro de agentes e, consequentemente, maior volume de atendimentos por dia, para driblar os agentes do call center e conseguir dados confidenciais dos clientes, como e-mail, telefone, endereço, número do cartão de crédito etc. Por outro lado, não devemos culpar os atendentes. Afinal, eles trabalham para cumprir as metas e são avaliados com base nelas.

Esse fenômeno é crescente e os executivos de diversas empresas avaliaram esse tipo de fraude como a que mais cresceu nos últimos tempos. Em uma pesquisa realizada no Reino Unido, os clientes classificaram as centrais de relacionamento como inseguras porque mencionaram que a origem dos vazamentos das informações pessoais e, consequentemente das fraudes, seja a vulnerabilidade nos centros de atendimento.

Na tentativa de bloquear os fraudadores, os agentes dos call centers realizam diversas perguntas de segurança aos clientes, que impactam negativamente no nível de satisfação e experiência dos usuários, aumentando o tempo médio das chamadas em mais de 60 segundos e, assim, elevando os custos.

O Forest Research divulgou um relatório mencionando tal problema e sugere que os call centers não deveriam somente contar com senhas básicas ou perguntas de segurança, mas utilizar a tecnologia de Biometria de Voz como uma opção eficiente e viável para autenticação dos clientes e prevenção a fraudes.

Essa solução de análise biométrica de voz permite uma rápida autenticação dos clientes, melhorando a experiência, reduzindo as fraudes e os custos operacionais.

voiceprint

O processo de cadastramento das vozes é simples, de forma imperceptível, e acontece em tempo real. A cada chamada realizada, é possível extrair o “voice print” (impressão da voz) de cada cliente, permitindo a criação de uma biblioteca de marcas vocais que poderão ser comparadas com as chamadas subsequentes.

A comparação das marcas vocais acontece automaticamente, de forma rápida e transparente durante a conversa, sem requerer a memorização de frases ou senhas e sem a necessidade da realização das diversas perguntas de segurança. É um processo extremamente preciso na verificação de que o cliente é realmente quem ele diz ser e, em caso negativo, é possível armazenar a marca vocal do fraudador em uma “black list” prevenindo futuros ataques recorrentes. Também é possível o compartilhamento dessa lista entre as empresas como uma forma eficiente de defesa contra esse tipo de fraude.

Com a implantação da tecnologia de análise biométrica de voz, o número de ataques nas centrais de atendimento cai significativamente. Dessa forma, essa tecnologia endereça quatro grades desafios antagônicos: autenticar os clientes de forma rápida e segura, melhorar a experiência dos usuários, reduzir custos operacionais e, concomitantemente, atuar na prevenção às fraudes.

 Autoria: Ronaldo Stanzione

Não caia na tentação de desistir do Digital

Trabalhe para superar a cultura dominante nas organizações, que ainda entendem que o conhecimento legado é o mais importante

Há pouco mais de um ano, o CEO da empresa onde eu trabalho me presenteou com uma imersão no universo digital, momento que me deparei com o potencial incrível do IoT, da revolução dos dados e todos estes temas que vocês estão “cansados de ouvir”. Nas minhas responsabilidades anteriores, e na minha vida pessoal, já conseguia perceber esta transformação, mas ainda de forma superficial, só a pontinha do iceberg, sem ainda ter a visão do mundo no qual viveremos em 2020. Na operadora de Telecom onde trabalhei, lembro, com orgulho, que já estava convicta que era possível prever o contato dos clientes para os próximos dias, e até quantos seriam, e de quais regiões receberíamos as reclamações em órgãos de defesa do consumidor.

Uma recente pesquisa do Gartner (2017 CEO Survey: Latin America CEOs Chart a Course Away From Digital) com CEOs da América Latina, apontou que, apesar de um forte direcionamento em 2016 na adoção dos Negócios Digitais, em 2017 se observa que estes líderes estão mudando de volta em direção ao business as usual, e no caso do Brasil muito associado ao cenário político-econômico atual instável.

Isto é incrível! E vale a pena refletir sobre isso. Seria como os índios não acreditassem que as caravelas estavam chegando na costa, apesar de estarem vendo, ouvindo e iniciando os primeiros contatos. Ou parecido  com resolver voltar para casa em pleno voo. E o cenário político-econômico do Brasil, não seria justamente a motivação para acelerar esta transformação?

Esta reflexão me fez chegar em algumas possíveis causas desta insustentável vontade de desistir do digital:

1 – Esgotamento pelo Fanatismo Digital
Fanatismo (do francês “fanatisme“) é o estado psicológico de fervor excessivo, irracional e persistente por qualquer coisa ou tema, historicamente associado a motivações de natureza religiosa ou política. É extremamente frequente em paranoides, cuja apaixonada adesão a uma causa pode avizinhar-se do delírio.

O Digital se tornou quase um talismã de sucesso e independente do estágio de implantação de cada empresa se estabeleceu tacitamente que, ou você associa a sua marca a transformação digital, ou você vai fracassar na próxima semana amargando a debandada de todos os seus clientes. Muitas consultorias criaram as suas unidades digitais e se aproximaram das startups antes mesmo de definir uma estratégia, um diferencial real, uma forma legítima de apoiar seus clientes, um valor agregado para chamar de seu.

E esta overdose de fanatismo sobre o digital começou a cansar os executivos, antes mesmo dos primeiros resultados relevantes começarem a acontecer, antes mesmo de conseguirem se beneficiar das novas tecnologias que, sim, já são realidade, já estão disponíveis e já estão alcançando a viabilidade de custo que será a propulsão para a revolução digital da sociedade de forma exponencial.

digital

2 – Diferentes approaches, qual é a verdade?
O Digital é abordado de diferentes formas e, na minha opinião, todas são verdadeiras e extremamente complementares, mas confundem mesmo.

Por um lado a questão antropológica, a transformação do ser humano  e da sociedade em direção a um mundo mais conectado e colaborativo. As pessoas de áreas mais exatas costumam não gostar muito desta abordagem, acham fluffy demais e sem objetividade. Mas este é o início de tudo, é a essência da necessidade dos clientes, é a observação do que está acontecendo com o ser humano, é o tão fundamental e dificílimo olhar de fora para dentro das organizações.

Outra abordagem é a tecnológica, que afirma que o digital é sinônimo de Big Data, Analytcs, Location Inteligente, IOT, Machine Learning…; que estas tecnologias precisam ser utilizadas urgentemente e conseguirão transformar suas empresas como um passe de mágica, é só comprar!

Existe também a abordagem da inovação, de um novo método de trabalho, mais inteligente, ágil, com menos burocracia e mais confiança, parceria, informalidade e amizade no ambiente de trabalho. A necessidade em proporcionar o ambiente correto, mais lúdico, para as pessoas criarem, de forma colaborativa, multi skillmulti area, “multitudo”.

E em paralelo já se fala na nova transformação digital, robôs, comunicação com as máquinas, extinção de diversas profissões, o início de uma nova era somente para os adaptáveis. Esta realidade gera admiração em alguns e repulsa em outros. Gera ansiedade naqueles que ainda estão tentando surfar a primeira onda.
Diferentes abordagens devem ser utilizadas com diferentes pessoas, em diferentes situações. Todas juntas cansam mesmo e geram a inconsistente dúvida “qual é a verdade?” e a busca pela resposta incorreta, mas  confortável,  “nenhuma, o digital é um modismo que vai passar”. Não vai!

change

3 – Dificuldade que gera resistência
A dificuldade começa pela ruptura da cultura dominante nas organizações, que ainda (em diferentes graus) entendem que o conhecimento legado é o mais importante, que compartilhar informações é perder poder, que apesar de todas as lições trazidas pelas crises, ainda focam no emprego e não na empregabilidade. Líderes que não têm tempo para as pessoas, especialistas que atualizam apresentações semanais sistematicamente e analistas que consolidam dados.
OK, mesmo uma apaixonada pelo digital como eu, não conseguiria dizer que a transformação digital é simples de entender e de implementar, mas não é uma opção e você vai fazer parte, a escolha é em que local você estará nesta nova realidade. No campo, no banco de reserva, na arquibancada ou somente vendo pela TV?
A cultura precisa mudar e isso vem de cima, as pessoas precisam de tempo: tempo para estudar como o digital pode transformar seus processos de negócio, tempo para pensar, inovar, errar, tempo que só pode ser viável se a primeira lição de casa pré-digital já foi feita, a automação e otimização de seus processos….. Se a sua área, se a sua empresa precisa dos seus funcionários operando seus processos all the time e no tempo que sobra tentam ter ideias inovadoras, esquece, não vai acontecer. E nem isso seria motivo para retornar ao business as usual.
Quando a pressão do c-level é forte em alguma direção e os líderes não estão conseguindo extrair os resultados esperados em suas estruturas, a grande tentação é negar a novidade e retornar a antiga forma de fazer as coisas, mas essa estratégia retarda a companhia e não encontra soluções frente as dificuldades de uma revolução como o digital, que deixou o mundo ainda mais competitivo.
Firmeza de propósito e extrema resiliência é o que se espera dos executivos, estes responsáveis por conduzir as empresas por caminhos rentáveis e sustentáveis, a curto, médio e longo prazo.
Conclusão? 
Não desistir,  entender profundamente a revolução dos dados, utilizar o seu conhecimento para governar os dados até a expectativa dos seus clientes, ter a humildade e a coragem para aprender novas formas de analisar seus processos de negócio. Talvez o seu negócio nem seja mais o mesmo e você não pode ser o último a saber disso.
O nosso valor atualmente está na capacidade de observar e de aprender coisas novas,  e não no peso da nossa mochila de conhecimento que levamos nas costas. Isto não é tão cruel quanto parece. Todo o conhecimento adquirido não é importante por si, o que importa é o quão flexível e “inteligente” este caminho te deixou.
Seja pelo viés antropológico, tecnológico, de inovação ou por competitividade…..não desista.
Autoria: Flávia Pollo Nassif

 

A grande ameaça à segurança cibernética pode ser você

Os funcionários são o ponto mais fraco da segurança cibernética

Importante para qualquer tipo de empresa, a segurança cibernética é particularmente fundamental em companhias abertas. Sem que existam critérios e ferramentas que garantam a segurança de seus dados, esse tipo de corporação fica exposta a eventos dos mais variados tipos, desde a manipulação de seus dados financeiros ao vazamento de informações privilegiadas que podem afetar significativamente o desempenho de suas ações ou implicar em problemas legais e punições de órgãos reguladores.

A proteção necessária não é estabelecida apenas por meio da adoção de recursos tecnológicos. Um fator-chave na segurança cibernética é o comportamento de funcionários e colaboradores, o qual deve ser adequado por meio de regras e treinamentos. O mau uso da web, geralmente resultado de ingenuidade, é a principal via usada por criminosos que violam dados de empresas.

Principalmente em companhias abertas, os princípios de governança corporativa devem passar por todas as áreas. A de TI, além de fundamental para a execução de quaisquer atividades, é uma daquelas em que a adoção dessas regras se faz mais imprescindível. Se a tecnologia integra áreas essenciais à vida das sociedades modernas, uma fraude pode resultar num impacto igual ou até mais significativo que o seu benefício.

Os crimes cibernéticos mais comuns visam ganhos financeiros. Em geral, essas violações são realizadas por organizações criminosas que se tornam cada vez mais sofisticadas, tanto no que se refere aos crimes praticados quanto às formas que desenvolvem para não serem localizadas. A praga cibernética mais em voga  atualmente é o sequestro de informações, também conhecido como ransomware. Sua execução parte de uma isca, como um e-mail ou um link em alguma página, o qual contém um cavalo de tróia, que, ao se instalar no PC, sequestra todos os dados que estão ao seu alcance, criptografando-os no próprio computador ou em toda a rede.

A partir daí, o usuário não consegue mais acessar suas informações e, no caso do ataque ter se proliferado por toda rede, ninguém conseguirá acessar coisa alguma. Para liberar as informações, os criminosos cobram valores em dinheiro, que, geralmente, devem ser pagos na moeda virtual bitcoin. Dessa forma, torna-se impossível rastrear o destino dos resgates pagos pelas vítimas ou mesmo localizar seus algozes.

Além da adoção de um backup externo, a defesa contra ataques cibernéticos demanda a adoção de boas práticas quanto aos acessos dos funcionários. Os softwares de antivírus não conseguem defender sozinhos o computador sem que as pessoas não o façam também. Embora cada vez mais sofisticados, os ataques buscam vulnerabilidades de ferramentas e, principalmente, brechas deixadas por usuários. Senhas baseadas em dados pessoais são um exemplo, já que, a partir de informações obtidas com o uso de robôs que vasculham redes sociais, como Facebook e Linkedin, hackers podem facilmente decifrá-las.

segurança

Além disso, nas redes sociais, pessoas expõem seus objetivos e, dessa forma, passam a receber spams relacionados, entre outros, às viagens que planejam fazer. Neles, chegam as iscas mais comuns, as quais direcionam para malwares, vírus, ransomware e outros. Há também o hábito comum de se usar a mesma senha para vários acessos. Basta que uma seja violada e a exposição será generalizada. Os funcionários precisam ser bem treinados e até se tornarem um pouco paranoicos neste sentido.

Outra prática temerária é transitar fora da empresa com dados – muitos deles importantes – levando-os em tablets, celulares ou notebook. Tais dispositivos requerem senhas fortes, com caracteres especiais, a fim de que impeçam seu uso após eventuais roubos ou furtos. Hoje, algumas empresas permitem que os colaboradores levem seu próprio dispositivo (computador, tablet, celular) para o trabalho, sistema conhecido como Bring Your Own Device (BYOD).

Para se evitar riscos, além de contar com uma rede forte que detecte se há ameaças nestes dispositivos, todos devem ser orientados quanto à adoção de senhas sofisticadas e sobre a necessidade de substituí-las regularmente.

Os funcionários são o ponto mais fraco da segurança cibernética. Estar atento à forma como atuam é essencial para manter a reputação da companhia, seja junto ao mercado financeiro ou perante qualquer um de seus stakeholders.

 Autoria: Éder Elias Reinhart

 

15 tendências de análise de dados que dominarão 2017

Hoje a maioria das empresas já possui os dados que necessitavam para trabalhar. O desafio agora é gerar real valor dessa informação

Junto com Social, Mobile e Cloud, Analytics e tecnologias associadas a Big Data ganharam lugar entre os principais diruptores da Era Digital. 2016 viu as tecnologias de Big Data cada vez mais alavancadas para impulsionar a inteligência de negócios. Veja o que 2017 mantém no radar da análise de dados.

John Schroeder, presidente executivo e fundador da MapR Technologies , prevê que as seguintes tendências dominarão dados e Analytics este ano:

1- A inteligência Artificial (IA) está de volta.
Na década de 1960, Ray Solomonoff lançou as bases de uma teoria matemática da IA, introduzindo métodos bayesianos universais para a inferência indutiva e a análise preditiva. Em 1980, a Primeira Conferência Nacional da Associação Americana de Inteligência Artificial (AAAI) foi realizada em Stanford e marcou a aplicação de teorias em software. AI está de volta em discussões mainstream e buzzword guarda-chuva para a inteligência de máquina, aprendizagem de máquina, redes neurais e computação cognitiva.

Por que a AI é uma tendência rejuvenescida? Schroeder aponta para os três Vs usados ​​frequentemente para definir Big Data: Velocidade, Variedade e Volume.

Plataformas que podem processar os três Vs com modelos de processamento modernos e tradicionais, que escalam horizontalmente, fornecem 10-20X eficiência de custo em relação às plataformas tradicionais, diz ele.

O Google documentou como algoritmos simples, executados freqüentemente contra grandes conjuntos de dados, produzem melhores resultados do que outras abordagens usando conjuntos menores.

Schroeder diz que veremos o valor mais alto da aplicação de IA para tarefas repetitivas de alto volume, onde a consistência é mais eficaz do que o ganho da  supervisão intuitiva humana à custa do erro humano e do custo.

2 – Big Data para governança ou vantagem competitiva.
Em 2017, o conflito de governança versus valor de dados será mandatório, diz Schroeder. As empresas têm riqueza de informações sobre seus clientes e parceiros. As principais organizações gerenciarão seus dados entre casos de uso regulamentados e não-regulamentados. Os dados de casos de uso regulamentados exigem governança; qualidade e linhagem para que um órgão regulador possa relatar e rastrear dados através de todas as transformações até à fonte de origem.

Schroeder diz que isto é obrigatório e necessário.

3 – As empresas se concentram em aplicativos orientados a negócios para evitar que as lagoas de dados se tornem pântanos.
Em 2017, as organizações passarão da abordagem de “construa e virão” para uma abordagem de dados orientada a negócios, diz Schroeder.

O mundo de hoje requer capacidades analíticas e operacionais para atender clientes, processar reivindicações e interface para dispositivos em tempo real em um nível individual.

Por exemplo, qualquer site de comércio eletrônico deve fornecer recomendações individualizadas e verificações de preços em tempo real. As organizações de saúde devem processar reivindicações válidas e bloquear reivindicações fraudulentas, combinando análises com sistemas operacionais. As empresas de mídia devem personalizar cada vez mais o conteúdo veiculado por set top boxes. Os fabricantes de automóveis e empresas de compartilhamento de trajeto estão interoperando em escala com carros e motoristas.

Suportar esses casos de uso requer uma plataforma ágil capaz de fornecer processamento analítico e operacional para aumentar o valor de casos de uso adicionais que vão de análise de back office para operações de front office.

Em 2017, diz Schroeder, as organizações empurrarão agressivamente o uso de dados para além de uma abordagem de “perguntas”. O objetivo será impulsionar o valor comercial inicial e de longo prazo.

4 – Agilidade de dados separa vencedores e perdedores.
Desenvolvimento de software tornou-se ágil onde DevOps fornece entrega contínua, diz Schroeder.
Em 2017, os modelos de processamento e de análise de dados evoluirão para proporcionar um nível de agilidade semelhante à medida em que as organizações percebem que a agilidade dos dados, a capacidade de entender os dados no contexto e de tomarem medidas empresariais é a fonte de vantagem competitiva.

O surgimento de modelos de processamento ágil permitirá que a mesma instância de dados suporte análise de lote, análise interativa, mensagens globais, banco de dados e modelos baseados em arquivos, diz ele. Modelos analíticos mais ágeis também são ativados quando uma única instância de dados pode suportar um conjunto mais amplo de ferramentas. O resultado final é uma plataforma ágil de desenvolvimento e aplicação que suporta a mais ampla gama de modelos analíticos e de processamento.

5 – Blockchain transformando aplicativos de serviços financeiros.
Em 2017, haverá casos de uso seletivos e transformacionais em serviços financeiros que surgem com amplas implicações na forma como os dados são armazenados e as transações processadas, afirma Schroeder.

O Blockchain fornece um ledger global distribuído que altera a maneira como os dados são armazenados e as transações são processadas. É executado em computadores distribuídos em todo o mundo onde as cadeias podem ser visualizadas por qualquer pessoa. As transações são armazenadas em blocos onde cada bloco se refere ao bloco anterior. Esses blocos recebem um carimbo de tempo armazenando os dados são criptografados, de modo que o conteúdo dos blocos não pode ser alterado. Hackers acham que é teoricamente impossível cortar o Blockchain desde que o mundo tenha visão de todo o Blockchain.

Portanto, o Blockchain fornece óbvia eficiência para os consumidores. Por exemplo, os clientes não terão que esperar por essa transação SWIFT ou se preocupar com o impacto de um vazamento de datacenter central. Já para as empresas, Blockchain apresenta uma economia de custos e oportunidades de vantagem competitiva, diz Schroeder.

6 – A aprendizagem mecânica maximiza o impacto dos microserviços.
Este ano, veremos aumento de integração da aprendizagem de máquinas com os microservices, diz Schroeder.
Anteriormente, implantações de microserviços  foram focadas em serviços leves e aqueles que incorporam a aprendizagem da máquina têm sido tipicamente limitados a integrações de “dados rápidos”, de fluxo contínuo. Em 2017, veremos mudança de desenvolvimento para aplicações que alavanquem Big Data e a incorporação de abordagens de aprendizado de máquina que usem grandes quantidades de dados históricos para entender melhor o contexto de dados de fluxo contínuo.

previsaodados

Já o pessoal da Hortonworks, fornecedor de distribuição da Hadoop, dizem que:

7 – As redes inteligentes levarão ao surgimento de nuvens de dados.
Como as conexões continuam a evoluir graças à Internet  das Coisas e à conectividade máquina a máquina, silos de dados serão substituídos por nuvens de dados.

8 – Análise e aprendizagem de máquina, em tempo real, na borda da rede.
Os dispositivos inteligentes colaborarão e analisarão o que um outro está dizendo, afirma a Hortonworks.
Algoritmos de aprendizado de máquina em tempo real dentro de aplicações de dados distribuídos entrarão em jogo – algoritmos que são capazes de auxiliar decisões ‘peer-to-peer’ em tempo real.

9 – Mais análises preventivas: do pós-evento à análise e ação em tempo real.
Vamos começar a ver um movimento de pós-evento e tempo real para a análise preventiva que pode conduzir as transações em vez de apenas modificá-las ou otimizá-las, diz o pessoal da Hortonworks. Isso terá um impacto transformador na capacidade de um negócio centrado em dados para identificar novos fluxos de receita, economizar custos e melhorar a intimidade de seus clientes.

10 – Ubiquidade de aplicativos de dados conectados.
Para que as empresas tenham sucesso com dados, aplicativos e dados precisam ser conectados através de uma plataforma ou framework. Esta é a base para a moderna aplicação de dados em 2017.

As modernas aplicações de dados são altamente portáteis, contentorizadas e ligadas. Eles substituirão rapidamente o software monolítico, verticalmente integrado.

11 – Os dados serão produto de todos.
Os dados se tornarão um produto com valor para comprar, vender ou perder, dizem os analistas da Hortonworks.
Haverá novos caminhos, novos modelos de negócios e novas empresas olhando sobre como monetizar esse ativo.

Já o pessoal da DataStax , que desenvolve e suporta uma versão comercial do banco de dados open source Apache Cassandra NoSQL, prevê:

12- O surgimento do engenheiro de dados.
O termo “cientista de dados” se tornará menos relevante e será substituído por “engenheiros de dados”, diz a DataStax.

Os cientistas de dados se concentram em aplicar dados científicos e resultados analíticos a questões críticas de negócios. Engenheiros de dados, por outro lado, vão projetar, construir e gerenciar grandes infraestrutura de dados. Eles se concentrarão na arquitetura e em manter os sistemas funcionando.

13 – Segurança: O crescimento da IoT levará a linhas desfocadas.
O crescimento da IoT tem sido largamente desmarcado, diz DataStax.
Com a falta de padrões e uma explosão de dados, não está completamente claro quem será  responsável por garantir o que. Hoje, os ISPs estão em risco, e os veremos adotar um papel principal na conversação da segurança.

14 – Vantagens híbridas, graças a certas aplicações empresariais de nuvem.
Está ficando claro que muitas grandes organizações que construíram seus bancos de dados em plataformas legadas preferem retirar os dentes do que mudar, diz DataStax. As arquiteturas de dados híbridas que abrangem bancos de dados legados, mas permitem que as organizações aproveitem os aplicativos em nuvem, serão um foco importante para essas organizações.

15 – Corte de laços graças às arquiteturas sem servidor.
O pessoal da DataStax acredita que a migração para arquiteturas sem servidor – aplicativos que dependem de aplicativos ou serviços de terceiros na nuvem para gerenciar a lógica e o estado do servidor, ou que são executados em contêineres de computação e são acionadores de eventos. A adoção de arquiteturas sem servidor terá um impacto generalizado sobre como os aplicativos são implantados e gerenciados.

Blockchain: Será impossível ficar de fora dessa tendência

Se o uso intenso ainda não é uma realidade no mercado em geral, já é um dos itens mais importantes na agenda de inovação das empresas que estão buscando a digitalização dos seus negócios 

De forma cíclica e recorrente, sempre estamos diante de alguma revolução. Novas maneiras de relacionamento com pessoas, famílias, empresas e governos são apresentadas, com a promessa de mudar tudo e nos colocar num patamar mais elevado do desenvolvimento humano e social. Algumas tecnologias recentes nos afastaram, mas já existe uma nova que promete nos reaproximar. Sim, estou falando de Blockchain.

O Blockchain se configura como uma rede ponto a ponto, em que os próprios usuários se encarregam de garantir a autenticidade de todas as transações ocorridas dentro de um contexto. A conversa é direta, ainda que por meio de algum dispositivo, com o detentor do bem, serviço ou direito do seu interesse.

Com o apoio de um processo de criptografia muito avançado, complexo e praticamente impossível de ser quebrado, o Blockchain monta uma base de dados no formato de um livro fiscal, criando registros públicos permanentes, imutáveis e invioláveis com o devido controle de acesso. Como está distribuída, replicada em vários locais e por uma vasta rede de usuários, a tecnologia é tão disponível quanto a Internet.

Muitos grupos que usam o Blockchain ainda guardam características de comunidades em razão do caráter revolucionário da tecnologia e de seu início disruptivo, principalmente no mercado financeiro, alavancado pela crise de confiança a partir de 2008. Contudo, as grandes corporações de tecnologia e especialmente as financeiras abraçaram fortemente a ideia e têm jogado luz sobre esse assunto, de forma a incrementar o potencial de adoção maciça em um espaço de tempo razoavelmente curto em se tratando de uma inovação com esse poder de transformação.

Os bancos, que inicialmente seriam os principais alvos da desintermediação gerada pelo Blockchain, poderão se tornar os maiores beneficiados dessa tecnologia com a redução do custo das transações. Estudos patrocinados pelas maiores instituições financeiras do mundo demonstraram que a economia pode ultrapassar – e muito – a casa dos bilhões de dólares.

De um lado, existem aqueles que afirmam que o Blockchain veio para mudar o mundo pela transformação no modo como as pessoas passaram a fazer negócios. De outro, grandes organizações vêm afirmando que a tecnologia é uma inovação incremental, ou seja, na maioria das vezes, não irá criar novos negócios, mas mudará a maneira como os já existentes são feitos.

blockchain

A história recente mostra que as novidades baseadas em tecnologia, quando ganham escala global, acabam nas mãos de companhias multinacionais ou criam novos gigantes no mercado. Essa é a lei. A rigor, ninguém está longe do assunto. Além das ações relacionadas ao Blockchain público, existem projetos globais para criação de iniciativas privadas, por meio de consórcios, destacando-se o Hyperledger, liderado pelas empresas de tecnologia, e o R3, de instituições financeiras. Este último conta com a participação de companhias brasileiras que, além das suas próprias iniciativas internas, têm projetos em andamento dentro dos consórcios. Vale dizer que Hyperledger e R3 trabalham de forma cooperada.

Se o uso intenso de Blockchain ainda não é uma realidade no mercado em geral, já é um dos itens mais importantes na agenda de inovação das empresas que estão buscando a digitalização dos seus negócios e serviços. Todas as partes relevantes nesse contexto estão se manifestando na direção de viabilizar a adoção das soluções baseadas nessa tecnologia, porque, entre outras coisas, Blockchain é uma nova forma de governança, que se sustenta por um modelo de confiança entre os participantes da rede, o que por si só já é uma grande mudança de paradigma.

Então, ainda que não seja o único, o Blockchain é sim um dos assuntos que precisam ser tratados hoje. Será impossível ficar de fora dessa tendência. O mercado financeiro, especialmente o brasileiro, que é muito regulado, poderá demorar um pouco mais para aderir em larga escala, mas o grau de atratividade é muito alto. Vale ressaltar que essa tecnologia será usada inicialmente no formato privado e futuramente expandida para uma rede pública. Tudo no seu devido tempo.

Para as aplicações em geral, principalmente as que envolvem serviços, a adoção deverá ser gradativa, porém rápida, com novidades a cada instante, tão ou mais acelerada que o surgimento e a proliferação dos aplicativos móveis. Os contratos inteligentes, baseados em Blockchain, associados a soluções de IoT, poderão provocar a revolução e nos levar a um mundo ainda mais moderno, com atendimento muito mais ágil, assertivo e seguro.

Autoria: Jacinto Carlos

Mobilidade: oito providências para proteger dados e dispositivos

Uma abordagem prudente e aconselhável é aplicar uma combinação de técnicas em todos os três níveis para manter os dados seguros 

A nova regulação da União Europeia responsabiliza qualquer empresa ou indivíduo pela proteção dos dados guardados do usuário, incluindo terceiros, tais como fornecedores de serviços em nuvem. Enquanto espera-se que seja implementada em 2017, vários países estão saindo na frente e já estão emitindo seus próprios regulamentos.

A Federal German Data Protection Act, por sua vez, também aprovou diretrizes sobre como os dados da empresa devem ser armazenados, utilizados ??e acessados ??a partir de dispositivos privados. Como os dispositivos móveis são muito vulneráveis, adotar uma única abordagem de segurança não é o suficiente.

Especialistas discutem se estas medidas devem ser aplicadas no nível do dispositivo, do aplicativo ou dos dados, mas, no entanto, uma abordagem prudente e aconselhável é aplicar uma combinação de técnicas em todos os três níveis para manter os dados seguros.

Aqui incluímos oito procedimentos para manter seus dados móveis corporativos seguros:

1 – Autenticação multifator – O uso de uma combinação entre nome de usuário e senha é considerado uma autenticação de um único fator e não é suficientemente forte. A autenticação de múltiplos fatores envolve três fatores comuns de autenticação: algo que você sabe (por exemplo, senha, PIN), algo que você tem (por exemplo, cartão inteligente, certificado digital), e algo que você é (por exemplo, impressão digital, padrão de retina).

2 – Direitos de usuário baseados no tempo e na  localização – Podem ser definidos com base no dia da semana, ou na hora baseada em horários de trabalho estabelecidos. Quanto mais específicas forem as autorizações de segurança menor será a probabilidade de que um hacker obtenha acesso. E nos casos em que ocorre uma invasão, o dano pode ser limitado. As autorizações de usuário devem variar dependendo de onde os dados aparecem. Por exemplo, um vendedor pode ter permissão para editar a descrição do produto em uma fatura para seu cliente, mas não em um catálogo de produtos online usado por todos os funcionários.

3 – Criação de um repositório de apps – Os repositórios de aplicativos aprimoram significativamente a segurança ao criar um espaço de trabalho corporativo no dispositivo móvel, independentemente de ser de propriedade da empresa ou do funcionário, e para todas as plataformas móveis suportadas. Os usuários autorizados obtêm acesso aos dados e aplicativos corporativos com segurança empresarial e integração profunda com o gerenciamento de direitos de usuário, incluindo as tecnologias de autenticação de usuários incorporadas.

4 – Criptografia para dados em stand-by e dados em trânsito – Os aplicativos off-line geralmente armazenam os dados necessários no dispositivo, deixando informações em stand-by expostas a invasores. Criptografar esses dados pode minimizar o risco. Pessoas mal-intencionadas podem interceptar e monitorar dados expostos através da Internet. Ao proteger a transmissão online de dados, recomenda-se usar mais de um tipo de algoritmo de criptografia. A criptografia simétrica é rápida e fácil de usar e consome muito pouco processador, enquanto a criptografia assimétrica é computacionalmente muito mais cara e, no entanto, mais lenta. Ao combinar o uso de criptografia assimétrica para criptografar a chave e enviá-la ao longo das extremidades e, então, descriptografar o resto dos dados usando a eficiência de chaves simétricas rápidas e fáceis, os níveis de alta segurança são alcançados.

cripto

5 – Implementação do Gerenciamento de Dispositivos Móveis (MDM) – Uma plataforma de MDM protege a entrega e o acesso ao conteúdo corporativo; define e reforça a política de TI; aplica limites geográficos virtuais para dispositivos; e aproveita poderosos recursos de autenticação, gerenciamento de certificados e criptografia de dados. Os recursos de monitoramento de uma solução MDM geralmente incluem monitoramento remoto, relatórios de uso e recursos que permitem rastrear e relatar qualquer parâmetro do dispositivo em tempo real e obter informações analíticas úteis sobre o uso de dispositivos móveis em toda a empresa.

O MDM possibilita o controle de dispositivos corporativos habilitados como pessoais (COPE) e dispositivos Bring Your Own Device (BYOD). Por esse motivo, o MDM precisa ser multi-plataforma. Devido à diversidade de fabricantes no mercado Android, uma solução MDM deve suportar a interoperabilidade entre fabricantes.

6 – Implementação do Gerenciamento de Aplicativos Móveis (MAM) – O recurso capacita os administradores de TI a distribuir, atualizar, gerenciar e proteger aplicativos em celulares e smartphones compartilhados, pessoais e corporativos. Um console centralizado permite gerenciar o ciclo de vida de implantação dos aplicativos no ambiente corporativo, de ponta a ponta. Os administradores podem definir políticas de privacidade e segurança com base em configurações de direitos de grupo e individuais, autenticar o acesso e impor conformidade. O MAM também permite habilitar, desativar ou restringir aplicativos de acordo com as políticas de segurança.

7 – Proteção contra vírus e ameaças – Em julho de 2014, o chefe de segurança do Google afirmou que os efeitos do malware do Android são exagerados, e que a maioria dos usuários não deve se preocupar com ele e que 99% dos usuários não se prejudicarão por ele. Em agosto de 2015 foi noticiada a  vulnerabilidade Stagefright, que permite a propagação de malware através de MMS (multimedia messaging service) não abertos no Android. Isso levou o chefe de segurança do Google a anunciar que a empresa estava providenciando a maior atualização de software coordenada da história para solucionar esses problemas de segurança.

O Android não possui autenticação de aplicativo de nível de firmware, permitindo que ocorram táticas como colisão de hash, falsificação de certificado e abuso de comunicação entre processos. Mesmo que o Google alegue que o malware no Android não seja eficaz, a maioria dos gerentes de segurança de TI ainda irão querer tomar medidas para proteger a rede contra o malware Android, mesmo se os vírus próprios possam ser raros. As soluções MDM e MAM devem instalar proteção contra malware no dispositivo que verifica e monitora o sistema de arquivos do dispositivo e os aplicativos instalados para detectar malware e vírus conhecidos. Se encontrado, o software precisa colocar em quarentena os aplicativos e arquivos infectados ou mal-intencionados no dispositivo. Os recursos básicos devem incluir a capacidade de agendar a verificação de antivírus, fazer download de atualizações de definições de vírus, configurar “listas brancas” de antivírus e executar o gerenciamento de quarentena.

8 – Exercício de procedimentos de segurança na Web – Em 2014, o tráfego global de dados móveis totalizava 2,5 exabytes por mês. No entanto, apenas cerca de 6,1% de todo o tráfego da Internet é criptografado. Em média, quase 94% de todos os dados da Internet estão expostos em trânsito! Os procedimentos de segurança para a manutenção de um servidor Web são uma parte importante da sua estratégia global de segurança móvel. Os protocolos de segurança da Web, como Secure Socket Layers (SSL) e TLS (Transport Layer Security), ajudarão a proteger os servidores e usuários móveis. Os administradores de servidores Web em suporte a sistemas móveis precisam manter os sistemas operacionais e os servidores Web atualizados com os patches e atualizações mais recentes do fabricante. Monitorar e ler todos os alertas de segurança do fornecedor e seguir as práticas recomendadas ao configurar sistemas. É recomendável ativar somente os serviços e aplicativos necessários e desativar os serviços não utilizados, remover contas mestre e contas super-administradoras desnecessárias, além de manter os direitos do usuário atualizados com base em privilégios mínimos.

Conclusão
Os dispositivos móveis e o acesso aos sistemas empresariais apresentam novas ameaças e vulnerabilidades que devem ser avaliadas adequadamente para salvaguardar ativos valiosos da empresa. Ao combinar esses oito importantes procedimentos de segurança com um plano detalhado e procedimentos padrões, as empresas podem proteger a mobilidade empresarial e cumprir as normas de segurança.

Autoria: Stephan Romper

 

Visualização de dados: Ciência, arte ou ambos?

A maneira como as informações são apresentadas determina o sucesso ou insucesso do uso de ferramentas como o BI

Vivemos em um mundo visual e veloz. Captar a atenção das pessoas é um desafio mesmo quando se trata de uma atividade de trabalho como a análise de dados em um painel de business intelligence (BI). Por isso, a maneira como as informações são apresentadas determina o sucesso ou insucesso do uso da ferramenta.

Há duas tendências distintas quando se pretende transmitir informação de forma visual: data art e data visualization. A primeira, como o próprio nome sugere, está relacionada a uma visualização mais elaborada dos dados, ou seja, um design refinado que tem como principal objetivo proporcionar uma experiência estética, mesmo que para tal, a leitura dos dados possa ser prejudicada. Como exemplo podemos citar uma importante apresentação corporativa cujo apelo visual, com imagens e gráficos que atraem a atenção, precisa envolver os expectadores, criando um ecossistema positivo para a empresa. No data art a palavra-chave é criatividade. Não basta mostrar a informação de maneira organizada, é preciso usá-la como instrumento de persuasão.

Já a outra tendência, data visualization, preza pela clareza na disposição dos dados com o objetivo principal de facilitar a leitura das informações. A abordagem do design não parte da premissa de experiência visual, mas sim do objetivo de transmitir a informação de forma mais natural e rápida possível, sem que objeto de visualização (gráfico, tabela, etc.) seja necessariamente bonito ou visualmente atraente.

Com as exigências cada vez maiores das empresas, não há tempo para o profissional responsável pelas análises se debruçar em gráficos extensos e mais elaborados, apesar de sua estética agradar mais aos olhos. Digo isso porque o data art tem se popularizado, em especial pela maior valorização das equipes de criação nas empresas, além do maior espaço da tendência no mercado artístico.

visualizacao

No Brasil, a tentativa de introduzir objetos de data art à rotina na leitura de painéis de BI é recente e exige cuidados. O encantamento que objetos de análise mais complexos e atraentes pode causar em um primeiro momento transforma-se em um desafio à interpretação das informações, caso os usuários não tenham habilidade suficiente para lidar com esse tipo de objeto.

Ainda estamos em fase de maturação, na qual as empresas estão descobrindo como o data art se encaixa na rotina dos analistas de informação, além de aprenderem que a questão estética muitas vezes pode ser superada pela praticidade de se ter fácil acesso e interpretação aos dados.

De qualquer maneira, o mercado já oferece os dois tipos de experiência às empresas, e cabe a quem está implementando o BI decidir entre as duas abordagens, com base no perfil dos usuários e suas expectativas.

Por fim, minha sugestão é conhecer e testar as novidades de mercado, além das tendências mundiais sobre o tema, mas sem abrir mão das melhores práticas consolidadas. A evolução sempre vem respeitando-se o aprendizado adquirido, sem fechar os olhos para o futuro.

Autoria: Thiago Pessato

 

Malware para Internet das Coisas já consegue apagar dados

Apesar de alguns aparelhos poderem sobreviver ao ataque por usarem partições apenas para leitura, muitos precisarão de um reenvio de firmware

Hackers começaram a adicionar rotinas de limpeza de dados em malwares que são feitos para infectar aparelhos embutidos e de Internet das Coisas (IoT). Dois ataques observados recentemente mostram esse comportamento, mas provavelmente para objetivos diferentes.

Pesquisadores da Palo Alto Networks descobriram um novo malware chamado Amnesia que infecta gravadores de vídeos digitais por meio de um vulnerabilidade existente há um ano. O Amnesia é uma variação de um cliente de botnet para IoT mais antigo chamado Tsunami, mas o que o torna interessante é que tente detectar se está rodando dentro de um ambiente virtualizado.

O malware realiza algumas verificações para determinar se o ambiente Linux em que está rodando é uma máquina virtual baseada em VirtualBox, VMware ou QEMU. Tais ambientes são usados por pesquisadores de segurança para criar sandboxes ou honeypots de análise.

A detecção de máquina virtual existe em programas de malware para Windows há anos, mas essa é a primeira vez que o recurso foi observado em malware criado aparelhos embutidos baseados em Linux. Caso o Amnesia detecte a presença de uma máquina virtual, irá tentar limpar diretórios críticos a partir do sistema de arquivos usando o comando Linux “rm –rf” para destruir qualquer evidência que possa ter sido coletada.

Enquanto isso, os pesquisadores da fornecedora de serviços de segurança Radware descobriram um tipo diferente de malware, direcionado a aparelhos de Internet das Coisas, que eles chamaram de BrickerBot. Esse ataque é lançado a partir roteadores e pontos de acesso wireless comprometidos contra outros aparelhos embutidos baseados em Linux.

O malware tenta fazer a autenticação com combinações comuns de nome de usuário e senha em aparelhos que possuam o serviço Telnet rodando e estejam expostos à Internet. Caso seja bem-sucedido, o ataque então lança uma série de comandos destrutivos com a intenção sobrescrever dados a partir das partições montadas – além de tentar derrubar a conexão com a Internet e tornar o aparelho inutilizável.

Apesar de alguns aparelhos poderem sobreviver ao ataque por usarem partições apenas para leitura, muitos não irão e precisarão de um reenvio de firmware. Além disso, qualquer configuração provavelmente será perdida e, no caso de roteadores ou aparelhos de armazenamento embutidos com entradas USB, os dados dos discos externos também poderão ser apagados.

Na verdade, uma das variações do ataque BrickerBot nem é limitada a aparelhos embutido e de IoT e funcionará em qualquer sistema baseado em Linux que seja acessível via Telnet, caso possua credenciais fracas ou padrão.

Ainda não está claro qual o objetivo por trás dos ataques BricketBot. O criador do malware pode ser alguém que queira desabilitar aparelhos vulneráveis na Internet para que não possam ser infectados ou abusados por outros hackers.

Alguns dos maiores ataques de negação de serviço (DDoS) observados no último ano tiveram origem em botnets compostas de aparelhos de IoT hackeados. Por isso, o objetivo do ataque pode ser forçar os usuários a se mexerem e solucionarem ou substituírem seus aparelhos vulneráveis.

A maioria dos usuários provavelmente não sabe se os seus roteadores, câmeras IP, ou sistemas de armazenamento conectados à rede estão infectados com malware e estão sendo usados em ataques DDoS, uma vez que o impacto no desempenho deles pode ser imperceptível. No entanto, eles saberão imediatamente que há algo de errado caso sejam atingidos pelo BrickerBot. Isso porque os seus aparelhos deixarão de funcionar e muitos deles exigirão uma intervenção manual para serem consertados.

O bot Amnesia é um ótimo de como vulnerabilidades podem persistir por anos em aparelhos conectados sem serem corrigidas. A falha explorada pelo malware para se propagar foi revelada há mais de um ano e afeta mais de 70 marcas de gravadores digitais de vídeos (DVRs).

A razão pela qual tantos modelos de DVR foram afetados é que as companhias vendendo os aparelhos com marcas diferentes na verdade pegaram o hardware e o firmware da mesma fabricante na China – uma empresa chamada Shenzhen TVT Digital Technology.

Essa prática de “white label” é comum para muitos aparelhos de Internet das Coisas, incluindo câmera IP e roteadores, e torna muito difícil a distribuição de patches para os aparelhos afetados. Também é uma das razões para esses aparelhos não possuírem updates automáticos.

IoT625

No momento, há mais de 227 mil aparelhos de DVR no mundo que possuem essa vulnerabilidade e estão diretamente expostos à Internet, segundo a Palo Alto. A maior parte deles está nos EUA, Taiwan, Israel, Turquia e Índia.

Ao comprar uma câmera, roteador, sistema NAS ou outro aparelho de Internet das Coisas, o usuário deve ficar de olho no registro de segurança da fabricante. A empresa possui um ponto de contato dedicado para questões de segurança? Como lidou com vulnerabilidades no passado? Costuma publicar alertas de segurança? Libera patches de segurança com regularidade? Oferece suporte aos produtos por um tempo significativo? Os produtos possuem um recurso de updates automáticos?