Arquivo do dia: 19 de agosto de 2015

Quatro pontos a observar antes de estruturar uma área de Business Intelligence

Companhias devem se preocupar com a governança. Os dados são, na verdade, de todos. Ou, ao menos, deveriam ser

Muitas empresas planejam estruturar uma área dedicada à inteligência de negócios (ou Business Intelligence). O assunto, geralmente, fica embaixo do grande guarda-chuva da Tecnologia da Informação. Mas o BI ganhou tanto peso, nos últimos anos, que ter um setor totalmente focado nessa questão já entrou na lista de prioridades de algumas organizações.

É válido? Sem dúvida. Mas as companhias devem se preocupar com a governança. Os dados são, na verdade, de todos. Ou, ao menos, deveriam ser. Mas se usados sem controle, pode ser tornar uma anarquia.

Mais importante do que ter a informação é saber estruturá-la adequadamente para conseguir extrair benefícios reais para os negócios. O Gartner fala, inclusive, no conceito de Data Discovery, em vez de BI. As análises devem ser cada vez mais intuitivas para que todos possam “descobrir os dados”. Elas não podem depender exclusivamente do envolvimento da TI e nem mesmo de equipes dedicadas.

O Marketing, por exemplo, costuma beneficiar-se de projetos de Big Data. Toda a informação sobre o público-alvo de uma companhia pode ser processada para análise posterior. Mas, essas mesmas informações podem ser aproveitadas, também, por setores mais operacionais para melhoria de processos ou do próprio atendimento ao cliente. As possibilidades são muitas.

A ideia fundamental, então, é que todos possam tomar decisões de negócios baseadas em análises de dados. Isso permitirá que os profissionais tenham visões distintas. Existe aí uma grande oportunidade de mercado, não somente para profissionais da área, mas para que as empresas criem, finalmente, uma cultura de análise para a tomada de decisão.

Mas, antes de começar, observe alguns pontos.

1. Escolha o perfil certo – A demanda por profissionais orientados a projetos de Big Data deve criar 4,4 milhões de postos de trabalho ainda em 2015 segundo o Gartner. No entanto apenas um terço deste total será preenchido. São poucas as pessoas especializadas no tema, mas, na hora de escolher, preze menos pela técnica e mais pelo conhecimento que o profissional tem do seu core business. Só assim ele poderá identificar quais as melhores percepções para o seu negócio. Ele deve ter disposição, inclusive, para compartilhar o seu conhecimento com outras pessoas da empresa. As ferramentas de BI/Data Discovery estão cada vez mais intuitivas, mas é um bom ponto de partida ser didático com outros setores logo no início do projeto.

2. Desmistifique o BI – O mais importante é mudar a ideia de que BI envolve programação ou um vasto conhecimento em TI. Antigamente, talvez esta fosse a realidade, mas há anos que este mercado se transforma. A análise de dados envolve menos tecnologia e mais negócios hoje em dia e é preciso que toda a empresa esteja na mesma página.

3. Escolha softwares intuitivos – Como comentamos, as soluções de BI/Data Discovery estão mais intuitivas e é importante optar pelas que contam com essa característica ainda mais aflorada. Vale lembrar que a ideia principal é deixar a análise de dados ao alcance de toda empresa e nem todos possuem conhecimento específico. Se forem encontradas muitas barreiras técnicas e de uso do software logo que o funcionário experimentar a ferramenta, dificilmente ele a utilizará novamente. O importante é que o software leve a capacidade de análise ao ponto de decisão.

4. Esqueça a moderação – Claro que você não vai analisar todos os dados disponíveis. Foque na qualidade das análises e não na quantidade do que foi avaliado. Procure estimular todos da sua empresa a criar o hábito de manusear informações para possíveis descobertas – sem exceção. Os dados são importantes, mas a interpretação do profissional é ainda mais valiosa. Cada área saberá quais informações oferecem os melhores insights e descobrirá, assim, como o BI/Data Discovery pode ajudar a solucionar os desafios do setor.

Monitoramento real, efetivo, contínuo e… necessário

Seja qual for o cenário em que sua empresa está incluída, é importante ter em mente que, no mundo cada vez mais conectado, tecnologias de rede têm seus prós e contras, dependendo da maneira como são usadas e administradas

Há alguns anos, uma situação muito comum no parque tecnológico de algumas empresas era termos um servidor sendo invadido por um hacker, como resultado de falhas de segurança, como o uso de senhas fracas, por exemplo. Com isso, uma ferramenta maliciosa era posta em funcionamento e dados importantes eram acessados indevidamente. Com isso, o hacker poderia usar os dados da forma que lhe fosse mais conveniente.

Hoje, o foco passou a ser o usuário. Isto porque, infelizmente, muitas empresas ainda não seguem as políticas de segurança necessárias, não têm antivírus gerenciado ou firewall instalado ou mantêm o sistema operacional desatualizado. Pior ainda: algumas sequer têm conhecimento sobre o que seja uma política de segurança quando se fala em TI. Como resultado, basta um único clique para que dados importantes da empresa sejam perdidos ou criptografados nos servidores ou nas estações de trabalho. A partir daí, o hacker pode pedir uma espécie de “resgate” para que o processo seja revertido.

Atitudes simples e aparentemente inofensivas são cometidas diariamente nas empresas quanto ao uso da tecnologia, muitas vezes sem que ninguém perceba. Exemplos não faltam, tais como a instalação de programas não autorizados ou de fabricantes desconhecidos e cliques em anexos ou sites suspeitos. São portas de entrada suficientes para tornar um sistema vulnerável a ameaças de todo tipo, como malwares e spywares, criptografia completa dos dados e falhas pontuais nos equipamentos. Em geral, o objetivo mais comum é a captura de informações bancárias, reforçado, talvez, pela inocência extrema do usuário comum quanto ao uso da tecnologia e do fornecimento de dados.

É necessário também que os prestadores de serviços de suporte de TI tenham uma atitude mais proativa, não esperando o problema acontecer para depois agir. Tem que ser um trabalho de prevenção para que novas falhas não ocorram. Para isso, a adoção de ferramentas de monitoramento, em tempo real, torna-se fundamental, além da implementação de outras soluções, como antivírus gerenciado, ferramentas de controle de acesso à web, de controle e filtros de e-mail e, claro, o bom e velho backup.

O mercado de software, felizmente, é capaz de oferecer pacotes completos de ferramentas, atendendo as mais diversas demandas das empresas. Mas é importante ressaltar que, mesmo com todo esse arsenal tecnológico, um monitoramento contínuo, em regime 24 x 7, só é realmente eficaz se tiver um profissional totalmente dedicado a essa tarefa. Para grandes empresas, isso não chega a ser um problema, pois há verba suficiente para isso. No caso das pequenas e médias empresas, a realidade é outra, fazendo com que esse tipo de monitoramento só seja possível pela terceirização, ao contratar um provedor de serviços gerenciados.

Imagine uma situação em que ocorre um alerta de uso de disco no servidor, quando várias máquinas da rede realizam processos simultâneos de gravação e leitura, muito acima da média de utilização. O alerta pode ser feito por e-mail ou até mesmo por SMS, mas se não tiver uma pessoa cuidando pessoalmente do monitoramento e que possa tomar alguma providência, pode ser tarde demais.

Seja qual for o cenário em que sua empresa está incluída, é importante ter em mente que, no mundo cada vez mais conectado, tecnologias de rede têm seus prós e contras, dependendo da maneira como são usadas e administradas. Ao mesmo tempo em que facilitam o dia a dia das empresas na condução de suas atividades e necessidades, servem também como uma estrada perfeita para a proliferação de ameaças de diversos graus. Cabe a você decidir o destino que pretende dar aos dados responsáveis pela manutenção dos seus negócios. Pense nisso.

Autoria: Rodrigo Gazola

Virtualização e segurança: superando os riscos

É possível para qualquer organização encontrar um equilíbrio entre aproveitar as vantagens da virtualização e manter os mais altos níveis de segurança

A virtualização já existe há muito tempo e suas vantagens – desde flexibilidade e escalabilidade até garantia de qualidade e economia de custos – são bem documentadas. No entanto, não é raro ela ainda ser considerada uma tecnologia “nova” ou “emergente” devido ao seu aumento de popularidade nos últimos cinco anos.

Com qualquer tecnologia em rápido desenvolvimento, a segurança pode ser um grande obstáculo para uma adoção mais ampla. Mas, como costuma ser o caso, as preocupações com segurança com relação à virtualização não são infundadas. Por exemplo, riscos associados a cargas de trabalho dinâmicas que causam brechas de segurança que potencialmente colocam sistemas inteiros em risco devido ao modo como os recursos são compartilhados certamente existem.

Um bom exemplo: em novembro do ano passado, um invasor enviou aos clientes da BrowserStack, fornecedora de testes baseados em navegador, um e-mail sobre a segurança das máquinas virtuais da empresa. O e-mail, cuja intenção era parecer ter sido enviado pela empresa, dizia, “Não temos firewalls instalados e nossas políticas de senhas são péssimas… É quase certo que todos os nossos dados foram comprometidos.” Embora a BrowserStack negue as alegações feitas no e-mail, o incidente naturalmente incitou muitas pessoas a questionarem se medidas adequadas para garantir um ambiente virtual seguro estavam sendo tomadas pela empresa.

Esse incidente em particular, somado ao medo já existente, serviu para aumentar a preocupação com as implicações de segurança da virtualização e de ambientes virtualizados.

Os riscos
Então, quais são os principais riscos de segurança associados à virtualização?

Primeiro, a virtualização agrega camadas adicionais de complexidade à infraestrutura. Isso significa que o monitoramento de eventos e anomalias incomuns também se torna mais complexo, o que, por sua vez, dificulta ainda mais a identificação de problemas de segurança, como ameaças avançadas persistentes.

Além disso, os ambientes virtualizados são dinâmicos e passam por rápidas transformações. Diferentemente dos ambientes físicos, máquinas virtuais podem ser criadas em questão de minutos. Fica fácil perder o controle do que está online, offline e das possíveis brechas de segurança resultantes. Isso está relacionado a um fenômeno conhecido como dispersão virtual, que se refere a quando o número de máquinas virtuais existentes em um ambiente atinge um ponto em que não podem mais ser gerenciadas com eficácia, como pela devida aplicação de todos os patches de segurança. Nesses casos, não é mais possível garantir a segurança de todas as máquinas virtuais. Invasores já usaram máquinas virtuais offline como porta de acesso aos sistemas de uma empresa, como foi alegado na violação da BrowserStack.

Por fim, além da natureza dinâmica das máquinas virtuais propriamente ditas, as cargas de trabalho podem ser transferidas com rapidez. Isso também representa um risco à segurança. Por exemplo, uma certa carga de trabalho pode precisar de um nível mais alto de segurança, que pode ser proporcionado pela máquina virtual inicial a que foi atribuída. Mas quando há a necessidade de criar espaço para trabalhos mais importantes, sem as devidas verificações e balanceamentos, essa carga pode ser facilmente transferida para uma nova máquina virtual com um nível de segurança menor, o que pode criar uma brecha.

Atenuação dos riscos
O incidente da BrowserStack é apenas um entre os muitos motivos pelos quais, apesar das vantagens da virtualização, ainda há preocupações com os riscos de segurança associados à virtualização. No entanto, isso não quer dizer que os riscos não possam ser gerenciados.

A seguir, apresentamos algumas táticas que, quando seguidas, podem ajudar a atenuar ameaças potenciais a ambientes virtuais sem a necessidade de processos e soluções caros e incômodos que não estão ao alcance de muitas organizações.

·  Separação: estabeleça como e onde separar as máquinas virtuais de desenvolvimento, teste e produção.

· Imposição do processo: habilite processos específicos à TI por meio de portais de autoatendimento para aumentar a eficiência e simplificar o gerenciamento.

· Gerenciamento de dispersão: gerencie ativamente o ambiente virtual em termos de o que está sendo usado e o que é ou não necessário.

· Gerenciamento completo da pilha: concentre seu foco em conexões de ponta a ponta no ambiente virtual.

· Auditoria incorporada: aproveite ferramentas para automatizar verificações de segurança, balanceamentos e processos, sempre que possível.

· Aplicação de patches: implemente um processo de manutenção e gerenciamento de patches e programe-o para garantir que os patches estejam atualizados tanto em máquinas virtuais online quanto offline.

Com o conhecimento dos principais riscos de segurança associados à virtualização e um compromisso de seguir as práticas recomendadas de atenuação dos riscos, é possível para qualquer organização encontrar um equilíbrio entre aproveitar as vantagens da virtualização e manter os mais altos níveis de segurança.