O que todo profissional de TI deve saber sobre OpenStack

O que Yahoo, Cisco WebEx, Mercadolibre, Red Hat, PayPal e American Express tem em comum?

Todos eles usam OpenStack.

Estes são apenas alguns exemplos de que OpenStack tem conquistado o cenário de TI e, ao longo do último ano, tem captado a atenção das comunidades de TI e de negócios.

Enquanto a maioria dos CIOs já entendem os benefícios da nuvem privada, pública e híbrida, muitos ainda estão no escuro quando se trata de serviços de TI específicos que OpenStack fornece.

Com uma comunidade global de mais de 40.000 usuários e mais de 500 empresas contribuindo ativamente, o OpenStack veio para ficar.

Porque as empresas estão aderindo ao OpenStack?

De acordo com dados de mercado, o mundo cria 2,5 quintilhões de bytes de dados diários, o que significa que 90 por cento dos dados no mundo de hoje foram criados nos últimos dois anos.

Este é um exemplo de que as empresas precisam escalar rapidamente para enfrentar os desafios de volumes crescentes de dados, mas também querem ter certeza de que suas informações estão seguras e facilmente acessíveis.

A forma como usamos e pensamos tecnologia está evoluindo mais rápido do que nunca. Para manter-se competitivas, as empresas devem usar tecnologias que entreguem agilidade e capacidade de uso rápido e OpenStack oferece isto.

Mas o que é o OpenStack?

OpenStack é um software de código aberto, o que significa que qualquer pessoa pode acessar o código-fonte, fazer as modificações necessárias e compartilhar livremente essas mudanças a comunidade em geral.

Seu propósito é realizar a orquestração da nuvem e seus componentes de infraestrutura, por meio de um padrão pré-estabelecido, apoiado por vários fornecedores, evitando assim o lock-in de hardware e software.

Isso também significa que OpenStack tem o benefício de milhares de desenvolvedores em todo o mundo trabalhando em conjunto para desenvolver um produto mais forte, mais robusto e mais seguro, com uma capacidade de desenvolvimento e correção de erros além de qualquer empresa do mundo.

Por outro lado, o que muitos usuários e desenvolvedores tem revelado é a necessidade de se aprofundar tecnicamente na tecnologia para conseguir lidar com o OpenStack no dia-a-dia. As empresas devem estar preparadas para dedicarem talentos reais de programação e arquitetos sênior, e devem estar preparadas para passar até dois anos trabalhando em “Q.A.” até conseguirem qualquer implementação funcional.

A Dualtec, empresa especializada em cloud computing, adquirida pelo UOLDIVEO, passou por este desafio antes de ter sua oferta de nuvem pública estável e seus processos maduros para atender ao mercado.

É exatamente neste ponto que o UOLDIVEO pode colaborar com as empresas, já que além de fornecer nuvem pública em OpenStack com características pre-determinadas, ainda apoia grandes empresas na construção, gestão e otimização de nuvem privada, com características customizadas.

Monitoração: você irá fracassar na escolha de uma solução.

Não quero assustá-lo, mas posso garantir que você irá fracassar na escolha da solução para monitorar o ‘negócio’ da sua empresa. Esta afirmação pode parecer um pouco arrogante, mas acredite, ela é verdadeira.

A explicação para isto é simples. Não existe solução pronta que irá atender a sua necessidade!

Siga o seguinte raciocínio:

  1. Quantas empresas estão focadas em sua área de atuação?
    Centenas, milhares talvez.
  2. Dentre estas empresas, quantas atuam em seu segmento de mercado?
    Dezenas, centenas talvez.
  3. Quantas destas possuem as mesmas regras de negócio?
    Algumas poucas talvez.
  4. E quantas possuem a mesma estratégia adota pela sua Empresa?
    Provavelmente nenhuma.
  5. Os processos de gestão são iguais?
    Com certeza não.

Com apenas 5 perguntas em uma visão macro ficou claro que mesmo empresas que atuam no mesmo nicho de mercado nunca terão exatamente a mesma ‘personalidade’. A ‘personalidade’ da empresa é única.

Por isto lhes afirmo, não existe solução pronta para a sua necessidade.

Feche seus ouvidos para os discursos decorados oferecidos pelos fornecedores sobre ferramentas perfeitas. A verdadeira solução de monitoração não será entregue por nenhuma ferramenta, ela está baseada em um conjunto de ferramentas integradas trabalhando em busca de um propósito único. Atender sua necessidade.

Justamente por isto não tenho como lhe indicar a melhor ferramenta para monitorar o negócio da sua empresa, mas posso te mostrar o caminho que você deve seguir para conseguir arquitetar a solução perfeita para a sua necessidade.

Em uma visão macro, para a sua solução de monitoração ser bem sucedida ela deve preocupar-se com as seguintes camadas:00

  • Escolher a Ferramenta de Monitoração: o único objetivo desta camada é realizar a coleta e processamento da informação, sendo que estas atividades não necessariamente precisam ser realizadas pela mesma ferramenta. Sua solução poderá contar com ‘n’ ferramentas de coleta e processamento, cada uma preparada para atender necessidades específicas;
  • Garantir Integração com a Ferramenta de Incidentes: é fundamental que todo alarme gerado pela monitoração reflita em um incidente na fila da Operação. O que muitos ignoram é a qualidade da informação disponibilizada no Incidente. Por isto é fundamental incluirmos nesta etapa as análises do Catálogo de Serviços e do CMDB;
  • Realizar Analytics dos Eventos: todos os eventos gerados devem ser indexados em uma ferramenta de analytics. Esta camada lhe trará inteligência para entender e trabalhar os dados coletados. Alguns exemplos interessantes do que pode ser extraído da camada de analytics são análises preditivas, indicadores operacionais e indicadores gerenciais;
  • Apresentar Métricas de Consumo: dar visibilidade à Operação de como está o comportamento dos ICs que suportam o ‘negócio’ da sua empresa é fundamental para a administração do dia a dia e para a análise de troubleshooting em momentos de crises;
  • Correlacionar Eventos: em muitas soluções de monitoração a correlação de eventos se resume em apontar as dependências entre ICs, quando na verdade o maior ganho desta camada é entender o comportamento do seu ambiente e filtrar as informações que realmente geram valor à Operação;
  • Provisionar novos Equipamentos: realizar o fluxo de provisionamento através de automação lhe permite garantir que todos ICs do seu ambiente possuem monitoração. Sempre que possível elimine atividades manuais, assim você irá mitigar consideravelmente falhas humanas no processo de monitoração;
  • Integrar todas as Camadas: o maior valor nesta solução é trabalhar com camadas independentes e não buscar que uma única ferramenta atenda a todas as camadas como um ‘monobloco’. Hoje em dia existe uma tendência muito forte de ferramentas se especializarem em determinados casos de usos. Além de ganharmos em qualidade no serviço prestado, teremos flexibilidade para montar ou alterar nossa solução. Para que isto ocorra é necessário desenvolver a integração que garanta os fluxos de comunicação e as regras de negócio entre cada camada.

Reflita sobre como sua solução de monitoração está atuando em cada uma das camadas citadas acima.

Nos próximos posts irei detalhar cada uma destas camadas, abordando a estratégia de implantação e cases que exemplificam o ganho real no dia a dia da Operação.

O que vimos no OpenStack Summit Austin 2016

Aconteceu em Austin Texas, USA, a última edição do OpenStack Summit – evento dedicado a plataforma de Cloud Computing OpenSource que é um fenômeno mundial para a criação de nuvens publicas, hibridas e privadas.

Para quem não conhece o evento ele acontece duas vezes por ano em alguma cidade do mundo e tem como objetivo promover discussões, palestras e workshops que abordam diversos aspectos sobre Cloud Computing e OpenStack reunindo gestores, operadores de nuvens e desenvolvedores.

Simultaneamente com o evento acontece o Design Summit, onde os desenvolvedores que contribuem para o OpenStack se reúnem para discutir e planejar o próximo release que deverá ser lançado em meados de outubro e se chamará Newton.

Já participo deste evento desde 2011 e o que sempre me chama atenção é o crescimento em número de participante, esta edição contou com 7.500 participantes. Mil vezes mais do que a primeira edição do evento que ocorreu na mesma cidade em 2010.

O evento começou com uma grande surpresa: a inesperada presença do Gartner realizando o Keynote de abertura. Surpresa visto que nos últimos anos eles questionaram diversas vezes a maturidade do OpenStack para uso nas grandes corporações. Este Keynote histórico foi a confirmação de que o Gartner mudou de opinião reconhecendo a maturidade e aderência do OpenStack nas grandes corporações.

Destaco aqui alguns dos tópicos mais discutidos durante esta edição:

1) Network Function Virtualization (NFV): Tópico que desperta muito interesse principalmente das empresas ligadas a Telecom e que enfrentam o grande desafio de lidar com um alto e crescente volume de dados necessitando de alternativas mais ágeis e econômicas para as soluções proprietárias da hardware resultando em flexibilidade, velocidade e economia na criação de novos serviços e produtos.

A fundação OpenStack possui um grande foco em expandir o suporte e criar novas funcionalidades relacionadas a NFV nos diversos módulos do projeto, saiba mais em:
https://www.openstack.org/assets/telecoms-and-nfv/OpenStack-Foundation-NFV-Report.pdf

2) Containers: Outro fenômeno que vem mudando a forma de pensar o desenvolvimento e escalabilidade das aplicações. Este assunto vem sendo amplamente discutido em diversos outros eventos de tecnologia nos últimos dois anos e já foi criado um ecossistema considerável de soluções para containers. Destaco aqui as tecnologias mais citadas:

Containers:

Orquestradores de containers como:

Sistemas Operacionais para containers (Minimalistic Operating Systems):

Ocorreram diversas discussões e demonstrações que abordaram desde módulos do OpenStack que facilitam a orquestração de containers sobre uma nuvem OpenStack exemplo: Magnum, até o uso dos mesmos para rodar os módulos da camada de controle de uma nuvem OpenStack facilitando a operação e a atualização.

3) Software Defined Storage (SDS): As mais citadas durante o evento foram as soluções de SDS’s distribuídas e escaláveis horizontalmente como Ceph, Swift, GlusterFS e ScaleIO. Que são as mais utilizadas em ambiente de nuvem pois fornecem armazenamento de objeto, bloco e filesystem (dependendo da tecnologia) com o potencial de escalar petabytes e acompanhar o crescimento em larga escala que uma nuvem OpenStack pode atingir.

Esta foi mais uma edição com diversas apresentações relevantes, e o OpenStack Summit continua sendo um dos melhores termômetros para medir tendências e aderência de novas tecnologias relacionadas a Cloud Computing.

Convido você para assistir os vídeos que já foram publicados no Website da Fundação OpenStack através do link:
https://www.openstack.org/videos/

Aproveite também para conhecer a nuvem pública em OpenStack do UOLDIVEO: http://www.uoldiveo.com.br/openstack

Um abraço e até o próximo post.

Você sabe escolher a nuvem ideal para sua empresa?

Com a crescente adoção de vários tipos de nuvem pelas organizações, os profissionais de TI se deparam com outro grande desafio: Escolher a nuvem ideal (ou uma combinação de nuvens) para sua necessidade.

É preciso arquitetar a infraestrutura e garantir que ela esteja pronta para absorver a crescente demanda por recursos em um determinado período de tempo.

Já é fato conhecido que as nuvens, especialmente as públicas, contam com recursos de elasticidade – também conhecidos como a possibilidade de adicionar, ampliar e até mesmo reduzir capacidade computacional a qualquer momento mediante uma mudança nos requisitos do negócio ou da aplicação.

Para que você possa decidir sobre um modelo de nuvem, você precisa determinar qual é o modelo ideal para o seu negócio. Arquitetar a nuvem é uma das decisões mais importantes de tecnologia que você irá enfrentar.

Como selecionar as nuvens certar com base em uma combinação de ambos os requisitos, negócios e tecnologia?

No mundo da computação em nuvem, existem três tipos diferentes de “nuvens” – nuvens públicas, nuvens privadas e nuvens híbridas e uma infinidade de modelos de gerenciamento.

Dependendo do que tipo de aplicação ou requisito de negócio, você vai querer comparar as diferentes opções que nuvens privadas, públicas e híbridas pode oferecer.

Conheça alguns passos que auxiliam na jornada para a nuvem:

  • Avalie profundamente cada aplicação: Algumas aplicações não possuem o grau de maturidade necessário para nuvem e ou possuem “travas” a sistemas legados da corporação e a migração para a nuvem pode não ser possível.
  • Determine quais os serviços necessários e desejáveis: Ao escolher um fornecedor de serviços em nuvem, tenha em mente que uma nuvem definitivamente não serve para tudo, nem para todos! É importante ter em mente o tipo de plataforma de nuvem, as características das aplicações, a interoperabilidade, funcionalidade e desempenho que você deseja. Confirme se o seu fornecedor de serviço de nuvem é escalável para suportar suas necessidades crescentes de dados.
  • Confira cuidadosamente todas as políticas do fornecedor de cloud computing para verificar se tudo está enquadrado nos requerimentos da empresa. Esse fator varia absurdamente em diferentes fornecedores.
  • Determine o nível de segurança adequado as suas necessidades de negócios: Com o crescente aumento das violações de segurança, é crucial escolher um parceiro de serviço de nuvem com protocolos de segurança bem definidos. Se a sua empresa lida com dados sensíveis, então você precisa escolher um parceiro de serviço em nuvem que esteja em conformidade com as normas de segurança vigentes em sua indústria. Por exemplo, se você lida com informações financeiras, é imperativo garantir que o seu fornecedor possua as certificações requeridas.
  • Verifique seu orçamento: Infelizmente, há uma falta de transparência nos custos em fornecedores de serviços em nuvem. Analise cuidadosamente os acordos comerciais para evitar taxas escondidas e custos adicionais.

Adicionalmente, o caminho natural da adoção é totalmente dependente da maturidade tecnológica da empresa e, normalmente, passa de uma estrutura tradicional para uma virtualização, indo para uma nuvem privada e, em seguida, com a extensão dos recursos, para a nuvem pública, formando a nuvem híbrida.

Considere que uma abordagem híbrida pode ser a chave para equilibrar os benefícios e os riscos de nuvens públicas e privada e é uma forma dos gestores de TI tirarem proveito do melhor dos dois mundos (nuvem privada e pública). Um dos maiores ganhos neste caso, é a transferência para o modelo de pagamento dos serviços baseados em “pagar-pelo-uso”, sendo este um beneficio que impacta diretamente no planejamento financeiro e nas estimativas de custos.

Para finalizar, conte com um parceiro qualificado para lhe apoiar na jornada. Arquitetar nuvens é tarefa que exige especialização e experiência.

BIG DATA – inovando e agilizando a sua empresa

Olá pessoALL, todos nós temos conhecimento de algum projeto de sucesso usando a tecnologia “BIG DATA” e ao mesmo tempo percebi que ainda existem muitas dúvidas sobre o esforço para implantar “BIG DATA” nas organizações.

Ter um “BIG DATA” não é algo distante das nossas possibilidades.

Correlacionar diversos tipos de dados que antes era muito complicado, hoje tornou-se muito mais simples com as novas tecnologias disponíveis no mercado, as quais muitas vezes não tem custo de licença para seu uso.

Então quer dizer que os CEOs devem pensar seriamente em ter “BIG DATA” na empresa? SIM!

Nos próximos 10 anos teremos uma economia da informação cada vez mais estabelecida e a moeda de valor serão os dados, ou seja, quem tiver a inicitativa de buscar oportunidades com estas informações vai ter uma enorme vantagem competitiva.

Na prática as empresas vão monetizar o “BIG DATA” como um produto e já temos vários exemplos desta nova realidade acontecendo, imaginem em 2026!

Mas não precisamos esperar 2026 para ver o que vai acontecer. O PagSeguro que é um caso de sucesso aqui do UOL utilizando “BIG DATA” para melhorar a eficiência operacional e consequentemente a satisfação dos nossos clientes.

Outro exemplo é a inovação e agilidade promovida por nossa área de operações, com a gestão de capacidade preditiva (analytics), através da tecnologia “BIG DATA”, que além de oferecer uma análise especializada aos nossos clientes também atende as normas da ISO20000.

Ainda há outras iniciativas, como mapear todo o conhecimento tácito e explicito da empresa usando todo o potencial de correlacionar diversas fontes de dados usando “BIG DATA”. E isso é só o começo!

Todas estas mudanças estão ocorrendo muito rapidamente e é importante saber que “BIG DATA” não é algo abstrato. É concreto e tem características que são: volume, variedade, velocidade, veracidade e principalmente valor ao negócio.

Como falei acima, é fácil começar um projeto de “BIG DATA”, mas alguns pontos são fundamentais para determinar o sucesso ou fracasso desta iniciativa.

8 pontos fundamentais para sua iniciativa de BIG DATA ser consistente:

1) “BIG DATA” é uma mudança de “mindset” e se você tratar este novo conceito apenas como uma questão tecnológica é quase certo que vai fracassar;

2) Implantar “BIG DATA” exige uma mudança cultural da organização porque envolve uma tecnologia totalmente nova que manipula dados não relacionais (volume), de diversas fontes (variedade) e serão armazenados em um banco de dados não relacional para buscar padrões criando um leque de oportunidades (velocidade e veracidade) e muitos deles são estratégicos para a empresa (valor);

4) Estruture o “BIG DATA” com objetivos claros;

5) Divida o projeto em etapas;

6) Atenda às 5 características (volume, variedade, velocidade, veracidade e valor);

7) Não se esqueça da política de governança das informações;

8) Ao final de cada etapa, faça um “brainstorm” sobre o que você aprendeu com “BIG DATA”. Isso faz toda a diferença.

 

E agora está se sentindo mais preparado para inovar e agilizar a sua operação com “BIG DATA”?

E se precisar de ajuda conte conosco!

Segurança em cloud: além da tecnologia

Hoje ouvimos falar muito de Cloud como algo importante para os negócios de uma organização, fazendo com que sejam feitos investimentos financeiros, redesenho de ambientes ou mudanças estratégicas importantíssimas de alto impacto para a organização. Mas, muitas vezes, esquecemos que como qualquer projeto, imaginar o uso de cloud Computing, sem pensar em segurança e compliance é cometer quase que um haraquiri sem a cerimônia obrigatória dos samurais.

Além disto, muitas empresas estão negligenciando o impacto que problemas de segurança podem causar à marca, muitas vezes destruindo em pouco tempo, o valor construído pela empresa durante anos.

Antes da segurança

É importante destacar que antes de imaginarmos um projeto de Cloud ou mesmo como a segurança impacta este novo paradigma, devemos avaliar muito bem qual o modelo de cloud mais aderente para a aplicação desejada e avaliar também qual o impacto desta aplicação no negócio como um todo.

Sabemos que ao falarmos de Cloud, referenciamos geralmente os modelos Público, Privado e Híbrido.

Devemos questionar sempre qual o esforço que será feito para adequar a aplicação ao modelo escolhido? Vai haver alguma perda para ter a sonhada agilidade em TI ou para atingir a liberdade de adicionar ou remover recursos a qualquer momento? Vamos manter estes questionamentos em mente e identificar os modelos de Cloud existentes.

O Gartner define nuvem pública (Public Cloud Computing) como um ambiente computacional que possui escalabilidade e elasticidade provido como serviço de forma automatizada e orquestrado para clientes que, em sua essência, estão externos ao provedor usando tecnologias acessíveis pela internet em elementos de infraestrutura compartilhados. Completando o que diz o Gartner, é importante também entendermos que esta infraestrutura de Cloud é algo compartilhado por todos os clientes e que aceita menos requisitos de negócios, ou seja, é preciso se enquadrar dentro das características oferecidas pelo provedor de serviços.

A nuvem privada (Private Cloud Computing) posiciona-se como um ambiente de nuvem onde a infraestrutura é usada exclusivamente por uma empresa ou onde uma organização é completamente isolada das outras sem perder escalabilidade ou elasticidade, sendo auxiliada pela automatização e orquestração. Esta empresa tem os recursos de infraestrutura reservados para o seu uso, como se fosse a dona dela, detendo muito mais liberdade na definição do ambiente.

Dizemos que a nuvem híbrida (Hybrid Cloud Computing) é aquele que equilibra workloads entre nuvens públicas e ambientes privados (sejam eles em nuvem ou não). Um exemplo deste modelo é quando a empresa precisa manter certos workloads na Cloud Privada, por questões de compliance e soberania dos dados, e outros na nuvem pública, em uma região mais próxima dos usuários finais.

Brokers de segurança

Entrando mais fundo no universo Cloud Computing, vemos um conceito que cresce com bastante força, firmando-se na representação da sigla CASB (Cloud Access Security Brokers). Pode-se dizer que um ambiente CASB é aquele que pode ser posicionado dentro do próprio cliente ou em um ambiente de Cloud externo controlando as regras de segurança que gerenciam o acesso ao ambiente em nuvem do cliente. O CASB é posicionado entre o cliente e o Provedor de Cloud e as políticas de segurança podem incluir elementos como single sign-on, autorização, mapeamento de credenciais, criptografia, uso de token para duplo fator de autenticação, registro de acesso (logging), geração e alertas, detecção e prevenção de malware.
Segundo o Gartner, até o final e 2018, 50% das organizações com mais de 2.500 usuários estarão com uma plataforma de CASB para controlar o uso dos produtos mantidos como SaaS (Software as a Service). Ainda segundo o Gartner, em 2020, 85% das maiores empresas usarão um produto de CASB. Desta forma, a camada de segurança não precisa estar por padrão incluída no ambiente de Cloud, mas ele precisa estar pronto para ambientes que usem CASB.
Com o holofote em Segurança da Informação e olhando para os dias atuais, ver-se que independentemente do modelo de Cloud escolhido, ele tem que possuir mecanismos que protejam a autenticação para acessar o painel de gerenciamento. É comum termos o atacante digital descobrindo o usuário responsável pela administração das máquinas em Cloud e pedir resgate para devolver o acesso e não apagar ou danificar as máquinas virtuais que foram criadas. Tem-se assim, perdas financeiras reais. É importante ter um ambiente de contingência e um plano bem detalhado e ensaiada com simulações periódicas para recompor de forma rápida o ambiente em Cloud.

Além da indisponibilidade

Acredito que devemos sempre olhar nossos projetos com análises bem mais críticas e observar o que acontece no restante do mundo para identificar se é possível aproveitar algo. Um exemplo deste tipo de análise pode ser encontrado na pesquisa feita pela Veeam Software. A Veeam Software é uma empresa reconhecida pelos produtos de Backup, Replicação e Disponibilidade. Esta pesquisa mostra que muitas empresas estão tendo perdas financeiras por não avaliarem corretamente se suas aplicações estão realmente respondendo as necessidades de seus usuários. A pesquisa elaborou 1.140 entrevistas com os principais responsáveis pelo departamento de TI em 24 países. Segundo a pesquisa, 84% dos entrevistados admitiram que suas organizações possuem problemas com disponibilidade de seus serviços. Isto implica em danos na marca ou na imagem da corporação.

A Veeam revela também que para tentar solucionar estes problemas, muitas instituições estão investindo em Data Centers próprios ou melhorando os que já existem. Mesmo assim as paradas continuaram se multiplicando, indo de 13 para 15 eventos em 2015. A média de cada parada subiu de 1,5h para 2h por aplicação de missão crítica. O resultado é um custo médio anual do superior a US$ 16 milhões (US$ 6 milhões a mais que 2014).

Isto é extremamente assustador, mas o que precisa ser entendido é que existem diversos impactos mais devastadores. Observe que 68% destas empresas entrevistadas apontaram perda da confiança do cliente, 62% indicaram dano a integridade da marca, 51% revelaram perda de confiança dos parceiros, 31% disseram que houve redução do preço dos estoques e 26% tiveram ações legais de parceiros ou clientes alegando perdas financeiras.

Observe que os custos para refazer a imagem de uma instituição podem ser gigantes. Este foi o tema da pesquisa International Business Resilience Survey 2015. A pesquisa revela que 73% dos executivos informam ter uma falta de planejamento de gestão de crise nas empresas. Para se proteger dos ataques cibernéticos, 28% deles afirmam ter apólices de seguros especiais para coberturas ataques cibernéticos. Outros 21% contratam seguros também para se proteger de possíveis danos à reputação das empresas após uma violação de dados e ainda assim, 60% dos CEOS e gestores entrevistados têm dado pouca importância na resiliência dos sistemas de TI em relação à gestão de reputação de suas empresas.

As ameaças são muitas, mas como o UOLDIVEO pode ajudar a proteger seu negócio, evitando perda da confiança dos seus clientes e fornecedores, dano a integridade das suas marcas e problemas jurídicos?

Com os serviços de segurança do UOLDIVEO, sua empresa pode encontrar diversos serviços que buscam a continuidade do negócio e proteção de informações dos clientes.

Os serviços são diversos e vão desde DDoS Protection, um pilar para sustentar a disponibilidade dos seus serviços, e evitar perdas financeiras importantíssimas, até a proteção específica para a aplicação Web, por meio do Web Application Firewall (WAF), um produto destinado a aplicações web, protegendo-as contra ataques à sua aplicação exposta à internet, deixando seu acesso mais rápido ou auxiliando na defesa contra o furto de informações existentes nas bases de dados usada pela sua aplicação.

Sabemos que não basta ter uma infraestrutura confiável ou hardwares tecnicamente reconhecidos pelo marcado, é importante termos o apoio de uma equipe especializada em ciberataques (cyberattack). Protegemos o maior portal de serviços da América Latina, o UOL, além das aplicações de 250 das 500 maiores empresas do Brasil.

Muitas vezes uma Tecnologia é cercada por medos, sejam eles posicionados em Cloud ou não. Na grande maioria das vezes o medo é algo benéfico, pois nos inspira a repensar nossas estratégias. Entretanto, é importante termos em mente que o uso da Segurança Digital precisa ser avaliado em conjunto com o custo da perda financeira para entender que a salvação de qualquer modelo de negócio dependerá de como definimos e implantamos a Segurança Digital como um todo envolvendo: pessoas, tecnologia e processos. Quando isto é feito, Segurança Digital será sempre a salvação para qualquer negócio.

Fontes:

5 maneiras de avaliar se infraestrutura e operações estão drenando seu orçamento de TI

A redução nos custos é uma busca interminável na maioria das empresa, principalmente em tempos de crise.
O crescimento lento – e muitas vezes até a redução – dos orçamentos de TI, tem feito com que grande parte dele seja usado para manter os sistemas e a operação funcionando – limitando a agilidade das empresas.
É exatamente este cenário que tem imposto desafios para CIOs e gestores de TI, que agora precisam concentrar seus esforços em áreas que podem garantir redução de custos significativa para alocação em outras frentes antes sequer consideradas.

Para ajudar você, algumas perguntas devem ser feitas para avaliar oportunidades de otimização de custos:

1) Você conhece o custo total de aquisição (TCO) do seu ambiente?

TCO – Total cost of ownership – como o próprio termo diz, avaliar os custos totais de aquisição – diretos e indiretos – associados a um ativo durante seu ciclo de vida é a chave para identificar oportunidades de redução de custos e comparar o ambiente atual com outras alternativas.
Ele também é mais rápido e mais fácil de usar do que os custos reais vindos de relatórios financeiros, já que além de demorados, normalmente não permitem uma visão simplificada e detalhada o suficiente para uma adequada avaliação.

2) Você avalia constantemente o tempo de depreciação dos ativos de seu Data Center e estratégias alternativas disponíveis no mercado?

Estender a depreciação dos equipamentos pode parecer uma opção inteligente, mas de fato isto gera um custo maior de longo prazo.
A tecnologia de servidores evolui a cada ano, oferecendo maior performance, menor depreciação, redução no consumo de energia, etc. A redução do consumo de energia pelos novos equipamentos já permite justificar facilmente a decisão de investimento.
Outra alternativa é a opção por soluções de Cloud Computing, que hoje tem à disposição soluções específicas para cada característica de ambiente e aplicação.
Por exemplo, se sua empresa possui sistemas legados em ambientes depreciados, há nuvens que podem atender melhor este tipo de cenário.

3) Grande parte da infraestrutura e operação de data center ainda é mantida dentro da própria empresa?

De acordo com a consultoria Gartner, os custos de Infraestrutura e operações representam aproximadamente 70% do orçamento de TI de empresas de pequeno e médio porte, e aproximadamente 80% dos gastos em execução.

269300_0005

A recomendação da empresa é que Infraestrutura e operações seja o ponto focal para redução destes gastos.

Justamente neste ponto consideramos a utilização de serviços de Data Centers e Managed Service Providers (MSPs) uma opção para que empresas consigam o benefício da redução de custos, além de altos índices de qualidade e SLA na prestação de serviços.

4) Qual esforço está sendo colocado para reduzir os custos com Storage?

Para a maioria das empresas, o TCO de storage não vai diminuir dentro de três anos, porque o crescimento de armazenamento está superando o declínio no custo de armazenamento por Terabyte. Sem fortes estratégias de contenção de custos, o aumento no armazenamento pode consumir a economia de custos em outras áreas.

5) Você sabe exatamente onde e como Cloud Computing faz sentido em seu ambiente de Infraestrutura e operações?

Cloud muitas vezes entrega redução de custos, mas nem sempre. Por isso é importante entender onde e como Cloud Computing entrega valor. O ponto de partida é ter em consciência de que não há uma solução ou modelo de cloud que se adeque a qualquer necessidade de TI.

Há diversas soluções no mercado e cada uma delas entrega benefícios diferentes ao ambiente de TI das empresas – inclusive redução de custos.

Quando falamos em redução de custos, Disaster Recovery (DR), é um bom exemplo.
Eles são concebidos para serem usados somente como medida emergencial em situações bastante atípicas e por isso permanecem a maior parte do tempo ociosos.

Manter infraestrutura para suportar o plano de Disaster Recovery sem nuvem, depende de altos investimentos e de bastante tempo. Os custos com equipamentos são altos e normalmente os processos são realizados em localidades geográficas distintas. Caso sua empresa ainda não tenha utilize DR em Cloud, esta é uma boa oportunidade para redução de custos sem abrir mão de disponibilidade e segurança.

Por fim, outra forma de redução de custos está diretamente associada a um dos entraves mais críticos nos orçamentos de TI: a rigidez da contratação de infraestrutura tradicional, pouco variável conforme as necessidades do negócio e volatilidade de demanda.

Fonte:
Gartner, Ago 2014, Best Practices to Drive Cost and Value Optimization for Infrastructure and Operations.

Siga o coelho branco

A indústria de TI – Tecnologia da Informação – vem impactando as estruturas e estratégias dos negócios faz algum tempo. O que antes era visto apenas como automação de processos tem se tornado uma ferramenta de transformação. Isto é fato. Os gestores de TI tem tido cada vez mais desafios em elevar o tema à agenda da alta direção que começa a entender a área não apenas como um centro de custos. Cabe a estes profissionais e me incluo no grupo, olhar o menu de opções e buscar as inovações mais relevantes ao tipo e ao momento do negócio. Nosso atual cenário relativo à política e economia (esta é a sequência mais correta pois a primeira impacta na segunda), conduz a um maior ceticismo com relação aos nossos gastos. Olhar para o futuro, lembrar do passado como base para agir no presente pode ser uma boa postura.

Adotar ou não adotar esta ou aquela tecnologia, ser mais ou menos agressivo nas inovações, ser o pioneiro em uma tendência ou aguardar com cautela para sentir os impactos. Estas questões estão em evidência nos pensamentos dos executivos diante da pressão por redução de investimentos e despesas.

São muitos os “candidatos em inovação tecnológica” diante de recursos escassos.

Recursos como pessoas, tempo e dinheiro. As novidades em termos de gestão da informação, ligadas ao impulso que podem dar aos negócios, tem sido destaque das discussões sobre administração.

Como exemplo, eu poderia ter usado para o título deste texto a frase “Ascenção e queda do CRM – sigla do inglês Customer Relationship Management ou Gestão de Relacionamento com os clientes”, só para citar uma delas. Confesso que já foi um tema bastante quente, digamos assim. Quando lembro das promessas de melhoria na qualidade do relacionamento com o mercado e vejo hoje a relação dos campeões de reclamações em sites como o “Reclame aqui” me pergunto qual parte do filme eu perdi. Ainda mais quando os campeões de audiência – os 5 primeiros – são empresas de TI.

A partir disto, vamos então exercitar o olhar para o futuro como direção, analisar o passado e seus resultados versus as promessas feitas.

O poder da captura, armazenamento, tratamento e distribuição de informação na era da Internet está tomando uma dimensão muito maior do que no passado,

com fontes de dados muito mais polarizadas e disponibilizadas na maioria das vezes de graça. Imagine a imensidão de dados em áreas como varejo, bancos, hospitais. O conceito por traz do tema “Big Data” considera modernas tecnologias para a gestão dos dados estruturados. Além disto e o mais fascinante, dos dados não estruturados ou não estruturáveis, somando-se ao pacote complexos algoritmos, o uso de inteligência artificial e o domínio da estatística, o que torna tudo isso fascinante.

Lembro-me dos primeiros textos sobre BI – Business Intelligence ou Inteligência de Negócios – surgindo muitos anos atrás como maravilhas em potencial para mudanças nos negócios. Assusto-me com frequência o quão amplo estas duas palavras tem se tornado. Praticamente a “bala de prata” que irá catapultar seus negócios para os potes de ouro ao final do arco íris.

Lecionei muitos anos a disciplina de TI aplicada aos negócios para a faculdade de administração. Um dos textos campeões de audiência durante minhas pesquisas de mestrado trazia como título:

o que cerveja tem a ver com fraldas

Reproduzo aqui o início do artigo: “Você acredita em ETs? E num investimento que dá um retorno médio de 400% em três anos? O responsável por tal façanha, segundo um estudo do respeitado International Data Corporation (IDC), é o mais novo fetiche tecnológico do mercado: chama-se armazém de dados ou, em inglês, data warehouse. Basicamente, é um sistema de computadores onde ficam guardadas todas as informações da empresa. Nele, os executivos podem obter, de modo imediato, respostas para as perguntas mais exóticas e, com isso, tomar decisões com base em fatos, não em meras intuições ou especulações misteriosas.”

Na época utilizei este mesmo texto em minhas aulas sobre criação de vantagens competitivas. No entanto, destacando a importância do papel do analista da informação ou seja, para os meus alunos e futuros gestores, era importante considerar este perfil profissional como oportunidade de carreira para um administrador. Explicava eu que poderíamos dar as mesmas bases de dados a várias pessoas e com certeza, os resultados a partir das análises seriam muito diferentes. E aí estaria o “pulo do gato”.

Atualmente tenho revisado minhas pesquisas sobre o uso inteligente da informação como alavanca para superação nos negócios e tenho encontrado muitos textos ligados à “Big Data”. O autor Salim Ismail sustenta na sua obra “Exponential Organizations” que a busca por novas fontes de informação para sustentar novas companhias e negócios seria a essência da revolução rotulada como “Big Data”.

Encontrei padrões entre as aulas que ministrei no passado e estes textos no presente. Um dos artigos que selecionei, publicado nos periódicos da Harvard Business Review em Outubro de 2012 intitulado “Data Scientist: The Sexiest Job of the 21st Century” dos autores Thomas H. Davenport e D.J. Patil, alerta que a falta de profissionais estava sendo uma restrição aos avanços desta tecnologia, mostrando o poder das análises de grandes massas de dados. Analisando com calma, acredito que a essência continua sendo a mesma ou seja, a sagacidade do analista destes dados, que no artigo é carinhosamente chamado de “Cientista de Dados” é o fator de maior ou menor sucesso. Em um dos trechos do artigo, as “sacadas” foram obtidas analisando-se os dados do LinkedIn. A partir delas, novas funcionalidades no portal levaram ao aumento de hits de forma significativa e portanto, agregaram valor ao “negócio”, que é o tema central deste ensaio.

As possíveis aproximações sugeridas pelos algoritmos escritos pelo “Cientista de Dados”, criaram ações automáticas. Como exemplo mostrado no artigo, se você conhece Inácio e Ana (mudei um pouco os nomes para dar mais nacionalidade ao texto), existe alta probabilidade de que eles se conheçam. A partir disto, começam as sugestões de novas conexões. A teoria acabou virando uma funcionalidade padrão do site. O resultado foi uma atração maior para os “anunciantes”. A nova funcionalidade chamada de “Pessoas que você talvez conheça” alcançou uma taxa de cliques (click-through) 30% maior do que a taxa obtida por outros avisos. Estas “sacadas” foram obtidas pelo PhD em Física por Stanford, Jonathan Goldman que desempenha este papel do profissional chamado de “Cientista de Dados”. Neste caso, cientista no sentido literal da palavra. O título, que confesso ser um pouco sem graça, foi inventado em 2008 por D.J. Patil e Jeff Hammerbacher, e novamente surge como a “oportunidade do século” nos ciclos de capacitação e cursos on-line.

Aprendi ao longo destes anos lidando com grandes projetos de TI que, cada momento corporativo e de mercado demandam por abordagens específicas, o que em outras épocas era chamado carinhosamente de “alinhamento de estratégias de TI com estratégias de negócio”. Diante de uma frequência ainda mais forte de inovação como nos tempos atuais, um olhar crítico deve superar o olhar romântico dos apaixonados pela tecnologia. Tecnologia por si só não agrega o devido valor à empresa. Portanto, o investimento deve considerar também processos, pessoas, métodos e indicadores de acompanhamento e ajuste. Em momentos de escassez de recursos, é recomendável paciência e análise para conter impulsos na adesão das novas ondas. Cabe a você gestor de negócios (e não apenas de TI), decidir qual o caminho e a partir dele quais escolhas fará para obter o melhor resultado.

As cartas estão na mesa.

Quem mexeu na minha memória?

Chegamos no momento em que a virtualização não é mais novidade, você já possui um ambiente virtual, e boa parte do seu ambiente já está rodando em uma plataforma de virtualização. Parabéns!

Agora, houve aquele dia que você abriu o gerenciador de tarefas do seu Windows Server e se deparou com algo assim?

5140.clip_image002_thumb_420795F0

 

Não vou falar para você ficar tranquilo, de forma alguma, afinal, em algum momento isso pode se tornar um problema para o seu ambiente. Mas afinal, o que é está consumindo a memória do seu servidor? Você naturalmente vai na guia “Processes” para encontrar o vilão e…

1157.clip_image004_thumb_65C5DEEC

Não encontra o vilão!

Para identificar em qual cenário de problema onde você se encontra, você deve utilizar uma ferramenta chamada RAMMap. Após realizar o download da ferramenta para o seu servidor, abra a ferramenta, e observe como está o uso da memória pela memória virtual marcada como Driver Locked:

3666.clip_image006_thumb_12DACBBB

Pronto! Achamos o vilão!

Não se assuste, embora seja necessário um conhecimento mais especializado investigar algumas causas do uso de memória virtual, a alocação da memória por Driver Locked é comum em ambientes virtuais. Esse comportamento é gerado por recursos do próprio virtualizador, quando utilizado o VMWare, o Balloon é o responsável por essa alocação de memória, quando utilizado o Hyper-V o responsável é o Dynamic Memory.

Talvez isso não seja um problema, mas sim, uma característica da sua infraestrutura virtual. Isso geralmente ocorre quando fazemos overcommit de memória, basicamente, quando alocamos mais memória do que temos disponível para a VM.

Caso o seu ambiente este apresentando degradação neste cenário, duas ações são possíveis:

  • Redimensionar a configuração de memória das suas máquinas virtuais menos críticas, privilegiando o ambiente mais crítico para o negócio, ou;
  • Realizar upgrade de hardware.

Existe uma terceira alternativa, para clientes de ambientes UOLCLOUD, basta realizar o upgrade de µVM’s.

Multicloud: muito mais que infraestrutura

Computação multicloud representa uma nova fronteira para profissionais de TI.
multicloud pode ser considerada uma estratégia de uso concomitante de dois ou mais serviços de nuvem para minimizar o risco de perda de dados, tempo de inatividade, otimização de custos e principalmente adequação da nuvem certa para cada aplicação. Essa estratégia também pode melhorar o desempenho global da empresa, evitando “vendor lock-in” e usando diferentes infraestruturas para atender a diversos desafios.
Lembre-se, não existe uma nuvem que atenda todas as necessidades das aplicações e não são todas aplicações que se adaptam a qualquer nuvem.

É praticamente impossível para um provedor de nuvem suportar todas as necessidades das empresas, o caminho é oferecer múltiplas nuvens com um leque amplo de ofertas de serviços.
Um ambiente multicloud pode oferecer diversas vantagens, de um ambiente de nuvem privada a todo leque e ofertas das nuvens públicas. Ter diversas nuvens também pode reduzir o risco de perda de dados ou tempo de inatividade por causa da falha de um único provedor. Mas para tirar proveito dos benefícios multicloud, você necessita gerenciar, monitorar e controlar os custos.

A estratégia multicloud é muito mais que oferecer redundância de hardware, software e infraestrutura necessária para tolerância a falhas e sim servir de forma adequada a cada necessidade das aplicações e por consequência os desafios do negócio.

Multicloud exige planejamento e gestão cuidadosos.

Se você deseja implantar multicloud, entenda que os pontos mais sensíveis são o gerenciamento e a gestão de diversos ambientes estruturalmente diferentes, cuja integração de billing, monitoramento e capacity plan são alguns dos grandes desafios.

Multicloud deve suportar uma combinação de serviços e fornecedores de diferentes, oferecendo uma série de vantagens, com uma grande otimização de custos e complexidade.
O primeiro passo no planejamento e realizar um levantamento cuidadoso da maturidade das aplicações em relação a seu uso em nuvens e atribuí-las a um modelo de nuvem que melhor atende seus requisitos, uma vez o levantamento realizado você pode definir qual fornecedor reunirá a maior parte das suas aplicações e torna-lo seu fornecedor primário.

O tipo de serviço que seu provedor primário oferece, software como serviço (SaaS), plataforma como serviço (PaaS) ou infraestrutura como serviço (IaaS) deve ser a base do modelo de nuvem em torno do qual você deve planejar o caminho para o seu ambiente multicloud.
Some ao que comentei acima a necessidade de ter clareza dos custos envolvidos, para cada ambiente que deverá suportar um aplicativo é fundamental validar qual provedor de nuvem pode suportar melhor a aplicação e qual é o custo associado.

Provedores multicloud são a melhor opção para suportar estes novos desafios.