sexta-feira, 6 de dezembro de 2013

Gerenciamento de Serviços de TI

O CIO pós-PC precisa priorizar tarefas, tomar decisões sobre os prazos com base em evidências reais. Ele também precisa cumprir as promessas, gerenciar os riscos, ser persuasivo, empreender soluções para os problemas e não ter medo de inovar. Os projetos de IT Service Management (ITSM) exigem que o CIO tenha menos orgulho da complexidade tecnológica existente e realize mais ações de simplificação. É fundamental para o sucesso de um projeto de ITSM o entendimento que ele é menos relacionado com a tecnologia e mais com os processos. É preciso entender um conceito que é óbvio, mas que é largamente ignorado. Se o gerenciamento de incidentes não funciona no papel, não é a tecnologia que vai resolver. Antes de baixar um pacote de melhores práticas como o ITIL é preciso fazer a lição de casa e envolver os influenciadores e as pessoas impactadas no desenho do projeto. Caso por qualquer motivo, o processo apresente falhas, o envolvimento e participação das pessoas, vai fazer com que seja possível identificar a causa raiz e encontrar uma solução de contorno. A inteligência coletiva vai permitir uma rápida evolução do processo e início de ciclo de melhoria contínua para cada interação.

 Falsos profetas

Como em todos os projetos vão existir forças de resistência. Muitas pessoas não vão colaborar e várias vão ter medo das novidades. Aprender a lidar com o medo do novo e dissonância cognitiva é fácil. A comunicação honesta e transparente gera o alinhamento político pelo entendimento. Membros da equipe que fingem adesão e tem atitude em relação ao projeto pautada apenas pelo sucesso ou falhas precisam ser reavaliados.

É preciso ter um time orgulhoso com a mudança proposta. Um projeto de ITSM pode ser extremamente difícil se membros da equipe entenderam que é melhor deixar as coisas como estão. É comum encontrar os caçadores de culpados que assumem que tudo o que foi descrito nos livros de melhores práticas deve ser seguido rigidamente para os novos processos e os problemas são sempre causados pelos usuários.

É preciso evitar a contratação para a equipe do projeto de profissionais sem capacidade de comunicação. Em geral, eles incapazes de manter o foco na tarefa programada. Também devem ser evitadas as pessoas que tradicionalmente mantêm uma agenda oculta em relação à iniciativa. Estes profissionais apenas pareceram que estão do lado do projeto. As incertezas em relação às motivações destas pessoas geram problemas que em geral são insolúveis. Também existem as pessoas que insistem que o projeto é apenas um truque de modismo ou marketing.

O perfil de membros da equipe que oscilam facilmente de posição conforme o sucesso ou falhas normalmente são a primeira causa da sabotagem da sustentabilidade de longo prazo da iniciativa de ITSM. Como todos nós sabemos, estas forças fazem parte da cultura organizacional das empresas. É este cultura que faz com que pequenas mudanças sejam sempre mal entendidas pela interpretação errônea.

Muitas vezes apenas os conceitos envolvidos criam tanta discussão e comentários que a ideia é inviabilizada. O tempo do CIO não pode ser monopolizado para responder perguntas como: Quando será feito? Porque ninguém o discutiu o assunto comigo? Quem vai decidir sobre as mudanças nos perfis profissionais? Estas situações causam danos graves aos trabalhos do projeto. O equilíbrio cultural de uma organização passa pelas pequenas coisas conquistadas diariamente pelas mudanças e ideias. As ondas de perturbação causadas pelas mudanças são dissipadas rapidamente pelo canal de comunicação permanentemente aberto. A colaboração coletiva das pessoas para os assuntos de ITSM fazem com que cada problema do processo de mudança seja seriamente entendido e resolvido.

TI oculta

É muito comum encontrar CIOs afirmando que existem sistemas ocultos rodando no ambiente suportado. Entregar qualidade comprovada para o desconhecido é muito difícil e é a causa raiz do fracasso de milhares de projetos de ITSM. Os usuários não querem saber se são sistemas ocultos que rodavam na infraestrutura sem o conhecimento do suporte ou se são programas identificados e plenamente conhecidos. Eles querem qualidade de entrega. Não são admitidas perdas com o projeto.

Isto significa que é preciso perguntar sobre todos os sistemas em uso no gerenciamento de configurações no início do projeto para que não existam interrupções nos sistemas porque foi adotada uma melhor prática. Um bom estratagema para evitar o problema da TI oculta é conversar com os donos dos serviços de negócio e descobrir quais sistemas estão sendo utilizados pela empresa em todos os locais. Redes de varejos precisam considerar as pequenas lojas também.

Uma vez identificados todos os sistemas é possível usar os padrões da ISO/IEC 20000 para determinar se a qualidade proposta endereça a necessidade. Se sim, o processo é formalizado. Se não, é desenvolvido um projeto de transição para o processo. Este é caminho mais efetivo para construir a confiança no projeto diante das incertezas da TI oculta. É preciso considerar tudo o que está trabalhando bem, endereçado as metas e satisfazendo os usuários no projeto de ITSM. Isto inclui a SHADOW IT.

Resistências

É preciso enfrentar as resistências contra o projeto ativamente. O principal objetivo deste trabalho é vencer o desafio de comunicar com clareza todos os aspectos do projeto e criar um balanceado nível de entendimento das motivações e resultados. É fundamental que os colegas percebam que o diálogo franco e direto é o melhor caminho e que o CIO está escutando com muito cuidado todas as observações. Todos na organização precisam descobrir pela coerência dos propósitos que o projeto não é uma ameaça para o seu emprego. O CIO precisa trabalhar com vigor para assegurar que o projeto endereça as expectativas e sentimentos de todos os impactados e influenciadores. Para fazer isto é preciso escutar com atenção todas as conversas. Sempre é bom deixar claro que todos estão no mesmo barco.

Gestão das sugestões
 
É muito provável que o CIO receba várias opiniões sobre o gerenciamento dos serviços de TI. O CIO deve ser capaz de escutar, mas precisa ter em mente que ele será cobrado pelo prazo de entrega do projeto e que todos vão cobrar o cumprimento do cronograma. Isto inclui os que fizeram sugestões. Nunca esqueça que a empresa em todas as esferas quer o projeto entregue. Existem razões diferentes, mas todos querem um final feliz. Isto significa que o suporte para os donos dos serviços e processos precisa ser planejado e entregue com todos lendo a mesma página do trabalho. As sugestões para a adoção do ITSM devem ser bem vindas, no entanto a chave para levar o projeto para o sucesso depende da habilidade de filtro e negociação para que as principais expectativas dos influenciadores sejam entregues dentro da proposta de orçamento, cronograma e qualidade.

Controle, Transparência e Previsibilidade (CTP)

É fundamental que o CIO seja claro e honesto com o projeto. É melhor ser honesto sobre os reais propósitos da iniciativa e não agradar a todos do que enfrentar um verdadeiro turbilhão de pressão das pessoas durante a execução do projeto. Nunca ceda à tentação de falar sim para tudo. Sempre use dados reais e confiáveis para tomar decisões. Usar a intuição para decidir vem comprometendo o sucesso de diversas iniciativas de ITSM. Busque sempre advogar as decisões com coerência, honestidade e transparência. O escopo e Service Level Agreement (SLA) proposto pelo projeto só pode ser alterado via gerenciamento de mudanças. O projeto não é uma receita de bolo ou conjunto de instruções ou corpo de conhecimento. Não faz parte do âmbito da iniciativa manter um esforço de flexibilidade pleno para o escopo. As alterações do escopo e gols devem ser feitas dentro do possível desde que não exista comprometimento da qualidade do projeto.

 

 

 

sexta-feira, 22 de novembro de 2013

ERROS COMUNS NO DESENVOLVIMENTO DE SOFTWARE

Fuga da realidade

O gerente e time do projeto precisam ser capazes saber dizer sim e não para as solicitações de mudança do escopo. Em vários casos é preciso negar à mudança do escopo e colocar ela na fila da próxima versão ou atualização. É preciso entender que mudanças contantes no escopo mantam um projeto. A soma de diversas solicitações gera o problema do estouro. O conjunto de inocentes pequenas mudanças sem novos recursos e aprovações ampliam sobremaneira os requisitos do projeto e impactam o prazo, custo e qualidade. Mudanças contantes levam o prazo de entrega para muito longe do requisito inicial e aumentem fortemente os custos. Muitas vezes a qualidade do software é negligênciada pela falta de tempo para os testes.

Universo das mudanças

O primo problemático das mudanças contantes do escopo é a sua amplitude. Existem muitos projetos que são grandes demais e tem escopo com amplitude de cobertura demasiada. Em geral é melhor nestes casos escolher projetos de menor porte que avançam em passos menores até que o portfólio dos projetos entregue o escopo amplo desejado. É importante que o escopo trabalhado seja bem definido e fácilmente gerenciavel. Desta força é possível definir com clareza as tarefas necessárias para as entregas e estabelecer pontos para a passagem de bastão para o próximo projeto entregar o incremento do escopo total desejado. Em diversos casos os projetos massivos de dados como o big data fracassam pela complexidade ou pela dificuldade do usuário final de absorver tamanho volume de conhecimento. Em vários casos, as pessoas que cuidam do dia a dia da iniciativa não tem condições de aprender simultaneamente o software e as mudanças do negócio.

Comunicação pobre

Existem boas razões para não convidar todos os membros para todas as reuniões do projeto. No entanto, não existe justificativa para não comunicar com clareza as decisões tomadas. A maioria dos projetos de software fracassado passa por decisões discutidas e tomadas sem o conhecimento de todos os membros do projeto. O desconhecimento das decisões tem com como resultado um produto que não endereça os requisitos. Não tem sentido algum em manter requisitos secretos.

Foco na forma

Muitos projetos fracassam dramaticamente porque a funcionalidade real da aplicação é tratada com menos ênfase que o formato do painel de instrumentos. É muito fácil errar no endereçamento dos requisitos quando o formato do painel de instrumentos é desenvolvido antes da finalização de todas as funcionalidades requeridas pelo projeto. É evidente que se o alvo do projeto for desenvolver o formato de um painel de instrumentos, este objetivo deve ser entendido como a funcionalidade requerida.

Capital intelectual jogado no lixo

As falhas da gestão em escutar o capital intelectual colaborativo já levaram milhares de projetos de software para o fracasso. Muitos gerentes preferem fuzilar os mensageiros que querem ajudar na solução dos problemas enfrentados pelos desenvolvedores do que resolver o cenário descrito no conteúdo da mensagem. São pessoas que entendem que desconhecer o problema é o melhor caminho. Todos os gestores que pensam sabem que quanto mais cedo um problema for enfrentado, a sua solução será mais fácil e barata. A escolha de caminho não funcional para o gerenciamento limita o projeto do desenvolvimento do software. A demora excessiva para corrigir os erros encarece fortemente o custo total.

Alocação falha de recursos

Muitas vezes nos projetos fracassados, as pessoas contratadas para uma determinada atividade são desviadas para trabalhar em iniciativas completamente desvinculadas da proposta. Não é preciso ser um gênio em gestão de projetos que este desvio desnecessário gera atraso e aumento do custo.

Promessas exageradas

Prazos irrealistas e promessas otimistas ao excesso dos vendedores são duas das principais causas dos fracassos nos projetos de software. Muitos profissionais falam “sim” para todos os pedidos dos usuários sem pensar nas conseqüências de médio e longo prazo. Este é o caminho mais rápido para a insatisfação, frustração e decepção. Projetos conduzidos irresponsavelmente rapidamente naufragam. Em geral. Nestes casos, o time de desenvolvedores passa a gastar todo o seu precioso tempo justificando os prazos pouco realistas.

Tecnologia errada

Muitos desenvolvedores ávidos por novidades escolhem tecnologias inadequadas para os projetos de software. Bons programadores conseguem equilibrar as ações e resultados com as novidades. A nova tecnologia oferece vantagem relevante para o projeto? Esta sendo adotada uma tecnologia que já apresentou problemas em outros países? Não é fácil escolher o estado da arte correto da tecnologia de um projeto de software. Este é o principal motivo pelo qual é preciso selecionar um time experiente formado nas boas escolas de engenharia para levar o projeto para o sucesso. Muitos desenvolvedores inexperientes ou despreparados escolhem para os seus projetos de software tecnologias em estado beta lançada no mês passado para não ter custo de licenças. Em todos os casos este estratagema é o caminho mais rápido para o fracasso.

Fazer ou comprar

Muitos desenvolvedores preferem projetar e desenvolver as suas próprias ferramentas de gestão e bibliotecas de rotinas padrões. Uma das principais desvantagens de reinventar a roda em relação aos frameworks e biblioteca padrões é a perda da inteligencia coletiva do mercado. Ferramentas de gestão e bibliotecas de rotinas padrões de mercado são otimizadas no desempenho e qualidade. É possível economizar muito tempo e dinheiro em desenvolvimento e testes com a utilização de soluções prontas de mercado. O desenvolvedor que não reinventa a roda e foca o seu tempo na essência do software gera um resultado melhor e mais barato. Os engenheiros experientes formados nas boas escolas de engenharia são excelentes desenvolvedores porque eles têm a mente de empreendedores na execução das tarefas dos projetos. Eles não perdem tempo. Eles usam sempre que possível rotinas otimizadas de alta qualidade.

Protótipo errado

É algo óbvio, mas infelizmente é um erro comum. O time de desenvolvimento que esta trabalhando no protótipo de uma aplicação precisa escrever funcionalidades iguais ao sistema do projeto real. A línguagem e tecnologia do protótipo podem ser diferentes do sistema que está sendo projetado, no entanto, as funcionalidades precisam ser iguais para que o trabalho não seja jogado fora. O protótipo é sempre uma imagem virtual do produto real que está sendo desenvolvido. Não tem sentido algum usar uma estrutura de banco de dados diferente no protótipo. Isto é apenas tempo e dinheiro jogado no lixo. Para fácilitar o protótipo é válido usar um banco de dados diferente do produto desde que seja possível fazer a sua migração de forma fácil e transparente. É um estratagema que reduz ao mínimo o trabalho no protótipo é permite maior velocidade na sua entrega para os usuários. As pessoas vão poder com isto realimentar o projeto com as suas impressões e com isto fazer ajustes e correções no escopo, nas funcionalidades e nas facilidades dentro do cronograma e orçamento previsto.

terça-feira, 29 de outubro de 2013

O datacenter é nosso. Com brasileiro não há quem possa.


Na última semana de Outubro de 2013 a Câmara dos deputados deve iniciar a votação do marco civil da internet. Depois do Snowden foi incluído no projeto um dispositivo para que os dados dos brasileiros sejam armazenados no Brasil. Foi revelado que o deputado federal Molon afirmou no dia 18 de setembro de 2013 que o governo do PT pretende obrigar o armazenamento dos dados dos brasileiros no Brasil pelas grandes empresas multinacionais de internet porque essa é a única língua que os Estados Unidos entendem (Relator do Marco Civil da Internet defende pressão financeira contra espionagem, http://www1.folha.uol.com.br/poder/poderepolitica/2013/09/1343807-entrevista-com-alessandro-molon.shtml, acessado em 29/10/2013).

Grandes empresas de redes sociais como Google, Facebook, LinkedIn e etc. serão afetadas com a medida, pois poderão ser obrigadas a construírem no Brasil datacenters. Em função da pressão contra as inconsistências da justificação, foi criada uma nova interpretação para justificar a medida polemica.  A argumentação da necessidade de segurança jurídica para o armazenamento dos dados dos brasileiros no Brasil (foi revelado que os partidários da exigência da instalação de centros de dados dentro do país entendem que é a forma de fazer com que as grandes empresas internacionais de internet cumpram a legislação nacional. Fonte: Com marco civil, governo vai insistir em armazenamento local de dados da internet, http://tecnologia.uol.com.br/noticias/reuters/2013/10/28/governo-vai-insistir-em-armazenar-dados-da-internet-localmente.htm, acessado em 29/10/2013) cai por terra quando olhamos as argumentações utilizadas pelo grupo de artistas “Procure Saber” para querer a censura nas biografias no Brasil.

Os artistas do grupo “Procure Saber” justificam a sua solicitação de manutenção da censura das biografias não autorizadas pela demora da justiça brasileira em julgar e condenar as inverdades que eventualmente fossem publicadas. Qual o sentido de postular mais uma atribuição para uma justiça brasileira que é extraordinariamente lenta?  Lembro que a clara inconstitucionalidade do plano Collor do começo dos anos 1990 não foi julgada pelo Supremo em 2013.

A base governista ainda não entendeu que a ausência destes datacenters no Brasil está relacionada com a fraca competitividade e produtividade nacional. Foi revelado que na opinião da Brasscom, o mercado de datacenters no Brasil vai crescer naturalmente pela evolução da competitividade (Armazenamento local de dados: a nova batalha no Marco Civil, http://idgnow.uol.com.br/blog/circuito/2013/10/25/armazenamento-local-de-dados-a-nova-batalha-no-marco-civil/, acessado em 29/10/2013).

O Brasil perdeu para o Chile o primeiro datacenter da empresa Google na América Latina por estes dois motivos.  Claramente o ambiente de negócios nacional é uma barreira para a indústria do conhecimento.  Foi revelado que o Calegari afirmou que o mercado chileno de tecnologia de informações é bem mais maduro que o brasileiro (Google escolhe Chile para seu primeiro data center na América Latina, http://computerworld.uol.com.br/tecnologia/2012/09/06/google-escolhe-chile-para-seu-primeiro-data-center-na-america-latina/, acessado em 29/10/2013).

É muito fácil observar este fenômeno na comparação entre a indústria de manufatura automotiva e a do conhecimento. Tanto para datacenter como para automóveis a indústria enfrenta problemas de impostos elevados e outras barreiras tributárias do Brasil em relação ao Chile. No entanto, estas limitações não impediram que os gigantes do setor automobilístico como a Mercedes escolhessem o Brasil para as suas fábricas.  Estas empresas fizeram tal escolha porque elas podem automatizar todos os processos e usar a mão de obra nacional apenas para as atividades operacionais.

No caso do datacenter a mão de obra precisa gerenciar a estrutura com conhecimento e inteligência para que os serviços oferecidos sejam de alta qualidade dentro do padrão mundial de empresas como a Google. A grande vantagem do Chile é que ele conta com engenharia forte e qualificados profissionais de TIC. O Brasil com engenharia moribunda e foco em certificados elementares não é competitivo em termos de qualificação. Este é o real motivo pelo qual as grandes empresas de redes sociais são resistentes em instalar um datacenter no território nacional.  Elas sabem com clareza das limitações da qualificação da mão de obra nacional.

A Câmara deveria olhar holisticamente o fenômeno e fazer as mudanças necessárias na indústria brasileira de educação.  As empresas como Facebook, Google LinkedIn e etc. vão em função da fraca competitividade e produtividade do setor de TI nacional escolher fechar a sua representação no Brasil e operar no seu modo inicial aqui no Brasil.  Foi revelado que o Garotinho disse que o Magrani afirmou que a exigência de armazenamento dos dados no país inviabiliza a operação atual do Facebook no Brasil (Facebook teme mudanças na lei, diz deputado Anthony Garotinho, http://www1.folha.uol.com.br/poder/2013/10/1361363-facebook-teme-mudancas-na-lei-diz-deputado-anthony-garotinho.shtml, acessado em 29/10/2013).

Para as grandes empresas de internet a mudança para o modo sem escritório de representação não é tão grande assim. É bastante claro que o grande perdedor desta disputa será o brasileiro. A Brasscom e a camara-e.net entendem que a obrigatoriedade no armazenamento dos dados dos brasileiros no Brasil impactará negativamente a competitividade do país durante algumas décadas (Armazenamento local de dados: a nova batalha no Marco Civil, http://idgnow.uol.com.br/blog/circuito/2013/10/25/armazenamento-local-de-dados-a-nova-batalha-no-marco-civil/, acessado em 29/10/2013).

segunda-feira, 28 de outubro de 2013

Espinhos do big data

Até o momento muito tem sido falado sobre as vantagens do big data. No entanto, muito pouco é dito sobre as desvantagens. Com o big data duas pessoas ou até mesmo uma mesma pessoa usando dispositivos diferentes podem ter que pagar preços diferentes para os mesmos produtos nos portais de comércio eletrônico.  Isto acontece porque o preço ao consumidor está sendo influenciado pelo perfil. Usuários da Apple em geral tem na tela dos seus computadores preços mais caros do que outras plataformas.

 O consumidor precisa estar atento com esta nova característica do comércio digital para não pagar mais caro pelos produtos ou serviços apenas porque tem um perfil de maior rendimento. O big data oferece a vantagem da  individualização dos clientes. No entanto, este benefício deveria ser utilizado pelos gestores para  aumentar vendas e não para subir preços conforme o perfil. É evidente que esta distorção gerencial vai gerar no médio e longo prazo uma oportunidade de negócio.

Se um perfil de maior renda continuar a gerar um preço maior para os mesmos produtos no comércio digital,  então os perfis de menor renda serão utilizados para as compras digitais.  Estes perfis poderão ser utilizados por intermediários para oferecer descontos nas compras para as pessoas de mais renda e usuários Apple.  Eles podem viabilizar o negócio cobrando uma ínfima parcela da diferença de preços e entregar os produtos para as pessoas de maior renda.

A continuidade deste processo vai distorcer de tal forma a vantagem da individualização do big data que em vários ele vai perder à sua serventia. Os portais de comércio digital precisam urgentemente revisitar à sua estratégia antes que o mercado responda com a inviabilização do investimento no big data. Para o momento é recomendável que os consumidores consultem os preços dos produtos e serviços utilizando computadores e perfis diferentes para que não paguem preços mais caros pelos produtos e serviços adquiridos.

quinta-feira, 24 de outubro de 2013

FUTURO DA NUVEM

A revolução da nova TIC baseada em serviços e conexão total esta fazendo com que a internet das coisas cresça em velocidade abismal. Por volta de 2025 teremos nuvens conectando e integrando todos os objetos à nossa disposição. Isto inclui os objetos de uso pessoal como carros, relógios, roupas, sapatos, óculos e etc. De uma forma planejada ou não, as pessoas vão ser o centro do universo virtual. Tudo o que os nossos olhos veem poderão ser processados e armazenados nas nuvens por exemplo.
 
Apesar da aparência, não será uma conexão do cérebro com a nuvem. O cérebro humano vai comandar interfaces sensoriais dos diversos dispositivos através dos olhos, voz, mãos, nariz, expressões e etc. É possível afirmar que as pessoas vão comandar um exocerebro. A mão dupla da comunicação vai amplificar os sentidos humanos. As pessoas vão poder processar o que está acontecendo nas suas costas ou até mesmo escutar conversar distantes por exemplo. Isto significa que a capacidade cognitiva do cérebro humano vai ser catapultada para um nível superior pela ampliação do reconhecimento. Ao ver uma pessoa o óculo pode imprimir na tela a sua ficha e alimentar o cérebro da pessoa com várias informações.

As nuvens acelerarão a evolução da tecnologia para uma velocidade enorme. Com os bilhões de padrões para os comandos de voz armazenados nas nuvens, os engenheiros podem desenvolver interfaces de comunicação cada vez mais simples e naturais. É possível acreditar em décadas cada vez mais prosperas para as tecnologias mais promissoras. O carro inteligente é sem sombra de dúvida uma conquista bastante próxima. Até o ano de 2020 ele estará circulando nas ruas e estradas.

O nível avançando da capacidade interativa da tecnologia habilita uma intensa integração do ser humano com o exocerebro. Os segredos da linguagem corporal vão ser revelados para os interlocutores em tempo real e um observador externo poderá chegar facilmente à falsa conclusão que a tecnologia chegou ao estágio de ler mentes. Na realidade existe apenas uma técnica de Big Data para a leitura corporal. Eu não tenho dúvida que em 2018 este tipo de tópico vai ser o centro da atenção da participação do grande público.

O saber profundo recorrente da linguagem e cognição corporal vai fazer parte da hierarquia dos modelos de previsão e a nuvem vai ampliar os sentidos humanos na habilidade de comunicação. O relacionamento com coisas como lojas, produtos e serviços vai ser baseado na eliminação da distorção das informações. Os relacionamentos e conversas vão acontecer em patamar diferente, pois tudo poderá ser gravado indexado e armazenado. As facilidades de recuperação das informações vão inibir as mentiras.

A ligação em tempo real da nuvem com as pessoas vai influenciar todas as discussões. A fortificação da presença dos fatos vai destruir em segundos os achismos, ilusões e delírios. O mundo vai parecer daqui a 30 anos um lugar completamente diferente do que é agora. O esquecimento vai acabar. Ou as pessoas fazem ou deixam de fazer algo. Sempre será uma escolha. Uma Parte das manchetes filosóficas vai ter forte implicação ética. Qual será o limite da privacidade onde tudo pode ser gravado e recuperado? Qual o papel do governo? O que é previsão e o que é bisbilhotice? Certamente o mundo novo não será um lugar onde é fácil notar a diferença entre o cérebro e exocerebro que é apenas um supercomputador capaz de reagir à consciência humana.

A simplificação conceitual pode levar para distorções fascinantes. Os fundamentos sociais do exocerebro em nuvem precisam contemplar o fato que Mente humana é responsável pelas respostas da nuvem e a tecnologia é apenas um habilitador do reconhecimento milionário da natureza das coisas do mundo real. Os padrões de reconhecimento da linguagem corporal via sensores utilizados pela nuvem para descrever e revelar os processos cognitivos de várias atividades humanas permitem que o exocerebro crie um conteúdo animado do comportamento social. É preciso entender com clareza que a nuvem não é capaz de criar uma mente humana. Ela apenas oferece uma previsão de comportamento das pessoas em função do Big Data dos padrões. Na prática os computadores da nuvem estão apenas recitando para trás um alfabeto de pedaços de informações que estão armazenados.

Como existem centenas de milhares de padrões, o cérebro humano precisa do processamento do exocerebro para conectar os dados e entender as respostas. A essência da inteligência continua sendo privilégio humano. O reconhecimento de padrões com base na voz, imagem e temperatura corpórea é um trabalho para os programas que rodam em supercomputadores. É preciso combinar a análise estatística com a programação especializada. 

Não existe uma loja de conhecimento para a avaliação dos padrões. Apenas o cérebro humano que trabalha com um modelo hierárquico próprio e ainda desconhecido é capaz de entender o significado das informações e estabelecer relacionamento entre os dados entregues pelo exocerebro. A habilidade da nuvem de armazenar uma quantidade massiva de informações e estabelecer o relacionamento entre as variáveis permite o diagnostico dos padrões de reconhecimento da linguagem corporal e o envio imediatamente das diversas possibilidades. Neste contexto de consolidação das informações, A regra de aceleração do retorno vai fazer com que o cérebro humano encontre a resposta mais confiável entre as alternativas oferecidas pelo exocerebro.

Em 2020s o poder de fogo do processamento não invasivo será tão grande que a nuvem desempenhara o papel de exocerebro para armazenamento e processamento do conhecimento que a escola vai precisar ser reinventada. Toda esta capacidade extra alimentará a criatividade dos alunos ao extremo. Todos os que desenvolverem modelos mentais efetivos para a recuperação das informações em um oceano infinito de dados vão estar em enorme vantagem competitiva. É evidente que as interconexões no cérebro humano vão mudar de formato com o exocerebro da nuvem e estaremos diante de uma geração completamente diferente da anterior pré exocerebro.

Apesar do cérebro adulto já ter diversas interconexões sedimentadas por ligações químicas várias conexões redundantes vão ser desfeitas com a nuvem e o ciclo da aprendizagem adulta também será reformatado para um novo modelo com base na utilização de computadores externos. A lógica de uma loja de varejo vai mudar completamente o processamento de dados na nuvem iniciado por um smartphone. A eliminação de atividades repetitivas de cobrança e pagamento vai fazer com que os estratagemas das lojas fiquem focados no cliente e nas vendas. O exocerebro vai mudar por completo o formato do varejo.

Os óculos digitais podem ser utilizados para rastrear o produto ou serviço e informar o nome das pessoas envolvidas, as condições de trabalho, as perdas e desperdícios de energia e a preservação ambiental. Dentro de cinco anos este tipo de tecnologia será comum para todos os membros da cadeia produtiva. Os consumidores poderão os preços nas lojas próximas e internet em tempo real. As informações rápidas entregues pelo exocerebro as pessoas vão mudar comportamentos e decisões. O carro digital é outro exemplo de mudança no varejo. Ao parar no estacionamento do estabelecimento, a loja ou as lojas recebem a lista de compras do cliente e o consumidor recebe de volta no vidro frontal as resposta sobre a sua lista. Ele pode aprovar as compras dentro do carro e ficar esperando pela entrega ou pegar os produtos na loja. Se o varejo for um posto de gasolina, a loja recebe as informações sobre combustível, água, óleo e etc. E pode realizar todos os procedimentos de forma automatizada.

A nuvem vai fazer com que o oceano infinito de informações seja vasculhado pelo exocerebro com critérios bem definidos. O varejo terá mais informações do imaginou sobre os seus clientes. O processamento em tempo real vai gerar vantagens competitivas muito além do que o menor preço. Reconhecer um cliente, familiares e necessidades vai fazer toda a diferença. O grande problema do excesso de informações é que ele é um manto de invisibilidade. É o mesmo efeito que nunca ter visto. O varejo que conseguir integrar e indexador o vídeo interno da sua loja com a capacidade de pagamento do cliente e os anseios e desejos registrados na nuvem vai ser capaz de vender em 2025 muito mais que os seus concorrentes. Até mesmo o computador que projeta a música ambiente da loja pode ser programado para compor o estratagema próprio da loja. A inteligência e conhecimento vai fazer muita diferença nas próximas décadas.

terça-feira, 22 de outubro de 2013

Escritório de Projetos

Muitos no Brasil entendem erradamente que o Escritório de Projetos é uma estrutura para ficar gritando umas poucas palavras de ordem, impor métodos e metodologias e medir alguns índices muito elementares dos desvios dos custos e prazos dos projetos. A gigantesca quantidade de projetos fracassados no território nacional acima da casa dos 80% mostra a pobreza do resultado conquistado por esta linha de pensamento, entendimento e conduta. Os trabalhos sérios e relevantes sobre o Escritório de Projetos desmistificam as lendas e mitos. Os raros bons trabalhos nacionais apresentam com clareza todos os conceitos envolvidos na criação e manutenção de um Escritório de Projetos em situação de contraste com a visão dos maiores especialistas mundiais do assunto.

O valor agregado de um Escritório de Projetos vem da sua capacidade de medir e evoluir os projetos realizados. Este é caminho das pedras para as justificativas do investimento e respectivo retorno. Os trabalhos relevantes primam pela apresentação de um método simples, pratico e realístico para medir, monitorar e evoluir o desempenho dos projetos, gerentes de projetos e membros da equipe. É uma regra focada no ciclo de melhoria contínua. Uma boa metodologia precisa apresentar resultados práticos expressivos e gerar retorno de investimento. Alguns especialistas talentosos conseguiram com a implantação da estrutura do Escritório de Projetos um retorno de centenas de milhões dólares pelo sucesso elevado na execução de milhares de projetos. Os números revelam o aspecto superlativo do método utilizado pelos profissionais qualificados.

Todo bom trabalho sobre a organização do Escritório de Projetos deve apresentar de forma simples e direta as principais estratégias do mercado para a implementação de um Project Management Office (PMO). Para facilitar o entendimento das estratégias é preciso consolidar os principais conceitos do escritório e explicar a sua relevância e contribuição para o gerenciamento de projetos. Os principais tópicos para iniciar um Escritório de Projetos são:

 
·         O que é um Escritório de Projetos

·         Conceitos e Definições do Escritório de Projetos.

·         Importância do Escritório de Projetos.

·         Organização Lógica de um Escritório de Projetos.

·         Modelos de Escritórios de Projetos.

·         Plano Estratégico do Negócio

·         Atribuições do Escritório de Projetos.

·         Atividades de um Escritório de Projetos.

·         Papeis e Responsabilidades do Escritório de Projetos.

·         Auditar e Avaliar os Projetos.

·         Consolidação das Métricas e Projetos.

·         Complementando os Produtos e Serviços do Escritório.

·         Implementação de um Escritório de Projetos.

quinta-feira, 10 de outubro de 2013

Fantasias e Insanidades

O Brasil é um país muito peculiar. Existem pessoas que acham que a mera repetição de frases de efeito é capaz de causar mudanças. Já foi dito e repetido que fazer as mesmas coisas e esperar resultados diferentes é demonstração de insanidade. Será que a TI nacional tem tais problemas?

Exportação de Software e Serviços

2004 = 126,4 US$ milhões

2005 = 178,0 US$ milhões

2006 = 247,0 US$ milhões

2007 = 313,0 US$ milhões

2008 = 340,0 US$ milhões

2009 = 363,0 US$ milhões

2010 = 1,740 US$ bilhões

2011 = 1,957 US$ bilhões

2012 = 2,244 US$ bilhões

Fonte: ABES/IDC Mercado Brasileiro de Software - Panorama e Tendências 2005 até 2012
 
No início do primeiro governo Lula em 2003 foi fixada como meta a exportação de dois bilhões de dólares ao ano em software. No final de 2006 o MCT admitiu que a meta só seria alcançada em 2007 pelo elevado custo dos encargos trabalhistas e tributos. Fonte: Exportação de software fica aquém dos US$ 2 bi, http://computerworld.uol.com.br/negocios/2006/10/02/idgnoticia.2006-10-02.6241765770/, acessado em 10/10/2013.

Em nenhum momento foi considerado que o real problema do baixo volume exportado era a baixa produtividade. Especialistas como eu que advogavam a tese foram sumariamente ignorados. Após o fiasco inicial,  veio a MP do bem que reduziu os impostos e a da desoneração da folha de pagamento que eliminou o custo dos encargos trabalhistas. Com atraso de nove anos em relação o objetivo inicial, o Brasil conseguiu alcançar em 2012 a meta desejada para o ano de 2003. Em 2012 o país exportou 2,2 bilhões em software. Fonte: Software brasileiro fatura US$ 27 bi e cresce 26,7% em 2012, http://computerworld.uol.com.br/negocios/2013/08/22/software-brasileiro-fatura-us-27-bi-e-cresce-26-7-em-2012/, acessado em 10/10/2013.

Recentemente,  o governo da continuidade da gestão lula afirmou que a meta é multiplicar por oito as exportações de software até 2020. Fonte: TI Maior começa a selecionar startups, http://www.valor.com.br/empresas/3276702/ti-maior-comeca-selecionar-startups?impresso=true, acessado em 10/102013.

Novamente a questão da produtividade pobre vem sendo ignorada.  Será que mais uma vez o Brasil vai fazer a mesma coisa e esperar um resultado diferente? Para aqueles que gostam de insanidades basta lembrar os planos de estabilização da moeda iniciados nos anos 1980s. Todos eles eram essencialmente iguais com congelamentos de preços e salários, feriados bancários e algum tipo de confisco legal ou ilegal. Ate hoje o plano Color aguarda  julgamento no supremo. Todos fracassaram porque eram inconsistentes. O plano real sem confisco,  congelamento,  feriado bancário resolveu o problema porque era matemáticamente consistente.  Ele foi o único que aceitou como premissa básica que o resultado da soma de um mais um era dois. Todos os outros entendiam que o resultado desta soma era um número diferente de dois.

Infelizmente os planos de TI nacionais pecam pelo mesmo problema. Eles querem que uma mão de obra sem qualidade consiga competir com os preparados engenheiros indianos. Em 2012 foi alcançada a meta para 2003. Quando será alcançada a meta proposta para 2020? Eu chuto algo em torno de 2040 e vocês?

segunda-feira, 7 de outubro de 2013

SLA: Verdades e Mitos

Existe uma excelente noticia para o mercado brasileiro. O SLA que até pouco tempo atrás era um ilustre desconhecido, vem sendo debatido com intensidade pelos profissionais de TI. Infelizmente, a boa noticia acaba por aí. Muitos estão criando autênticos mitos sobre o SLA. Em alguns casos existe o imaginário que o SLA gera a imunidade contra as falhas e em outros está sendo parida a falsa ideia de que ele é capaz de conter custos ou estabelecer limites ou parametrizar negociações. Existem alguns casos em que o SLA descrito no contrato é visto como algo desconectado ao serviço entregue.

 O SLA de um serviço de TI nada mais é do que a expressão numérica da realidade da infraestrutura do fornecedor. Em outras palavras é obrigação do prestador de serviço definir realisticamente e objetivamente as condições de entrega. Fornecedores honestos e sérios oferecem os seus SLAs com evidencias de comprovação. É da competência do cliente verificar se os fatos apresentados são capazes de produzir o SLA ofertado. Se o cliente precisa de SLA diferente do oferecido ele tem que ter a consciência que o fornecedor terá que fazer investimentos na sua infraestrutura tecnológica e humana. Em outras palavras, não existe negociação de SLA. É muito raro que um fornecedor faça um investimento para entregar um SLA mais aprimorado para um único cliente. Os casos onde este cenário gera retorno de investimento são raríssimos.

 Entre as evidencias, o cliente deve avaliar o plano de negócio de cinco anos do fornecedor.  É este planejamento que permite que o cliente conheça e entenda como o SLA das entregas será mantido ao longo do tempo. Olhar o plano resolve apenas parte do problema, pois não existe fornecedor capaz de fazer entregas com variabilidade zero. Não adianta ter um contrato afirmando que o tempo de resposta para um chamado é de 10 minutos sem nenhuma variabilidade (por exemplo, +5% e -10%), pois todos sabem que durante um contrato de três anos em diversos momentos, o tempo de resposta será diferente. Este tipo de contrato só gera conflitos e descontos. Este é o motivo porque existem tantas reclamações, multas e quebras de contrato na terceirização no Brasil.

 Se o fornecedor não apresenta um plano de negócio, então o melhor caminho é fugir dele. Se o provedor não tem uma analise estatística dos SLAs entregues atualizada, então ele não é o fornecedor adequado para empresas honestas e sérias. O SLA é base para a decisão de compra de um serviço de TI. O preço é consequência dele. Apesar de o preço incluir os investimentos para manter o SLA dentro dos limites de controle ao longo do tempo. O gestor de TI precisa ir além. O CIO precisa exigir ganhos de produtividade do fornecedor ao longo do tempo. Afinal a repetição dos processos leva a melhoria contínua e a redução do tempo gasto. Portanto, as empresas usuárias de TI precisam negociar os SLAs dentro da realidade, mas em condições de minimização dos custos no longo prazo.

quarta-feira, 2 de outubro de 2013

Avaliação do gerenciamento da capacidade

É possível usar o Distributed Denial of Service (DDoS) na nuvem para testar a capacidade de um site de comercio eletrônico e descobrir como seria o comportamento dele em um pico de demanda. Por apenas dez dólares pode ser contratado um serviço de ataque DDoS concentrado em um minuto que pode ser repetido varias vezes durante um mês. Com poucos dólares podemos testar o desempenho da capacidade de tráfego do portal de comércio eletrônico e avaliar se uma campanha de marketing pode ser comprometida pela limitação da infraestrutura ou ainda descobrir o nível real de elasticidade da nuvem que abriga o seu site.
 
Serviços como a iDDoS Stresser (http://iddos.net) ou Xboot Stresser (https://xboot.net/outside.php) podem ser utilizados para avaliar os limites da capacidade da infraestrutura e desenvolver uma estratégia efetiva para o gerenciamento da capacidade (Capacity Management). O teste de tráfego permite que o negócio avalie os limites do desempenho do portal de comércio eletrônico em uma situação de volume intenso de requisições. Este é momento em que os profissionais de tecnologia descobrem que os ataques tipo DDoS não são um recurso exclusivo de hackers. Eles permitem a avaliação da experiência dos clientes e usuários quando uma campanha de marketing alcança o sucesso.

 A contratação de um serviço para testar a capacidade permite estabelecer uma infraestrutura operacional para o ataque, através dos detalhes de configuração do serviço e das informações sobre os alvos. É um estratagema muito mais eficiente e eficaz do que calcular teoricamente os limites ou descobrir apenas na ultima hora que os servidores e infraestrutura estão sobrecarregados. A interface de configuração destes ataques é muito simples e permite escolher um destino bem definido com diversas intensidades de ataque. Isto significa que é possível escolher diversas técnicas para o ataque e gerenciamento da capacidade. É possível atacar como SYN flood, UDP flood e carga amplificada. Os ataques de HTTP podem ser HTTP POST/GET/HEAD and RUDY (R-U-Dead-Yet) ou carga especifica amplificada como o slowloris para servidores Apache com problemas de configuração.

 As técnicas de ataque DDoS permitem determinar a eficácia do gerenciamento da capacidade ou elasticidade da nuvem. O ataque de UDP flood usando a repercussão da amplificação do ataque DNS permite o teste da resposta para as requisições de DNS em alta escala de trafego nos servidores pelo envio de um grande numero de requisições esquecidas de DNS que incluem o endereço de IP dos servidores como fonte do endereço de IP. O ataque SYN flood é realizado por um elevado número aleatório de requisições por segundo nos endereços de IP spoofed, endereços de IP e portas dos servidores para utilizar toda a memória disponível pela alocação de uma enorme quantidade conexões TCP semiabertas. O twbooter é uma nova tendência para as plataformas de DDoS com preço baixo e fácil e amigável utilização para atacar os portais de internet e medir a sua capacidade real mesmo nos casos onde a infraestrutura dispõe de amplos recursos computacionais e de telecomunicações. Os booters estão endereçando as necessidades de um nicho de mercado permitindo uma maior efetividade no gerenciamento da capacidade e no nível de elasticidade da nuvem.

sexta-feira, 30 de agosto de 2013

COMO EVITAR ESPIONAGEM DO PRISM


Depois da revelação bombástica, mas não surpreendente ou inesperada que o governo dos Estados Unidos esta monitorando e-mails, buscas, chamadas via Skype e outras comunicações digitais pelo programa chamado Prism, os brasileiros vem se comportando como as caricaturas dos personagens das novelas traídos pelos companheiros. As pessoas estão usando serviços gratuitos de empresas situadas no exterior sem nenhuma preocupação com privacidade e com termos de uso que claramente permitem o acesso ao conteúdo e só agora descobriram que inexiste privacidade?

 

As denúncias afirmam que as redes da AOL, Apple, Facebook, Google, Microsoft, Skype, PalTalk, Yahoo, Youtube, Dropbox entre outras estão sendo monitoradas pela agência de segurança nacional dos Estados Unidos. Como os servidores estão localizados nos EUA é plausível e provável que as denúncias de espionagem sejam verdadeiras. A maioria companhias citadas vem negando a sua participação voluntaria na espionagem do National Security Agency (NSA) via Prism. E muito difícil separar a verdade da mentira nas denuncias do “The Guardian” e “The Washington Post”. No entanto, é preciso destacar que os dados de e-mail, vídeo, e bate papo de voz, fotos, bate-papo escrito, arquivos transferidos e armazenados, redes sociais e etc. na internet são passíveis de monitoração e espionagem. Ou seja, a denúncia que o Prism esta espionando as pessoas não deveria chocar ninguém. Desde os primeiros vírus de internet isto já vem acontecendo.

 

A revelação que o Prism está espionando todas as comunicações eletrônicas em nome da segurança nacional dos EUA chocou profundamente os brasileiros. Sem entrar nos aspectos políticos e policiais do caso, existe um importante fato que merece ser destacado. A segurança e privacidade vêm sendo negligenciada no Brasil desde o boom da internet nos anos 1990s. Apesar de todas as lições oferecidas pela primavera árabe, o nível de criptografia das comunicações pessoais brasileiros é muito baixo. Existe atualmente a desconfiança de espionagem pelo governo americano nas buscas realizadas usando o Bing, Google e outros motores da busca. Isto significa que é preciso ponderar alguns aspectos. O melhor lugar para esconder um dado é no universo infinito de dados. Buscas comuns no Bing e Google são facilmente camufladas pelo volume de repetições. Buscas raras ou incomuns vão chamar a atenção e neste caso um motor como o DuckDuckGo que não rastreia ou armazena as buscas melhora a privacidade. Lembra que menos fama significa menos dinheiro e menor poder fogo de processamento e armazenamento. A expansão do programa Prism também tem limitações financeiras e, portanto vai passar pela famosa curva ABC. Motores menos conhecimentos como o Duckduckgo vão ficar fora da alça de mira por um bom tempo.

 

CORREIO ELETRÔNICO

 

As contas do Gmail, Hotmail e Yahoo nunca foram protegidas em relação à privacidade. Basta ler os termos das regras de utilização. Se o Prism chegou ao motor de busca então ele também chegou ao correio eletrônico público e gratuito. Uma saída simplista é abandonar as contas nestes sites e usar serviços menos conhecidos como, por exemplo, o Mapquest para mapas. Infelizmente também é preciso na alternativa simplista encerrar as contas nas redes sociais interligadas e fazer parte de redes de comunicação direta ponto a ponto. É evidente que a navegação via Chrome, Internet Explorer, Safari e outros também precisa abandonada. O Firefox e Ópera são opções alternativas para o anonimato. Assumindo que a BlackBerry, Apple, Google e Microsoft estão sendo monitoradas, então a solução simplista para a privacidade é abandonar o smartphone. Existem Vários Serviços que usam a localização como chave. Apenas os celulares sem inteligência e com poucas informações estão salvos da espionagem.

 

Não faz parte da solução simplista, mas à criptografia resolve muito vem e com excelente relação entre o custo e beneficio o problema da privacidade na comunicação eletrônica com as pessoas. Um bom ponto de partida para aumentar a privacidade é criptografar o disco rígido e os respectivos arquivos. Existem diversas boas ferramentas de criptografia no mercado brasileiro. Para escolher uma eu recomendo que comece verificando as aplicações recomendadas pelas empresas monitoradas pelo Prism. A minha sugestão é nunca instalar ou usar estes softwares de criptografia. As recomendações das empresas monitoradas são na melhor hipótese suspeitas em termos de proteção da privacidade.

 

VPN

 

Para proteger eficazmente a privacidade do e-mail é preciso criptografar a conexão com o provedor de e-mail, as mensagens em tempo real e as mensagens armazenadas e arquivadas. Para melhorar ainda mais a proteção use um serviço de e-mail seguro. Todo e-mail trafegado pela Internet pode ser acessado por terceiros. A Silent Circle oferece comunicação segura para voz e mensagem de texto via conexão dedicada entre os assinantes. A assinatura de uma Virtual Private Network (VPN) cria um túnel criptografado com um servidor que atua como um agente. Apesar de todas as comunicações acontecerem no seu nome, a internet vai enxergar apenas o servidor. Infelizmente em alguns casos existe perda de desempenho do computador pela latência do funil de comunicação. Em geral os servidores das soluções de VPN que estão localizados nos Estados Unidos consomem recursos extras do computador do usuário. Uma camada extra de segurança aplicada sobre a criptografia por um software de fabricante diferente garante um nível adicional de privacidade para as comunicações.

 

MOVIMENTAÇÃO

 

Nas comunicações sem fio, a movimentação entre os hotspots e células garante uma nova camada de segurança. A variação do endereço local pela movimentação confunde os sistemas de monitoração. Este estratagema só funciona quando não existem aplicações intrusas instaladas que invadem a privacidade. É preciso ter o firewall e antivírus atualizado. Estas duas ferramentas são essências para bloquear o malware. Não existe privacidade com Trojan ou worm disfarçados dentro do computador. Estas pragas virtuais espionam as suas atividades em tempo real. A proteção antimalware é a primeira linha de defesa da privacidade. A segurança do computador é uma ferramenta poderosa contra a espionagem.

 

SENHAS

 

As senhas dos serviços de criptografia para assegurar a privacidade precisam ser fáceis de lembrar e impossíveis de quebrar. O software de gerenciamento de senhas LastPass permite a criação de uma senha única complexa com uma frase de passagem como “Subir Dez Andares de Escada para o Meu Escritório, ficou difícil” e abstração da primeira letra das palavras (SDAdpoME,fd). Todos estes cuidados ajudam, mas não garantem que o computador está totalmente protegido contra o Prism. No entanto, eles são de grande ajuda para assegurar a sua privacidade na maioria dos casos.

 

COMO CRIPTOGRAFIAR O EMAIL

 

Mesmo na ausência de conteúdo sigiloso é importante criptografar o e-mail. No mínimo é um grau adicional na proteção contra o sequestro da sua conta. Para que o e-mail seja protegido com efetividade é preciso criptografar a conexão com o provedor, as mensagens em tempo real e os e-mails armazenados e arquivados. Uma conexão desprotegida com o provedor durante a leitura e envio de e-mails possibilita que outras pessoas capturem as credenciais de login no servidor e as mensagens enviadas ou recebidas. O uso do Wi-Fi hotspot publico em praças, aeroportos, lojas, shoppings e etc. para fazer uma conexão desprotegida com o servidor do correio eletrônico é uma ação de alto risco pessoal e profissional. É muito fácil ter as credencias e mensagens capturadas e espionadas nesta situação de total fragilidade.

 

Todas as mensagens de e-mail desprotegidas que trafegam em tempo real pela Internet são vulneráveis depois de sair do servidor do provedor de e-mail. Elas podem ser interceptadas na passagem entre os servidores na internet. Mensagens criptografadas antes do envio são legíveis apenas para as pessoas autorizadas. As mensagens salvas e armazenadas no computador também precisam ser criptografas. Todos os Emails armazenados e desprotegidos podem ser lidos e bisbilhotados por pessoas não autorizadas sem a necessidade das credenciais de login (usuário e senha). Apenas as mensagens armazenadas criptografadas estão protegidas contra incursões.

 

Para criptografar a conexão com o provedor de e-mail é preciso configurar o Secure Socket Layer (SSL) e Transport Layer Security (TLS) para estabelecer uma camada capturar de segurança. Se o acesso ao e-mail for feito via navegador de internet é preciso ativar a criptografia SSL/TLS. Neste caso o endereço de URL começa com HTTPS. Alguns navegadores oferecem indicações adicionais para a criptografia com aviso na barra de endereço ou ícone de cadeado. Sempre que for acessar o correio eletrônico via um navegador digite o HTPPS no começo do endereço da URL. Nunca siga links ou use histórico ou atalhos. Digite o HTTPS todas as vezes que for usar. É mais trabalhoso, mas é mais seguro e evita esquecimentos. Para configurar a conexão criptografada com o provedor nas aplicações é preciso abrir o menu de configuração do internet e-mail e selecionar a opção que o servidor exige a utilização de conexão criptografada SSL.

 

Para criptografar as mensagens individuais trafegadas em tempo real é preciso configurara a proteção tanto no remetente como no destinatário. Existem vários softwares de criptografia que podem ser utilizados. Outra alternativa é a utilização de um serviço de criptografia baseado na internet. Neste caso, é preciso que todos os envolvidos confiem no fornecedor. Quando utilizar a alternativa usar um software de criptografia instalado no computador, é preciso também instalar um certificado segurança no seu computador. Os contatos recebem neste caso uma chave publica de segurança que eles precisam instalar para poder enviar mensagens criptografadas para você. Também é preciso que os destinatários das suas mensagens criptografadas instalem nos computador um certificado de segurança e enviem para que você instale no seu computador a chave publica deles.

 

É possível criptografar os e-mails armazenados e arquivados via configuração do sistema operacional ou por uma aplicação de terceiros. Nos computadores é possível criptografar apenas os arquivos de e-mail. Não é preciso criptografar o disco rígido inteiro. Basta entrar com o botão da direita no menu propriedades avançadas do arquivo e selecionar a opção de criptografar o conteúdo para proteger os dados. É muito importante que é preciso desabilitar esta opção quando for mudar a sua conta no sistema operacional ou for fazer uma reinstalação do mesmo. Se não desabilitar a criptografia do arquivo antes é muito provável que não consiga ler o arquivo posteriormente.