terça-feira, 29 de outubro de 2013

O datacenter é nosso. Com brasileiro não há quem possa.


Na última semana de Outubro de 2013 a Câmara dos deputados deve iniciar a votação do marco civil da internet. Depois do Snowden foi incluído no projeto um dispositivo para que os dados dos brasileiros sejam armazenados no Brasil. Foi revelado que o deputado federal Molon afirmou no dia 18 de setembro de 2013 que o governo do PT pretende obrigar o armazenamento dos dados dos brasileiros no Brasil pelas grandes empresas multinacionais de internet porque essa é a única língua que os Estados Unidos entendem (Relator do Marco Civil da Internet defende pressão financeira contra espionagem, http://www1.folha.uol.com.br/poder/poderepolitica/2013/09/1343807-entrevista-com-alessandro-molon.shtml, acessado em 29/10/2013).

Grandes empresas de redes sociais como Google, Facebook, LinkedIn e etc. serão afetadas com a medida, pois poderão ser obrigadas a construírem no Brasil datacenters. Em função da pressão contra as inconsistências da justificação, foi criada uma nova interpretação para justificar a medida polemica.  A argumentação da necessidade de segurança jurídica para o armazenamento dos dados dos brasileiros no Brasil (foi revelado que os partidários da exigência da instalação de centros de dados dentro do país entendem que é a forma de fazer com que as grandes empresas internacionais de internet cumpram a legislação nacional. Fonte: Com marco civil, governo vai insistir em armazenamento local de dados da internet, http://tecnologia.uol.com.br/noticias/reuters/2013/10/28/governo-vai-insistir-em-armazenar-dados-da-internet-localmente.htm, acessado em 29/10/2013) cai por terra quando olhamos as argumentações utilizadas pelo grupo de artistas “Procure Saber” para querer a censura nas biografias no Brasil.

Os artistas do grupo “Procure Saber” justificam a sua solicitação de manutenção da censura das biografias não autorizadas pela demora da justiça brasileira em julgar e condenar as inverdades que eventualmente fossem publicadas. Qual o sentido de postular mais uma atribuição para uma justiça brasileira que é extraordinariamente lenta?  Lembro que a clara inconstitucionalidade do plano Collor do começo dos anos 1990 não foi julgada pelo Supremo em 2013.

A base governista ainda não entendeu que a ausência destes datacenters no Brasil está relacionada com a fraca competitividade e produtividade nacional. Foi revelado que na opinião da Brasscom, o mercado de datacenters no Brasil vai crescer naturalmente pela evolução da competitividade (Armazenamento local de dados: a nova batalha no Marco Civil, http://idgnow.uol.com.br/blog/circuito/2013/10/25/armazenamento-local-de-dados-a-nova-batalha-no-marco-civil/, acessado em 29/10/2013).

O Brasil perdeu para o Chile o primeiro datacenter da empresa Google na América Latina por estes dois motivos.  Claramente o ambiente de negócios nacional é uma barreira para a indústria do conhecimento.  Foi revelado que o Calegari afirmou que o mercado chileno de tecnologia de informações é bem mais maduro que o brasileiro (Google escolhe Chile para seu primeiro data center na América Latina, http://computerworld.uol.com.br/tecnologia/2012/09/06/google-escolhe-chile-para-seu-primeiro-data-center-na-america-latina/, acessado em 29/10/2013).

É muito fácil observar este fenômeno na comparação entre a indústria de manufatura automotiva e a do conhecimento. Tanto para datacenter como para automóveis a indústria enfrenta problemas de impostos elevados e outras barreiras tributárias do Brasil em relação ao Chile. No entanto, estas limitações não impediram que os gigantes do setor automobilístico como a Mercedes escolhessem o Brasil para as suas fábricas.  Estas empresas fizeram tal escolha porque elas podem automatizar todos os processos e usar a mão de obra nacional apenas para as atividades operacionais.

No caso do datacenter a mão de obra precisa gerenciar a estrutura com conhecimento e inteligência para que os serviços oferecidos sejam de alta qualidade dentro do padrão mundial de empresas como a Google. A grande vantagem do Chile é que ele conta com engenharia forte e qualificados profissionais de TIC. O Brasil com engenharia moribunda e foco em certificados elementares não é competitivo em termos de qualificação. Este é o real motivo pelo qual as grandes empresas de redes sociais são resistentes em instalar um datacenter no território nacional.  Elas sabem com clareza das limitações da qualificação da mão de obra nacional.

A Câmara deveria olhar holisticamente o fenômeno e fazer as mudanças necessárias na indústria brasileira de educação.  As empresas como Facebook, Google LinkedIn e etc. vão em função da fraca competitividade e produtividade do setor de TI nacional escolher fechar a sua representação no Brasil e operar no seu modo inicial aqui no Brasil.  Foi revelado que o Garotinho disse que o Magrani afirmou que a exigência de armazenamento dos dados no país inviabiliza a operação atual do Facebook no Brasil (Facebook teme mudanças na lei, diz deputado Anthony Garotinho, http://www1.folha.uol.com.br/poder/2013/10/1361363-facebook-teme-mudancas-na-lei-diz-deputado-anthony-garotinho.shtml, acessado em 29/10/2013).

Para as grandes empresas de internet a mudança para o modo sem escritório de representação não é tão grande assim. É bastante claro que o grande perdedor desta disputa será o brasileiro. A Brasscom e a camara-e.net entendem que a obrigatoriedade no armazenamento dos dados dos brasileiros no Brasil impactará negativamente a competitividade do país durante algumas décadas (Armazenamento local de dados: a nova batalha no Marco Civil, http://idgnow.uol.com.br/blog/circuito/2013/10/25/armazenamento-local-de-dados-a-nova-batalha-no-marco-civil/, acessado em 29/10/2013).

segunda-feira, 28 de outubro de 2013

Espinhos do big data

Até o momento muito tem sido falado sobre as vantagens do big data. No entanto, muito pouco é dito sobre as desvantagens. Com o big data duas pessoas ou até mesmo uma mesma pessoa usando dispositivos diferentes podem ter que pagar preços diferentes para os mesmos produtos nos portais de comércio eletrônico.  Isto acontece porque o preço ao consumidor está sendo influenciado pelo perfil. Usuários da Apple em geral tem na tela dos seus computadores preços mais caros do que outras plataformas.

 O consumidor precisa estar atento com esta nova característica do comércio digital para não pagar mais caro pelos produtos ou serviços apenas porque tem um perfil de maior rendimento. O big data oferece a vantagem da  individualização dos clientes. No entanto, este benefício deveria ser utilizado pelos gestores para  aumentar vendas e não para subir preços conforme o perfil. É evidente que esta distorção gerencial vai gerar no médio e longo prazo uma oportunidade de negócio.

Se um perfil de maior renda continuar a gerar um preço maior para os mesmos produtos no comércio digital,  então os perfis de menor renda serão utilizados para as compras digitais.  Estes perfis poderão ser utilizados por intermediários para oferecer descontos nas compras para as pessoas de mais renda e usuários Apple.  Eles podem viabilizar o negócio cobrando uma ínfima parcela da diferença de preços e entregar os produtos para as pessoas de maior renda.

A continuidade deste processo vai distorcer de tal forma a vantagem da individualização do big data que em vários ele vai perder à sua serventia. Os portais de comércio digital precisam urgentemente revisitar à sua estratégia antes que o mercado responda com a inviabilização do investimento no big data. Para o momento é recomendável que os consumidores consultem os preços dos produtos e serviços utilizando computadores e perfis diferentes para que não paguem preços mais caros pelos produtos e serviços adquiridos.

quinta-feira, 24 de outubro de 2013

FUTURO DA NUVEM

A revolução da nova TIC baseada em serviços e conexão total esta fazendo com que a internet das coisas cresça em velocidade abismal. Por volta de 2025 teremos nuvens conectando e integrando todos os objetos à nossa disposição. Isto inclui os objetos de uso pessoal como carros, relógios, roupas, sapatos, óculos e etc. De uma forma planejada ou não, as pessoas vão ser o centro do universo virtual. Tudo o que os nossos olhos veem poderão ser processados e armazenados nas nuvens por exemplo.
 
Apesar da aparência, não será uma conexão do cérebro com a nuvem. O cérebro humano vai comandar interfaces sensoriais dos diversos dispositivos através dos olhos, voz, mãos, nariz, expressões e etc. É possível afirmar que as pessoas vão comandar um exocerebro. A mão dupla da comunicação vai amplificar os sentidos humanos. As pessoas vão poder processar o que está acontecendo nas suas costas ou até mesmo escutar conversar distantes por exemplo. Isto significa que a capacidade cognitiva do cérebro humano vai ser catapultada para um nível superior pela ampliação do reconhecimento. Ao ver uma pessoa o óculo pode imprimir na tela a sua ficha e alimentar o cérebro da pessoa com várias informações.

As nuvens acelerarão a evolução da tecnologia para uma velocidade enorme. Com os bilhões de padrões para os comandos de voz armazenados nas nuvens, os engenheiros podem desenvolver interfaces de comunicação cada vez mais simples e naturais. É possível acreditar em décadas cada vez mais prosperas para as tecnologias mais promissoras. O carro inteligente é sem sombra de dúvida uma conquista bastante próxima. Até o ano de 2020 ele estará circulando nas ruas e estradas.

O nível avançando da capacidade interativa da tecnologia habilita uma intensa integração do ser humano com o exocerebro. Os segredos da linguagem corporal vão ser revelados para os interlocutores em tempo real e um observador externo poderá chegar facilmente à falsa conclusão que a tecnologia chegou ao estágio de ler mentes. Na realidade existe apenas uma técnica de Big Data para a leitura corporal. Eu não tenho dúvida que em 2018 este tipo de tópico vai ser o centro da atenção da participação do grande público.

O saber profundo recorrente da linguagem e cognição corporal vai fazer parte da hierarquia dos modelos de previsão e a nuvem vai ampliar os sentidos humanos na habilidade de comunicação. O relacionamento com coisas como lojas, produtos e serviços vai ser baseado na eliminação da distorção das informações. Os relacionamentos e conversas vão acontecer em patamar diferente, pois tudo poderá ser gravado indexado e armazenado. As facilidades de recuperação das informações vão inibir as mentiras.

A ligação em tempo real da nuvem com as pessoas vai influenciar todas as discussões. A fortificação da presença dos fatos vai destruir em segundos os achismos, ilusões e delírios. O mundo vai parecer daqui a 30 anos um lugar completamente diferente do que é agora. O esquecimento vai acabar. Ou as pessoas fazem ou deixam de fazer algo. Sempre será uma escolha. Uma Parte das manchetes filosóficas vai ter forte implicação ética. Qual será o limite da privacidade onde tudo pode ser gravado e recuperado? Qual o papel do governo? O que é previsão e o que é bisbilhotice? Certamente o mundo novo não será um lugar onde é fácil notar a diferença entre o cérebro e exocerebro que é apenas um supercomputador capaz de reagir à consciência humana.

A simplificação conceitual pode levar para distorções fascinantes. Os fundamentos sociais do exocerebro em nuvem precisam contemplar o fato que Mente humana é responsável pelas respostas da nuvem e a tecnologia é apenas um habilitador do reconhecimento milionário da natureza das coisas do mundo real. Os padrões de reconhecimento da linguagem corporal via sensores utilizados pela nuvem para descrever e revelar os processos cognitivos de várias atividades humanas permitem que o exocerebro crie um conteúdo animado do comportamento social. É preciso entender com clareza que a nuvem não é capaz de criar uma mente humana. Ela apenas oferece uma previsão de comportamento das pessoas em função do Big Data dos padrões. Na prática os computadores da nuvem estão apenas recitando para trás um alfabeto de pedaços de informações que estão armazenados.

Como existem centenas de milhares de padrões, o cérebro humano precisa do processamento do exocerebro para conectar os dados e entender as respostas. A essência da inteligência continua sendo privilégio humano. O reconhecimento de padrões com base na voz, imagem e temperatura corpórea é um trabalho para os programas que rodam em supercomputadores. É preciso combinar a análise estatística com a programação especializada. 

Não existe uma loja de conhecimento para a avaliação dos padrões. Apenas o cérebro humano que trabalha com um modelo hierárquico próprio e ainda desconhecido é capaz de entender o significado das informações e estabelecer relacionamento entre os dados entregues pelo exocerebro. A habilidade da nuvem de armazenar uma quantidade massiva de informações e estabelecer o relacionamento entre as variáveis permite o diagnostico dos padrões de reconhecimento da linguagem corporal e o envio imediatamente das diversas possibilidades. Neste contexto de consolidação das informações, A regra de aceleração do retorno vai fazer com que o cérebro humano encontre a resposta mais confiável entre as alternativas oferecidas pelo exocerebro.

Em 2020s o poder de fogo do processamento não invasivo será tão grande que a nuvem desempenhara o papel de exocerebro para armazenamento e processamento do conhecimento que a escola vai precisar ser reinventada. Toda esta capacidade extra alimentará a criatividade dos alunos ao extremo. Todos os que desenvolverem modelos mentais efetivos para a recuperação das informações em um oceano infinito de dados vão estar em enorme vantagem competitiva. É evidente que as interconexões no cérebro humano vão mudar de formato com o exocerebro da nuvem e estaremos diante de uma geração completamente diferente da anterior pré exocerebro.

Apesar do cérebro adulto já ter diversas interconexões sedimentadas por ligações químicas várias conexões redundantes vão ser desfeitas com a nuvem e o ciclo da aprendizagem adulta também será reformatado para um novo modelo com base na utilização de computadores externos. A lógica de uma loja de varejo vai mudar completamente o processamento de dados na nuvem iniciado por um smartphone. A eliminação de atividades repetitivas de cobrança e pagamento vai fazer com que os estratagemas das lojas fiquem focados no cliente e nas vendas. O exocerebro vai mudar por completo o formato do varejo.

Os óculos digitais podem ser utilizados para rastrear o produto ou serviço e informar o nome das pessoas envolvidas, as condições de trabalho, as perdas e desperdícios de energia e a preservação ambiental. Dentro de cinco anos este tipo de tecnologia será comum para todos os membros da cadeia produtiva. Os consumidores poderão os preços nas lojas próximas e internet em tempo real. As informações rápidas entregues pelo exocerebro as pessoas vão mudar comportamentos e decisões. O carro digital é outro exemplo de mudança no varejo. Ao parar no estacionamento do estabelecimento, a loja ou as lojas recebem a lista de compras do cliente e o consumidor recebe de volta no vidro frontal as resposta sobre a sua lista. Ele pode aprovar as compras dentro do carro e ficar esperando pela entrega ou pegar os produtos na loja. Se o varejo for um posto de gasolina, a loja recebe as informações sobre combustível, água, óleo e etc. E pode realizar todos os procedimentos de forma automatizada.

A nuvem vai fazer com que o oceano infinito de informações seja vasculhado pelo exocerebro com critérios bem definidos. O varejo terá mais informações do imaginou sobre os seus clientes. O processamento em tempo real vai gerar vantagens competitivas muito além do que o menor preço. Reconhecer um cliente, familiares e necessidades vai fazer toda a diferença. O grande problema do excesso de informações é que ele é um manto de invisibilidade. É o mesmo efeito que nunca ter visto. O varejo que conseguir integrar e indexador o vídeo interno da sua loja com a capacidade de pagamento do cliente e os anseios e desejos registrados na nuvem vai ser capaz de vender em 2025 muito mais que os seus concorrentes. Até mesmo o computador que projeta a música ambiente da loja pode ser programado para compor o estratagema próprio da loja. A inteligência e conhecimento vai fazer muita diferença nas próximas décadas.

terça-feira, 22 de outubro de 2013

Escritório de Projetos

Muitos no Brasil entendem erradamente que o Escritório de Projetos é uma estrutura para ficar gritando umas poucas palavras de ordem, impor métodos e metodologias e medir alguns índices muito elementares dos desvios dos custos e prazos dos projetos. A gigantesca quantidade de projetos fracassados no território nacional acima da casa dos 80% mostra a pobreza do resultado conquistado por esta linha de pensamento, entendimento e conduta. Os trabalhos sérios e relevantes sobre o Escritório de Projetos desmistificam as lendas e mitos. Os raros bons trabalhos nacionais apresentam com clareza todos os conceitos envolvidos na criação e manutenção de um Escritório de Projetos em situação de contraste com a visão dos maiores especialistas mundiais do assunto.

O valor agregado de um Escritório de Projetos vem da sua capacidade de medir e evoluir os projetos realizados. Este é caminho das pedras para as justificativas do investimento e respectivo retorno. Os trabalhos relevantes primam pela apresentação de um método simples, pratico e realístico para medir, monitorar e evoluir o desempenho dos projetos, gerentes de projetos e membros da equipe. É uma regra focada no ciclo de melhoria contínua. Uma boa metodologia precisa apresentar resultados práticos expressivos e gerar retorno de investimento. Alguns especialistas talentosos conseguiram com a implantação da estrutura do Escritório de Projetos um retorno de centenas de milhões dólares pelo sucesso elevado na execução de milhares de projetos. Os números revelam o aspecto superlativo do método utilizado pelos profissionais qualificados.

Todo bom trabalho sobre a organização do Escritório de Projetos deve apresentar de forma simples e direta as principais estratégias do mercado para a implementação de um Project Management Office (PMO). Para facilitar o entendimento das estratégias é preciso consolidar os principais conceitos do escritório e explicar a sua relevância e contribuição para o gerenciamento de projetos. Os principais tópicos para iniciar um Escritório de Projetos são:

 
·         O que é um Escritório de Projetos

·         Conceitos e Definições do Escritório de Projetos.

·         Importância do Escritório de Projetos.

·         Organização Lógica de um Escritório de Projetos.

·         Modelos de Escritórios de Projetos.

·         Plano Estratégico do Negócio

·         Atribuições do Escritório de Projetos.

·         Atividades de um Escritório de Projetos.

·         Papeis e Responsabilidades do Escritório de Projetos.

·         Auditar e Avaliar os Projetos.

·         Consolidação das Métricas e Projetos.

·         Complementando os Produtos e Serviços do Escritório.

·         Implementação de um Escritório de Projetos.

quinta-feira, 10 de outubro de 2013

Fantasias e Insanidades

O Brasil é um país muito peculiar. Existem pessoas que acham que a mera repetição de frases de efeito é capaz de causar mudanças. Já foi dito e repetido que fazer as mesmas coisas e esperar resultados diferentes é demonstração de insanidade. Será que a TI nacional tem tais problemas?

Exportação de Software e Serviços

2004 = 126,4 US$ milhões

2005 = 178,0 US$ milhões

2006 = 247,0 US$ milhões

2007 = 313,0 US$ milhões

2008 = 340,0 US$ milhões

2009 = 363,0 US$ milhões

2010 = 1,740 US$ bilhões

2011 = 1,957 US$ bilhões

2012 = 2,244 US$ bilhões

Fonte: ABES/IDC Mercado Brasileiro de Software - Panorama e Tendências 2005 até 2012
 
No início do primeiro governo Lula em 2003 foi fixada como meta a exportação de dois bilhões de dólares ao ano em software. No final de 2006 o MCT admitiu que a meta só seria alcançada em 2007 pelo elevado custo dos encargos trabalhistas e tributos. Fonte: Exportação de software fica aquém dos US$ 2 bi, http://computerworld.uol.com.br/negocios/2006/10/02/idgnoticia.2006-10-02.6241765770/, acessado em 10/10/2013.

Em nenhum momento foi considerado que o real problema do baixo volume exportado era a baixa produtividade. Especialistas como eu que advogavam a tese foram sumariamente ignorados. Após o fiasco inicial,  veio a MP do bem que reduziu os impostos e a da desoneração da folha de pagamento que eliminou o custo dos encargos trabalhistas. Com atraso de nove anos em relação o objetivo inicial, o Brasil conseguiu alcançar em 2012 a meta desejada para o ano de 2003. Em 2012 o país exportou 2,2 bilhões em software. Fonte: Software brasileiro fatura US$ 27 bi e cresce 26,7% em 2012, http://computerworld.uol.com.br/negocios/2013/08/22/software-brasileiro-fatura-us-27-bi-e-cresce-26-7-em-2012/, acessado em 10/10/2013.

Recentemente,  o governo da continuidade da gestão lula afirmou que a meta é multiplicar por oito as exportações de software até 2020. Fonte: TI Maior começa a selecionar startups, http://www.valor.com.br/empresas/3276702/ti-maior-comeca-selecionar-startups?impresso=true, acessado em 10/102013.

Novamente a questão da produtividade pobre vem sendo ignorada.  Será que mais uma vez o Brasil vai fazer a mesma coisa e esperar um resultado diferente? Para aqueles que gostam de insanidades basta lembrar os planos de estabilização da moeda iniciados nos anos 1980s. Todos eles eram essencialmente iguais com congelamentos de preços e salários, feriados bancários e algum tipo de confisco legal ou ilegal. Ate hoje o plano Color aguarda  julgamento no supremo. Todos fracassaram porque eram inconsistentes. O plano real sem confisco,  congelamento,  feriado bancário resolveu o problema porque era matemáticamente consistente.  Ele foi o único que aceitou como premissa básica que o resultado da soma de um mais um era dois. Todos os outros entendiam que o resultado desta soma era um número diferente de dois.

Infelizmente os planos de TI nacionais pecam pelo mesmo problema. Eles querem que uma mão de obra sem qualidade consiga competir com os preparados engenheiros indianos. Em 2012 foi alcançada a meta para 2003. Quando será alcançada a meta proposta para 2020? Eu chuto algo em torno de 2040 e vocês?

segunda-feira, 7 de outubro de 2013

SLA: Verdades e Mitos

Existe uma excelente noticia para o mercado brasileiro. O SLA que até pouco tempo atrás era um ilustre desconhecido, vem sendo debatido com intensidade pelos profissionais de TI. Infelizmente, a boa noticia acaba por aí. Muitos estão criando autênticos mitos sobre o SLA. Em alguns casos existe o imaginário que o SLA gera a imunidade contra as falhas e em outros está sendo parida a falsa ideia de que ele é capaz de conter custos ou estabelecer limites ou parametrizar negociações. Existem alguns casos em que o SLA descrito no contrato é visto como algo desconectado ao serviço entregue.

 O SLA de um serviço de TI nada mais é do que a expressão numérica da realidade da infraestrutura do fornecedor. Em outras palavras é obrigação do prestador de serviço definir realisticamente e objetivamente as condições de entrega. Fornecedores honestos e sérios oferecem os seus SLAs com evidencias de comprovação. É da competência do cliente verificar se os fatos apresentados são capazes de produzir o SLA ofertado. Se o cliente precisa de SLA diferente do oferecido ele tem que ter a consciência que o fornecedor terá que fazer investimentos na sua infraestrutura tecnológica e humana. Em outras palavras, não existe negociação de SLA. É muito raro que um fornecedor faça um investimento para entregar um SLA mais aprimorado para um único cliente. Os casos onde este cenário gera retorno de investimento são raríssimos.

 Entre as evidencias, o cliente deve avaliar o plano de negócio de cinco anos do fornecedor.  É este planejamento que permite que o cliente conheça e entenda como o SLA das entregas será mantido ao longo do tempo. Olhar o plano resolve apenas parte do problema, pois não existe fornecedor capaz de fazer entregas com variabilidade zero. Não adianta ter um contrato afirmando que o tempo de resposta para um chamado é de 10 minutos sem nenhuma variabilidade (por exemplo, +5% e -10%), pois todos sabem que durante um contrato de três anos em diversos momentos, o tempo de resposta será diferente. Este tipo de contrato só gera conflitos e descontos. Este é o motivo porque existem tantas reclamações, multas e quebras de contrato na terceirização no Brasil.

 Se o fornecedor não apresenta um plano de negócio, então o melhor caminho é fugir dele. Se o provedor não tem uma analise estatística dos SLAs entregues atualizada, então ele não é o fornecedor adequado para empresas honestas e sérias. O SLA é base para a decisão de compra de um serviço de TI. O preço é consequência dele. Apesar de o preço incluir os investimentos para manter o SLA dentro dos limites de controle ao longo do tempo. O gestor de TI precisa ir além. O CIO precisa exigir ganhos de produtividade do fornecedor ao longo do tempo. Afinal a repetição dos processos leva a melhoria contínua e a redução do tempo gasto. Portanto, as empresas usuárias de TI precisam negociar os SLAs dentro da realidade, mas em condições de minimização dos custos no longo prazo.

quarta-feira, 2 de outubro de 2013

Avaliação do gerenciamento da capacidade

É possível usar o Distributed Denial of Service (DDoS) na nuvem para testar a capacidade de um site de comercio eletrônico e descobrir como seria o comportamento dele em um pico de demanda. Por apenas dez dólares pode ser contratado um serviço de ataque DDoS concentrado em um minuto que pode ser repetido varias vezes durante um mês. Com poucos dólares podemos testar o desempenho da capacidade de tráfego do portal de comércio eletrônico e avaliar se uma campanha de marketing pode ser comprometida pela limitação da infraestrutura ou ainda descobrir o nível real de elasticidade da nuvem que abriga o seu site.
 
Serviços como a iDDoS Stresser (http://iddos.net) ou Xboot Stresser (https://xboot.net/outside.php) podem ser utilizados para avaliar os limites da capacidade da infraestrutura e desenvolver uma estratégia efetiva para o gerenciamento da capacidade (Capacity Management). O teste de tráfego permite que o negócio avalie os limites do desempenho do portal de comércio eletrônico em uma situação de volume intenso de requisições. Este é momento em que os profissionais de tecnologia descobrem que os ataques tipo DDoS não são um recurso exclusivo de hackers. Eles permitem a avaliação da experiência dos clientes e usuários quando uma campanha de marketing alcança o sucesso.

 A contratação de um serviço para testar a capacidade permite estabelecer uma infraestrutura operacional para o ataque, através dos detalhes de configuração do serviço e das informações sobre os alvos. É um estratagema muito mais eficiente e eficaz do que calcular teoricamente os limites ou descobrir apenas na ultima hora que os servidores e infraestrutura estão sobrecarregados. A interface de configuração destes ataques é muito simples e permite escolher um destino bem definido com diversas intensidades de ataque. Isto significa que é possível escolher diversas técnicas para o ataque e gerenciamento da capacidade. É possível atacar como SYN flood, UDP flood e carga amplificada. Os ataques de HTTP podem ser HTTP POST/GET/HEAD and RUDY (R-U-Dead-Yet) ou carga especifica amplificada como o slowloris para servidores Apache com problemas de configuração.

 As técnicas de ataque DDoS permitem determinar a eficácia do gerenciamento da capacidade ou elasticidade da nuvem. O ataque de UDP flood usando a repercussão da amplificação do ataque DNS permite o teste da resposta para as requisições de DNS em alta escala de trafego nos servidores pelo envio de um grande numero de requisições esquecidas de DNS que incluem o endereço de IP dos servidores como fonte do endereço de IP. O ataque SYN flood é realizado por um elevado número aleatório de requisições por segundo nos endereços de IP spoofed, endereços de IP e portas dos servidores para utilizar toda a memória disponível pela alocação de uma enorme quantidade conexões TCP semiabertas. O twbooter é uma nova tendência para as plataformas de DDoS com preço baixo e fácil e amigável utilização para atacar os portais de internet e medir a sua capacidade real mesmo nos casos onde a infraestrutura dispõe de amplos recursos computacionais e de telecomunicações. Os booters estão endereçando as necessidades de um nicho de mercado permitindo uma maior efetividade no gerenciamento da capacidade e no nível de elasticidade da nuvem.