Arquivo

Textos com Etiquetas ‘cloud computing’

Nuvem nas pequenas empresas pode reduzir CO2 em até 90%.

17, fevereiro, 2011 Sem comentários

Constatação é de estudo da Accenture encomendada pela Microsoft que comparou o processamento das aplicações no ambiente convencional e em cloud.

Organizações que transferem aplicações de negócios para nuvem podem reduzir entre 30% a 90% os gastos com energia elétrica e a emissão de gás carbono (CO2) por usuário. A revelação é de um estudo global realizado pela Accenture e WSP Environment & Energy (E&E), encomendado pela Microsoft.

Sob o tema “Cloud Computing and Sustainability: The Environmental Benefits of Moving to Cloud”, o estudo avaliou a emissão de CO2 e consumo de energia na infraestrutura de TI em companhias de pequeno por porte, grande e médio.

A pesquisa comparou o processamento de três aplicações da Microsoft mais utilizadas nas companhias no ambiente tradicional e na nuvem. Os sistemas analisados foram o de e-mail Exchange Server 2007, o de compartilhamento de conteúdo SharePoint Server 2007 e o de gerenciamento de relacionamento com o cliente Dynamics CRM Online.

Uma das principais conclusões do estudo foi que as pequenas empresas, com rede de até  cem usuários, foram as que mais se beneficiaram do modelo de cloud computing. Enquanto as grandes registraram uma economia de energia e emissão de CO2 da ordem de 30% os ganhos nos pequenos negócios chegaram até 90%. Nas médias, esse índice ficou em 78,7%

O arquiteto de soluções sênior da Microsoft Brasil, Otávio Pecego, avalia que as economias são menores nas grandes companhias em razão de elas terem maior governança da área de TI. Essas empresas também compartilham mais a infraestutura.

Já as pequenas têm menos maturidade em TI. Além disso, Pecego observa que essas empresas têm menos usuários para usar o mesmo ambiente e que o custo de propriedade é maior.

O executivo destaca que a redução de energia e CO2 conquistado pelas empresas com cloud computing é resultado de quatro fatores. Um deles é o provisionamento dinâmico, que permite ocupar mais espaço em disco sem a necessidade da compra de mais hardware.

A segunda causa é a hospedagem múltipla em que uma única máquina pode ser compartilhada por diversos usuários. A terceira é o uso de menos servidores na infraestrutura de TI e o quarto é a eficiência do centro de dados que passa a operar com sistemas automatizados que reduzem o consumo de energia.

Fonte: Site Computer World

Três erros capitais em projetos de computação em nuvem

18, novembro, 2010 Sem comentários

São diversos os problemas que podem levar projetos de cloud computing ao fracasso, mas quase todos existem por conta de três erros capitais.

 

Muitas corporações estão trabalhando em projetos de cloud computing, elaborando desde protótipos simples e rápidos a completas migrações de sistemas empresariais. Enquanto muitos são bem sucedidos, outros estão comendo poeira.

As razões para falhas variam, mas já dá para observar alguns padrões. Elas podem ser resumidas sempre nas mesmas três razões:

1 – Regras de conformidade incompreendidas
Nesse caso, parece haver dois padrões: um é presumir que os dados não podem residir em nenhum lugar que não seja o data center, com a justificativa de questões de complexidade. Mas ninguém se importa em testar essa premissa e frequentemente não há nenhum problema real em dividir os dados nas nuvens. O outro é presumir que não há problemas de governança e logo se ver em situações perigosas, onde os dados vão parar onde definitivamente não deveriam estar. Qualquer exagero ou displicência com relação à conformidade provoca falhas.

2 – Apostar no modelo errado
Nem todos os fornecedores de cloud computing são iguais e alguns possuem o péssimo hábito de encerrar os serviços para evitar problemas com canais de distribuição. Isso aconteceu quando a EMC encerrou o trabalho com sistema de storage como serviço Atmos para trabalhar mais com parcerias. As chances são de que grandes fornecedores façam o mesmo ao perceber que cloud é mais uma substituição do que um avanço de suas próprias tecnologias. O ideal é estudar o mercado e optar pela proposta mais consistente e segura.

3 – Deixar o departamento de TI fora do jogo
Muitos projetos de computação em nuvem  acabam saindo do departamento de tecnologia, principalmente em casos de adoção de software como serviço (SaaS), soluções de storage online, entre outros. É compreensível que, em muitos casos, a TI seja vista mais como uma barrreira para desenvolvimento de projetos, mas a resposta real para esse problema é fazer com que os técnicos tenham a mente mais aberta sobre o uso da computação em nuvem para se moverem mais rápido no sentido de gerenciar infraestrutura e aplicações que melhores suportem os negócios, garantindo consistência na companhia.

Fonte:  Computerworld

Categories: Cloud Computing Tags:

BITS já vendeu metade do espaço

18, novembro, 2010 Sem comentários

A BITS – Business IT South America, feira ligada ao calendário da alemã CeBIT que acontece em  Porto Alegre nos dias 10 e 12 de maio de 2011, já está 2 mil dos 5,5 mil metros quadrados disponíveis vendidos ou reservados.

Entre as gaúchas, já confirmaram presença a Advanced IT, Ilegra, Alfamídia Prow, ITS, Grupo Processor e Human Mobile.

Marcas globais como Dell, Cisco, Fujitsu, SAP e Altitude, além de entidades como Agência Comercial Holandesa e governo do Canadá também estão confirmados.

“Acredito que teremos uma feira de nível latino americano e não só para o Mercosul”, afirma José Antônio Antonioni, diretor-presidente da Softsul. De acordo com Antonioni, empresas da Colômbia, México e Peru devem comparecer. São esperados mais de 8 mil visitantes.

Para participar como expositor da feira, que ocorre na Fiergs, o preço dos estandes varia de R$ 380 a R$ 476 por metro quadrado, dependendo da estrutura contratada – Área Livre, com Montagem Básica ou Plus.

Taxas de serviços adicionais, como energia elétrica, ar comprimido, limpeza do estande, telefone e Internet, ficam a cargo do expositor.

Além dos negócios, a BITS contará ainda com três seminários sobre temas como telecomunicações e redes, mobilidade, TI aplicada à gestão, distribuição e logística, TI e Telecom aplicadas ao agribusiness, Web 2.0, cloud computing e virtualização.

Fonte: Site Baguete

Três entre cinco CIOs pretendem adotar cloud computing.

29, julho, 2010 Sem comentários

Mesmo com o interesse das organizações, elas têm optado por cautela, ao migrar apenas projetos-piloto e aplicações não críticas para a nuvem.

A partir da entrevista com 140 executivos responsáveis pela tomada de decisão de TI nas empresas, a consultoria TPI detectou que quatro em cada cinco CIOs estuda soluções em cloud computing (computação em nuvem). Além disso, três em cada cinco profissionais pretendem realmente implementá-las.

“As organizações que estão migrando alguns serviços de TI para a nuvem têm feito isso com projetos-piloto ou com soluções de baixo risco”, declarou o responsável pela unidade de negócios de cloud computing da TPI, Kevin Smilie. “Elas não estão convencidas de que os serviços de nuvem estão prontos para atender às exigências  das operações mais nobres”, acrescenta.

Embora quase metade dos pesquisados considere virtualizar servidores e desktops, serviços de armazenamento baseados em nuvem e hospedagem de e-mails e aplicativos de mensagens, eles estão sendo mais cautelosos sobre o movimento de sistemas core business nessa plataforrma: apenas 10% estavam contemplando a nuvem de ERP; e apenas 7% estavam discutindo implementar aplicações verticais da indústria baseadas na nuvem, como softwares médicos de faturamento e sistema de reservas das companhias aéreas, de acordo com o TPI.

“Esses serviços são demasiadamente importantes para os clientes para que o mercado insira-os tão cedo no cloud computing”, disse Smilie.

As principais preocupações das empresas com a nuvem

A pesquisa da TPI considerou que os compradores de TI tiveram cinco preocupações a respeito do cloud computing:

– 79% preocupam-se com a segurança dos dados, achando-a inadequada;

– 50% preocupam-se com os requisitos de regulamentação;

– 50% preocupam-se com a continuidade dos negócios ou questões de recuperação em caso de crash;

– 49% preocupam-se com a integração dos sistemas.

Já o punhado de pioneiros que utilizou as ofertas de cloud computing no ERP, implementando até mesmo aplicações verticais na nuvem tem feito isso por uma razão, segundo Smilie: redução de custos. “As empresas têm gasto enormes quantidades de capital e fundos operacionais na implantação e manutenção desses sistemas ao longo dos anos. Dada a escolha, eles não querem continuar com esse comportamento.

Smilie comenta que a maioria dos clientes optará por serviços de nuvem privada para aplicativos de missão crítica, para atenuar os riscos, enquanto elas deslocarão seus investimentos em software de capital para despesas operacionais. “Os clientes querem serviços em nuvem que atendam suas necessidades de negócios a custos mais baixos, com os níveis de serviço de classe empresarial e de segurança. E, geralmente, eles não estão no espaço de nuvens públicas”, afirmou Smilie.

“Os prestadores de serviços de TI estão respondendo com ofertas de cloud privado destinadas a atender às demandas de segurança dos compradores de Tecnologia”, declarou Smilie. “O conceito de cloud público iniciado para o consumidor trabalha com a proposta de que todos aceitam o mesmo nível de serviço e segurança. Essa opção simplesmente não existe para as grandes empresas”.

Fonte: Computer World

Veja a versão do IDG: Clique aqui

Categories: Cloud Computing Tags: ,

Obtenha sucesso nos negócios utilizando dados gerados na web 2.0.

9, dezembro, 2009 Sem comentários

A velocidade e a quantidade de dados gerados a cada ano é preocupante em muitas organizações, visto a necessidade de armazenar, gerenciar e filtrar informações que sejam relevantes aos negócios. Isso tudo acaba exigindo esforço demasiado da equipe de TI, que precisa constantemente melhorar e adequar o banco de dados para que se conquiste maior desempenho e consiga entregar informações privilegiadas que as áreas de negócios realmente necessitam para obter vantagens competitivas.

Segundo estudos do IDC, em 2003 foram gerados 5 exabytes de dados e a previsão para 2010 é atingir 988 exabytes, ou seja, aproximadamente o tamanho de 1.500.000 CDs. Se levarmos em consideração a mídia e os diferentes canais de distribuição da informação existentes hoje, estes valores irão crescer exponencialmente ao longo dos anos.

Aplicando ao mundo corporativo, a tendência é que se cresça também, porém em menor proporção, visto que a forma na qual capturamos a informação hoje é bastante rudimentar e consiste basicamente em lançar dados nos sistemas de ERP e CRM corporativo, muitas vezes não apropriado ou dedicado para captura crítica de informações relevantes.

Muitas empresas ainda não sabem aproveitar as vantagens oferecidas pela WEB 2.0, que permite a relação com clientes, parceiros e comunidades virtuais de maneira rápida e direcionada a elas, mantendo seguidores fiéis a marca.

A partir do momento em que começarem a utilizar diferentes maneiras de capturar a informação será vital ter um banco de dados estruturado e dinâmico para suportar a grande quantidade de dados, que irão surgir de uma infinidade de lugares, tipos e tamanhos.

Fornecedores de software já estão preparando tecnologias para suportarem o Cloud Computing, um novo conceito que está gerando esta mudança no ambiente empresarial. E na questão de banco de dados não deverá ser diferente, com certeza exigirá mudanças rápidas, visto que o conteúdo não está mais sendo apenas gerado pelos funcionários da empresa, mas sim por clientes, parceiros, comunidade de usuários e muitas outras pessoas que representam um papel dentro do universo da empresa. Além disso, saber o que eles pensam e correlacionar estas informações para encontrar soluções para os mais diferentes tipos de desafios será o “pote de ouro” para muitas empresas nos próximos anos.

Entender o que o consumidor precisa e oferecer produtos e serviços alinhados a ele é importante. A aréa de TI consegue oferecer esta resposta, visto que o banco de dados foi criado para este princípio, fornecer e armazenar dados que podem virar uma resposta para um problema, mas o banco de dados ainda não possui inteligência suficiente para conseguir este feito, sendo fundamental a construção correta para atender os objetivos de negócios.

O primeiro passo na estruturação do banco de dados é entender qual será a finalidade de armazenar as informações, definindo requisitos e metas que devam ser atingidos na criação. Há no mercado ferramentas que contribuem para definição até manutenção de base de dados, permitindo que se faça mudanças rápidas sem gerar impacto aos usuários, oferecendo melhorias em desempenho, usabilidade e agilidade para propagar mudanças realizadas nos ativos de dados para organização.

Após a criação do banco de dados é importante averiguar se o desempenho é satisfatório em execuções de tarefas rotineiras dos usuários no sistema. Vale lembrar  que quanto mais rápido a sua execução, melhor será o uso e adoção, dando maior credibilidade ao seu uso efetivo, evitando que informações sejam anotadas em blocos de notas, lembretes e outros recursos que ofereçam mais agilidade no registro e causem a perda de informações lançadas no sistema.

Oferecendo velocidade, praticidade e funcionalidades que permitam o registro e captura da informação, o sistema estará apto para atender as necessidades de quem o utiliza e também de quem necessita destas informações para analisar e tomar decisões. A WEB 2.0 trouxe a possibilidade de clientes participarem mais ativamente da vida da empresa e de seus produtos, com isto é preciso pensar em como capturar estas informações para transformá-las em produtos e serviços cada vez melhores, gerando consequentemente sucesso para os negócios.

Fonte: Site Baguete

Categories: Negógios Tags: , , , ,

Windows Azure: MS na nuvem

20, novembro, 2009 Sem comentários

A Microsoft anuncia nesta terça-feira, 17, a disponibilidade da plataforma Windows Azure, solução da empresa para a computação na nuvem.

O sistema operacional voltado ao desenvolvimento, hospedagem e serviço de gestão de aplicações web é uma plataforma aberta que dá suporte a linguagens Microsoft ou de terceiros.

Segundo Ray Ozzie, gerente de arquitetura de software da Microsoft, o sistema foi desenhado para o futuro, mas é familiar para os dias de hoje.

Matt Mullenweg, fundador do WordPress e da Automatic, anunciou que sua companhia adotará o sistema. O WordPress, plataforma de criação de blogs, é conhecido por utilizar majoritariamente ferramentas open source como Apache e MySQL.

O sistema será lançado em 1° de janeiro mas os consumidores não serão cobrados até o primeiro dia de fevereiro.

Links Relacionados
– Windows Azure

Fonte: Site Baguete

UOL lança cloud computing.

20, novembro, 2009 Sem comentários

O UOL Host anunciou o lançamento dos serviços de cloud computing nesta quarta-feira, 18.

Batizado de Nuvem UOL, o serviço funcionará como um “shopping de aplicativos”, no qual as empresas poderão adquirir e utilizar diversas ferramentas.

Em breve, desenvolvedores de software poderão oferecer soluções por meio da Nuvem UOL.

“Hospedamos o maior número de servidores do Brasil, cuja segurança e disponibilidade são testadas diariamente pela própria natureza do portal”, destaca Vinícius Pessin, diretor da empresa de data center do UOL.

Tendência em alta – a Microsoft, uma das empresas mais reticentes ao modelo, lançou hoje sua plataforma em cloud, o Azure – os serviços de computação na nuvem devem ultrapassar US$ 56 bilhões em 2009, aponta o Gartner. A cifra representa uma alta de 21% frente ao ano passado.

Para 2013, a consultoria espera que o mercado atinja faturamento de US$ 150 bilhões.

Até setembro, a receita bruta de serviços foi de R$ 690,2 milhões. O lucro ficou em R$ 80,8 milhões, o que representa crescimento de 7%. O número de assinantes pagantes de banda larga atingiu 1,31 milhões em setembro de 2009, aumento anual de 17%.

Fonte: Site Baguete

Gartner lista o top ten da TI para 2010.

11, novembro, 2009 Sem comentários

O Gartner indica as dez principais tendências em tecnologia para 2010. A consultoria tratou as indicações como “tecnologias estratégicas”, aquelas “com potencial de causar impacto significativo na organização nos próximos três anos”.

As dez indicações do Gartner são:

Cloud computing – A consultoria enaltece o fato de, neste modelo, os fornecedores entregarem aos consumidores uma série de serviços e soluções que podem ser explorados sem infraestrutura local, mas lembra que usar recursos de cloud não elimina os custos das soluções de TI, embora os “reorganize e, em alguns casos, os reduza”.

Análises avançadas – Ferramentas e modelos analíticos capazes de maximizar os processos de negócio e a eficácia das decisões por meio da análise de resultados e cenários alternativos antes, durante e depois da implementação e execução dos processos.

Segundo a consultoria, isto pode ser visto como um terceiro passo no suporte a decisões de negócios operacionais, já que regras fixas e políticas pré-definidas renderam-se a decisões impulsionadas por informações corretas fornecidas no momento certo, seja por meio de CRMs, ERPs ou outras aplicações.

Client computing – A virtualização criando novas formas de empacotamento de aplicações e capacidades de client computing, o que resulta na escolha de uma determinada plataforma de hardware de PC e, consequentemente, de sistema operacional, tornando o processo menos crítico.

“As organizações deveriam estabelecer, proativamente, um roadmap estratégico de cinco a oito anos para client computing, definindo uma abordagem para os padrões de dispositivos, propriedade e suporte; seleção, implementação e atualização do sistema operacional e da aplicação; e planos de gerenciamento e segurança para administrar a diversidade”, afirma o Gartner.

TI Verde – O uso de documentos eletrônicos e a redução de viagens ao se utilizar teleworking são ressaltados, além da utilização de ferramentas analíticas para que as organizações possam reduzir o consumo de energia no transporte de mercadorias e em outras atividades que envolvam emissões de carbono.

Remodelagem do data center – No passado, planejar princípios para os data centers era simples: descubra o que a empresa tem, estime o crescimento para 15 a 20 anos e, então, faça a construção adequada.

Segundo o Gartner, porém, os custos serão “realmente menores se as organizações adotarem uma abordagem pod-based, método de engenharia de estrutura para a construção e expansão dos data centers” que “corta despesas operacionais, uma parte não trivial das despesas gerais de TI na maioria das empresas”.

Computação social – Cada vez mais, os trabalhadores não quererão dois ambientes distintos para suportar seu trabalho e para acessar informações externas. Assim, as organizações deverão focar o uso de software e redes sociais, possibilitando a integração com comunidades externas patrocinadas pela própria empresa e públicas.

“Não ignore a função do perfil social de reunir as comunidades”, diz o Gartner.

Segurança (monitoramento de atividades) – Tradicionalmente, o foco da segurança tem sido estabelecer um muro perimetral para manter os outros de fora.

Agora, segundo a consultoria, ela evoluiu para monitorar atividades e identificar ações maliciosas em um fluxo constante de eventos distintos que normalmente estão associados a um usuário autorizado e são gerados a partir de múltiplas redes, sistemas e fontes de aplicações.

Memória flash – Esta memória está se movendo para um novo nível no plano de storage, como dispositivo semicondutor familiar por seu uso em pendrives e cartões de câmeras digitais.

Mais rápida do que os discos giratórios, mas consideravelmente mais cara, esta memória tende a ficar cada vez mais barata, o que levará a taxas de crescimento anual acima de 100% nos próximos anos.

A memória flash irá “se tornar estratégica em muitas áreas de TI, incluindo dispositivos de consumo, equipamentos de entretenimento e outros sistemas de TI incorporados”, prevê o Gartner.

Virtualização para disponibilidade – A consultoria destaca novos elementos da virtualização, como a migração dinâmica, ou movimento de execução de uma máquina virtual enquanto seu sistema operacional e outros softwares continuam sendo executados como se estivessem no servidor físico original.

Aplicações móveis – Até o final de 2010, 1,2 bilhão de pessoas carregará consigo dispositivos capazes de realizar transações comerciais móveis, proporcionando um ambiente rico para a convergência da mobilidade e da web, projeta o Gartner.

“Já há algumas milhares de aplicações para plataformas como Apple iPhone, apesar do mercado limitado e da necessidade de uma codificação única. Isto pode levar a uma nova versão que seja projetada para operar de forma flexível tanto nos PCs quanto nos sistemas em miniatura”, ressalta a empresa.

Fonte: Site Baguete

Computação em Nuvem já é Realidade.

29, outubro, 2009 Sem comentários

A receita mundial dos serviços de computação em nuvem (também chamado de cloud computing) deve ultrapassar US$ 56 bilhões ao longo deste ano, um crescimento de 21% em comparação a 2008, de acordo com o Gartner. Processos de negócios entregues como serviços ‘cloud ‘representam o maior segmento do mercado, chegando a 83% do faturamento total de 2008.

A computação em nuvem é considerada uma evolução natural da Internet, e não exatamente uma nova tecnologia ou tendência. Com ela, as informações não ficam presas aos seus servidores físicos, o que traz mais agilidade e transparência aos serviços oferecidos pela Internet. Muitas empresas já estão utilizando aplicações de computação em nuvem nos sistemas internos para se tornarem ainda mais competitivas.

Uma das principais vantagens da computação em nuvem é que os serviços ou produtos podem ser movimentados para outros pontos da rede, de modo a evitar interferências ou interrupções do serviço.

Além disso, as empresas ganham versatilidade e praticidade, pois os serviços são obtidos de maneira mais fácil e mais transparente. Para o usuário final, a computação em nuvem acaba com a necessidade de compra de softwares, pois o consumidor pode “alugá-los”, pagando apenas pelo uso do que foi feito.

A segurança é outra tecnologia que caminha em paralelo. Há alguns anos as empresas trabalham na evolução da segurança das aplicações em nuvem.

Outra forte tendência de substituição dos tradicionais Data Centers pela computação em nuvem é a questão do custo de manutenção e gasto de energia. Segundo um estudo realizado por pesquisadores das universidades Berkeley e Stanford, financiado por Microsoft e Intel, o custo de eletricidade (incluindo refrigeração, alimentação de reserva e distribuição de energia) representa 50% do custo anual da manutenção de um Data Center.

Um dos desafios mais importantes para a total implementação da computação em nuvem é a criação de uma plataforma de referência de TI que permita que todos os componentes tecnológicos operem na nuvem.

Já existem no mercado algumas soluções que possibilitam a computação em nuvem, como servidores que utilizam o processador da Intel Nehalem EP, também chamado de Xeon 5500. Este processador tem a capacidade de rodar aplicativos em hardware otimizados para melhor performance. Além disso, oferecem ótima eficiência no consumo de energia para a redução dos custos com eletricidade.

Outro exemplo é a tecnologia vPro da intel por exemplo, que já acompanha essa tendência permitindo o gerenciamento remoto de desktops e notebooks com segurança, abrindo novos horizontes para os prestadores de serviços, diminuindo a necessidade de manutenção local e até mesmo, agendamento de forma pro ativa de manutenções remotas ou locais, quando não for possível resolver remotamente.

A computação em nuvem é uma tendência que veio para ficar e que vai trazer diversas vantagens para usuários e empresas, gerando oportunidades de novos negócios. Os Data Centers estão se tornando cada vez mais poderosos e com custos menores, o que leva a um crescimento do poder computacional e ao mesmo tempo preserva o ambiente, utilizando-se tecnologias mais eficientes, mas para isso as empreas devem investir considerando as tecnologias corretas para essa realidade, de forma a usufruir de todos os benefícios oferecidos.

Fonte: Site Baguete

Cloud grátis no Ubuntu 9.10

27, outubro, 2009 Sem comentários

A Canonical fez nesta segunda-feira, 25, o lançamento oficial do Ubuntu 9.10 Desktop Edition, mais recente versão da distribuição Linux para desktops.

O Ubuntu 9.10 estará disponível para download gratuito a partir da quinta-feira, 29, e traz mudanças como boot e o login mais rápidos e a integração do Ubuntu One, pacote de serviços online baseados em cloud computing, como componente padrão do desktop.

O Ubuntu One funciona como uma nuvem pessoal na web, facilitando processos de backup, sincronização e compartilhamento de arquivos. O pacote também traz características como sincronização de contatos e sistema de recados e lembretes (Tomboy Notes).

O serviço é gratuito para até 2GB de armazenamento.

A nova versão da distribuição Linux traz, ainda, novidades para os desenvolvedores. Agora, interessados em escrever aplicativos que rodem no Ubuntu dispõem do conjunto de ferramentas Quickly, que automatiza tarefas repetitivas da programação.

O Quickly também ajuda os usuários a empacotar os códigos e distribuí-los por meio dos repositórios de software da Ubuntu.

O Ubuntu 9.10 traz, ainda, novidades para usuários de netbooks e smartbooks, como melhorias na interface Remix e integração do programa de mensagens instantâneas Empathy.

O Ubuntu Desktop Edition pode ser baixado gratuitamente no site abaixo.

– Site Ubuntu

Fonte: Site Baguete