assine o feed

siga no Twitter

Postagens

acompanhe

Comentários

comente também

quarta-feira, 28 de março de 2012

A história dos sistemas operacionais (SO)

Atualmente, os sistemas operacionais (SO) estão cada vez mais fáceis de usar, possuindo interfaces muito simples e bonitas. Contudo, todas estas funcionalidades não surgiram do nada, foram evoluindo com o tempo. Por exemplo, a bela interface gráfica do Windows Vista é resultado de mais de 20 anos de desenvolvimento, desde as primeiras versões deste SO. Por isso, criamos este artigo que conta a história dos sistemas operacionais, incluindo os principais representantes de cada época.

Sistema operacional não é a maquina


Atualmente, ainda são comuns alguns equívocos em relação ao sistema operacional. Por exemplo, todos alguma vez já ouviram um diálogo como este:

       - Que computador você irá comprar?
       - Vou comprar o Windows.
O diálogo acima demonstra um erro muito comum no mundo da informática: pensar que o sistema operacional é a máquina em si. Basicamente, o computador é composto por duas grandes categorias: hardware e software. A primeira delas se refere à parte física da máquina, ou seja, o que pode ser tocado fisicamente. Já a segunda abrange a parte lógica responsável por realizar tarefas,  utilizando-se do hardware para a realização de suas tarefas.

Por isso, sistemas operacionais como o Windows, Linux ou o MAC OS, são apenas softwares que gerenciam toda a atividade do hardware, mas não o computador em si. Consequentemente, em um PC que contenha um dos SOs citados acima, quase sempre é possível instalar outro.

Sistemas operacionais primitivos

Primeiramente, vamos tratar sobre a gênese dos sistema operacionais, abordando a forma como eram desenvolvidos nas décadas de cinquenta, sessenta e setenta.

Máquinas que não usavam SO


A primeira geração  da computação moderna (1945-1955) não trabalhava com o conceito de sistema operacional propriamente dito, visto que as operações eram setadas através de hardware. Por exemplo, chaves, quilômetros de fios e luzes de aviso, como na foto abaixo do Eniac. Nesse período, era muito comum que a mesma pessoa projetasse, programasse e utilizasse os computadores. A principal implicação desta abordagem é o fato de que era muito difícil criar rotinas programáveis, exigindo trabalho intenso dos operadores de máquinas.

Painel de controle do Eniac

Programação em Batch

 O conceito de sistema operacional apareceu durante a segunda geração da computação  moderna (1955 - 1965), através da programação em Batch. Assim, vários comandos já poderiam ser executados em sequência através de cartões perfurados, eliminando parte do trabalho do operador de terminal. Normalmente,  um programa era composto por um conjunto de cartões inseridos pelo usuário do sistema, na ordem correta.

Sistemas específicos

Em meados da década de 60, os primeiros sistemas operacionais foram desenvolvidos conforme a evolução da tecnologia da época. Contudo, cada máquina possuía seu próprio SO específico, o que implicava na incompatibilidade de mainframes distintos. Um dos maiores representantes foi o CTSS, criado pela MIT, sendo lançado em 1961 para o computador IBM 7090.
IBM 7090 rodando CTSS

Unix, o primeiro sistema operacional moderno

Visando ao problema da incompatibilidade de SOs de máquinas distintas, um grupo de desenvolvedores da AT&T ciaram o Unix em 1969, sendo o primeiro sistema operacional moderno da computação. É possível afirmar que mais de 90 porcento dos SOs atuais foram influenciados de alguma maneira pelo Unix.

Sua primeira versão foi escrita em linguagem assembly, sendo posteriormente reescrito em C no ano de 1973, linguagem utilizada até os dias de hoje. Este sistema introduziu conceitos muito importantes para a computação: portabilidade, multi-usuário, multi-tarefas e compartilhamento de tarefas.

Durante a década de 70, o Unix foi distribuído gratuitamente (incluindo seu código fonte) para universidades e órgãos governamentais norte-americanos, o que conferiu muita popularidade a este sistema. Sua interface era totalmente em modo texto sem interface gráfica

Em 1977 foi lançado o BSD, sistema operacional fortemente baseado no Unix, focado principalmente para a execução em máquinas específicas de alto desempenho, como o famoso computador VAX, o qual foi uma referência de hardware na época.

Comando em modo texto no BSD

Sistemas Operacionais para computadores pessoais

Tanto o Unix quanto o BSD, em suas primeiras versões, foram desenvolvidos para o uso de computadores de grande porte, normalmente em universidades. Contudo, alguns jovens programadores possuíam uma ideia absurda para época: criar sistemas operacionais para o uso de pessoas comuns.

Steve Jobs e a Apple

Um dos primeiros a pensar desta forma foi Steve Jobs, fundador da Apple. Desde a criação de sua empresa, seu principal foco foi a criação de computadores para o dia-a-dia, incluindo sistemas operacionais fáceis de serem operados. O lançamento do Apple I em 1976, um dos primeiros computadores pessoais,  foi um marco na história da computação.

                                                 PC Apple II

Pela primeira vez, um PC continha um teclado fácil de ser utilizado, com uma mini-televisão adaptada como monitor. Assim, conhecimentos avançados de computação já não eram mais requisitos para se operar um PC. Jobs fez questão de criar o seu sistema operacional do zero, sem se basear inicialmente no Unix. Nos anos seguintes, os modelos Apple II e Apple III foram lançados no mercado, um sucesso de vendas. Suas interfaces gráficas eram muito primitivas comparadas com o padrão usado atualmente, mas avançadíssimas para a época.

Em meados de 1979, Steve Jobs tomou conhecimento sobre o desenvolvimento de um computador totalmente inovador pela Xerox Parc. Em uma vista a esta empresa, ele ficou deslumbrado com Xerox Alto, um PC que possuía uma interface gráfica (GUI) totalmente revolucionária. Pouco tempo depois, a Apple lançou o Lisa, aproveitando todas as ideias gráficas do computador. Não é nem preciso dizer que o sucesso foi estrondoso. Cada versão do Apple  possuía um sistema operacional distinto.

Como se não bastasse, o Apple Machintosh foi lançado em 1984, introduzindo o conceito de desktop, utilizando ícones e pastas para representar programas e arquivos do modo como conhecemos hoje. Esta máquina acompanhava o revolucionário e inovador sistema chamado MAC OS. Seu sucesso foi estrondoso em todo EUA, principalmente pela vinculação de seu comercial durante a final do Superbowl do mesmo ano.
Macintosh Original

Com o passar dos anos, as novas versões do Macintosh e o do MAC OS já não eram mais populares como antes, o que fez com que a Apple perdesse bastante mercado para a Microsoft. No final dos anos 90, o código do Macintosh apresentava muitos problemas, o que obrigou que um novo plano fosse traçado. Em 2001, a Apple surpreendeu o mundo da informática, abandonando o seu próprio código e reescrevendo todo o seu sistema operacional usando o Unix como base. A partir daí, ele passou a se chamar MAC OSX, sistema que continua forte até os dias de hoje.

Mac OSX

Bill Gates e a Microsoft

Voltando ao final da década de 70, outro jovem programador, chamado Bill Gates, também possuía o desejo de revolucionar o mundo da informática. Em 1975, ele fundou a Microsoft, empresa que possuía como objetivo primário o desenvolvimento de software em linguagem BASIC para o computador Altair da IBM. Com o sucesso dos programas desenvolvidos pela Microsoft, a empresa  afirmou que possuía um sistema operacional completo. A IBM se interessou pelo projeto e ambas as organizações afirmaram um contrato, em 1979.

Entretanto, a Microsoft estava com sérios problemas, pois não possuía um sistema operacional de verdade. A solução encontrada foi a compra do SO da Seattle Computer Products pelo valor de $50.000. Muitos o chamam de negócio do século, pois a partir de 50 mil dólares, a Microsoft possui o patrimônio atual avaliado em dezenas de bilhões de dólares.

Comando no MS-DOS


Após várias melhorias sobre o sistema comprado, a Microsoft lançou MS-DOS em 1982 cuja interface era baseada em modo texto, bastante parecida com a utilizada pelo Unix. Na época, esse SO não chamou tanta atenção, pois o Apple Lisa de Steve Jobs já trabalhava com uma interface gráfica. Tomando conhecimento deste problema, Bill Gates fez uma vista a Apple, com o objetivo básico de conhecer a empresa. Ao final da visita, Gates convenceu Jobs a ser incluído no  desenvolvimento do Macintosh.

O objetivo de Gates era maior que isso: copiar a interface gráfica do Machintosh, e foi exatamente isso que aconteceu. No lançamento do novo PC da Apple, Steve Jobs descobriu que a Microsoft estava lançando máquinas no Japão, cujas interfaces eram muito parecida com a do seu computador. Após a quebra da parceria entre os dois, Gates lançou o Sistema Operacional Windows 1.0 em 1985, batendo de frente com o MAC OS.



Após problemas de administração, Jobs foi demitido da Apple, o que desestabilizou a empresa, retornando somente em 1997. Assim, a Microsoft foi ganhando cada vez mais mercado no mercado, lançando o Windows 2.0 em 1987, trazendo melhorias consideráveis na parte visual e no gerenciamento de memória.

Interface do Windows 2.0

Windows 3.0 e 3.11

No início dos anos 90, o mercado de sistemas operacionais sofreu novo boom com o lançamento do Windows 3.0 (1990) e Windows 3.1(1992).  Na sua versão 3.0, a memória passou a ser gerenciada de maneira muito mais eficiente, incluindo a melhora substancial na interface gráfica. Foi criado um painel de controle e um gerenciador de arquivos organizado, facilitando todo o trabalho do usuário.
Um dos principais motivos que contribuíram para seu sucesso foi o fato do sistema já vir instalado de fábrica em um grande número de máquinas.

Windows 3.1 desktop

O Windows 3.1, incluindo seu service pack 3.11, trouxe melhorias à versão 3.0, como uma interface de rede melhor desenvolvida. Em 2 meses de lançamento, o 3.1 vendeu 3 milhões de cópias.

Windows 95, 98 e ME

No ano de 1995, foi lançada no mercado a nova versão deste sistema operacional, o Windows 95. Esta versão foi tão importante para informática que acabou definindo o padrão com que o desktop é organizado, o qual ainda é utilizado no Vista. Por exemplo, podemos citar o botão Start, o menu Iniciar, a barra de tarefas e o gerenciador de arquivos Windows Explorer.  Após alguns services packs, esta versão passou a suportar a leitura de dispositivos USB,  o navegador internet explorer, entre outras funcionalidades.


Dando continuidade a seu antecessor, a nova versão deste sistema foi lançada no ano de 1998, chamada de Windows 98. Apesar de apresentar melhorias em relação ao 95, o SO era um pouco lento e instável. Tais problemas só foram arrumados com o Windows 98 SE (Second Edition), lançado em 1999, que incluía funções avançadas para compartilhamento de rede, suporte integrado a drivers de DVD-ROM, entre outras tarefas

O sucessor, Windows Me, lançado em 2000, foi um dos maiores fracassos na questão de sistema operacional, pois era muita instável. Possuía somente poucas melhoras em relação ao Windows 98 SE. Por isso, logo foi deixado de lado.

Todas as versões apresentadas até aqui usavam o MS-DOS como núcleo do sistema, ou seja, o Windows funcionava como uma espécie de ambiente gráfico. Com o passar do tempo, o uso desta arquitetura tornou-se insuportável, visto que o MS-DOS não conseguia dar conta de processar tantas informações, o que ficou evidente no  Windows Me.

Windows XP e Vista


Lançado em 2001, o Windows XP tornou-se um marco na história dos sistemas operacionais, principalmente por trazer muitos recursos totalmente novos. Entre eles é possível citar que o sistema tornou-se muito mais seguro, através da diferenciação de permissões entre administradores e usuários comuns. A estabilidade também é uma de suas fortes características, pois o número de telas azuis diminuíram consideravelmente.
Interface Windows XP

O principal motivo para todo esse avanço é uso do núcleo (kernel) NT como base, que exclui totalmente a necessidade do MS-DOS. Na verdade, o núcleo NT já vem sido usado desde outras versões do Windows lançadas para uso de servidores, como o Windows NT (1993) e Windows 2000 (2000). Contudo, foi somente no XP que esta arquitetura foi lançada para o usuário comum.

Depois de seis anos de espera, a Microsoft lança o Windows Vista, em 2007, que foi muito aguardado pelos usuários. Ao contrário do XP, esta nova versão desapontou o público de uma maneira geral, principalmente por exigir uma máquina muito potente. Somente em computadores top de linha é possível observar vantagens no desempenho do Vista, principalmente pela suporte a multi-core. Seu grande destaque foram os efeitos gráficos de última geração provido pelo pelo Aero e o Flip 3D.

Desktop Windows 7

A nova versão deste SO, Windows Seven, já está em desenvolvimento.


Sistemas Operacionais Livres

Até o exato momento, apresentamos a evolução dos principais sistemas proprietários do mercado: Mac OS X e Windows. Agora, vamos focar nos sistemas livres. Apesar de fazer bastante sucesso nos anos 70, o Unix continuou a ser desenvolvido durante toda esta década e a seguinte também. No ano de 1983, um revolucionário programador chamado Richard Stallman criou o projeto GNU, ele afirmava que os softwares deveriam ser desenvolvidos de maneira livre, sem  restrições na leitura ou modificação de seus códigos fontes. 

Em 1984, o MIT desenvolveu o X Window System, que como o seu nome diz, é um sistema gráfico de Janelas para o Unix. Ele permaneceu proprietário até 1987, quando uma versão opensource foi lançada, sendo incorporada no desenvolvimento deste sistema operacional. Um dos principais objetivos da GNU sempre foi desenvolver a sua própria versão do Unix, através de um Kernel próprio, chamado de GNU Hurd. Contudo, este núcleo possuía muitas falhas de sistema, comprometeu muito o seu desenvolvimento.

X Window System

O kernel Linux

Visando estas falhas, um programador chamado Linus Torvalds estava desenvolvendo outro kernel para o GNU, chamado de Linux, em. Em seu primeiro lançamento oficial (1991), na versão 0.2, o Linux já possuía mais funcionalidades que o GNU, o que atraiu bastantes desenvolvedores. Pouco tempo depois, o núcleo criado por Torvalds já era o sistema GNU mais usado do mundo.

Além disso, os programadores eram e ainda são livres para utilizar o kernel Linux em seus próprios sistemas, o que acabou gerando as famosas distribuições como conhecemos hoje . As primeiras  ficaram conhecidas como Debian e Slackware, ambas lançadas no Ano de 1993. No início, eram difíceis de serem utilizadas, comparadas com os Windows 3.11 e 95, pois exigiam um conhecimento profundo de computação por parte dos usuários.

Ubuntu 9.04

Com o tempo, as distribuições Linux foram se tornando cada vez mais fáceis de serem utilizadas, principalmente para atrair o usuário comum do computador. Atualmente, utilizar este sistema é tão fácil quanto o Windows, principalmente em distribuições como o Ubuntu.

Conte-nos suas experiências com sistemas operacionais

Caso você tenha experiências interessantes com sistemas operacionais citados ou não neste artigo, sinta-se à vontade para compartilhá-las com a gente.



Fonte - Tecmundo

Related Posts Plugin for WordPress, Blogger...

terça-feira, 24 de janeiro de 2012

Apagar as luzes em protesto ao SOPA pode sair caro para as empresas

Confira quanto dinheiro os principais sites da atualidade perderiam se ficassem apenas um dia desativados.





Em protesto ao SOPA, várias empresas anunciaram que participariam de um movimento organizado em que fariam um “blackout”, ou seja, de alguma forma limitariam os seus serviços online. No dia 18 de janeiro, realmente muitos sites realizaram ações que explicitavam sua contrariedade ao projeto de lei.
Um dos serviços que apresentou uma das medidas mais drásticas foi a Wikipédia, que ficou 24 horas fora do ar. Todavia, tempo significa muito dinheiro na internet. Pensando nisso, o site The Next Web reuniu algumas notícias sobre o faturamento dos principais sites e serviços da atualidade e fez alguns cálculos para descobrir quanto eles perderiam em um dia que ficassem desativados. Confira a lista abaixo:


  • Google: US$ 100 milhões (R$ 175 milhões);
  • Facebook: US$ 11,7 milhões (R$ 20,5 milhões);
  • Twitter: US$ 400 mil (R$ 700 mil);
  • eBay: US$ 28 milhões (R$ 49 milhões);
  • Amazon: US$ 82 milhões (R$ 144 milhões);
  • Yahoo!: US$ 11,8 milhões (R$ 20,7 milhões);
  • Groupon: US$ 7 milhões (R$ 12,2 milhões)




Fonte: Tecmundo
Related Posts Plugin for WordPress, Blogger...

domingo, 15 de janeiro de 2012

Qual é a temperatura máxima a que meu PC pode chegar antes de explodir ?

Conheça os limites dos componentes mais quentes de sua máquina. Será mesmo que tanto calor pode gerar uma explosão?

Pode ser que você já tenha experimentado problemas de altas temperaturas no computador, ainda mais se você mora em uma região muito quente ou se por acaso seu PC já tem muito tempo de uso. Isso é normal, afinal, componentes eletrônicos têm como propriedade natural esquentar devido ao efeito Joule — algo que explicaremos posteriormente.
Muitas pessoas têm curiosidade quanto à temperatura máxima que o processador e outros componentes aguentam. Descobrir tal informação não é nada difícil, visto que a maioria dos dispositivos conta com uma ficha técnica que possui tal especificação. Assim, basta conferir o manual ou o site oficial do produto para descobrir a informação.

Informações sobre a GeForce GTX 580 (Fonte da imagem: Reprodução/NVIDIA)

Agora, quando as dúvidas vão além do que é relatado pelo fabricante, resta apenas recorrer ao Tecmundo para descobrir as respostas. Hoje, vamos comentar sobre a temperatura máxima dos principais componentes do PC e quais as possibilidades de ocorrer uma explosão.

Calor e muito mais calor

Esse tal de efeito Joule é o processo de transformar energia elétrica em calor, algo que você deve ter aprendido nas lições de física do ensino médio. Durante as aulas, seu professor provavelmente abordou algo sobre a resistência dos materiais e o calor que é gerado quando os elétrons tentam passar através deles.
Um processador, por exemplo, não realiza apenas 200 ou 300 cálculos e simplesmente para de trabalhar. Muito pelo contrário, são milhões de cálculos por segundo, o que significa energia transitando de um lado para outro e, consequentemente, muito calor sendo gerado a todo instante devido à resistência dos materiais que compõem as trilhas internas da CPU.

                      
                                              (Fonte da imagem: Divulgação/ASUS)

O calor precisa ser removido rapidamente para que não haja um aumento súbito de temperatura nas peças internas do processador, visto que o chip vai continuar trabalhando e gerando mais calor. Daí a necessidade de aplicar pasta térmica e instalar um cooler.

A temperatura máxima de operação

Todo componente possui limites bem específicos. Seja a placa gráfica, o chipset ou a CPU, todos têm uma limitação de temperatura. As fabricantes informam a temperatura máxima de operação para que o consumidor saiba até quantos graus o dispositivo deve operar normalmente.
                     
                                            (Fonte da imagem: Reprodução/AMD)

Esse valor também serve como parâmetro de referência para monitorar o funcionamento dos componentes. Vale salientar que seu processador dificilmente vai ultrapassar a temperatura máxima de operação, pois tanto a CPU quanto a placa-mãe trazem mecanismos para avisar quando há um sobreaquecimento e recursos para desligar o chip antes que ele queime.

Ultrapassando a temperatura máxima

Apesar das proteções, existem meios de forçar um processador a trabalhar acima do máximo dessa medida. Claro, há também situações em que a CPU já está desatualizada e não há qualquer recurso para evitar esse inconveniente. Mas, afinal, qual seria a real temperatura máxima de uma CPU?
Em teoria, o máximo que um processador pode atingir é 150 °C. Esse valor é, na verdade, referente à temperatura máxima de junção de um transistor de silício. Contudo, não pense que sua CPU vai aguentar acima dos 100 °C — a própria Intel informa que esse é o valor de junção. Qualquer aumento acima do parâmetro máximo de operação deve resultar em telas azuis e reinicializações aleatórias.







Caso nenhuma atividade anormal ocorra, então algum componente interno pode queimar antes de alcançar os 100 °C, afinal, um processador não é composto apenas por transistores. Claro, tudo isso é mais teoria do que comprovado, afinal, poucas pessoas realizam experiências apenas para provar a temperatura exata em que uma CPU queima.

Existe a possibilidade de explodir?

Explosões podem acontecer na fonte de alimentação ou em algum capacitor da placa-mãe. Chipsets, placas de vídeo e processadores, por outro lado, contam com muitos transistores, os quais podem derreter, mas não explodir.

Mantenha seu computador sempre refrigerado

Dito tudo isso, você provavelmente deve ter notado que dissemos de forma detalhada algo que você já sabia: o calor é inimigo da eletrônica e da eletricidade. Portanto, nossa dica é manter os componentes do seu computador em baixas temperaturas. Instale um dissipador mais eficiente, adicione ventoinhas no gabinete e aplique pasta térmica nova na CPU.


(Fonte da imagem: Divulgação/Zalman)

Enfim, quanto menor for a temperatura, maior será o desempenho do seu computador. Para monitorar os componentes do seu PC, recomendamos que baixe o HWMonitor. Você já teve alguma experiência com calor excessivo na sua máquina? Deixe seu comentário.


Fonte:Tecmundo


Related Posts Plugin for WordPress, Blogger...

sábado, 7 de janeiro de 2012

Malware de Facebook já atingiu 45 mil usuários

Praga está sendo espalhada desde 2010 e é responsável por roubo de dados bancários.



 


Desde abril de 2010, um worm faz parte da vida de boa parte das pessoas que acessa o Facebook. Conhecido como Ramnit, a praga virtual rouba credenciais de perfis infectados (a infecção ocorre pelo clique em links maliciosos) e depois se espalha disseminando mais links falsos pela rede social.
Mas é preciso saber que o worm não é exatamente igual ao de dois anos atrás. Ele foi modificado e está mais poderoso. Segundo o Seculert (central especializada em ameaças virtuais), há mais de 45 mil credenciais nas mãos dos criminosos virtuais. O Ramnit é considerado um financial-data-stealing worm (worm de roubo de dados financeiros).
Apesar de várias pessoas possuírem dados de cartão de crédito no Facebook, o Ramnit utiliza a rede social para roubar informações que dão acesso a outros serviços, como email, contas bancárias e servidores corporativos. Com estes novos dados é que os criminosos realmente causam os prejuízos.


Related Posts Plugin for WordPress, Blogger...

quarta-feira, 4 de janeiro de 2012

Problemas na conexão de rede sem fio (wireless) - Erro: Validando Identidade.

Com a maior praticidade e mobilidade das redes sem fio (Wireless), percebe-se um 
aumento desse tipo de rede tanto nas residências quanto em empresas. Hoje, a dica é 
sobre esse tema. Sobre um problema ocorrido no notebook de uma amiga (Carla Ceccopieri)
onde o mesmo não conectava a rede wireless de sua residência de forma alguma.



O notebook é um equipamento CCE-Win e que possui o Windows XP Professional - Service 
Pack 3 como sistema operacional. Ao tentar acessar a sua rede wireless, o windows
identificava a existência de uma rede sem fio, a mesma era selecionada e, então, a senha digitada. 
Após isso, o windows não conseguia finalizar a conexão apresentando um erro que 
trazia a mensagem "Validando Identidade".


Não se assuste com o erro e nem refaça as configurações do seu roteador, pois a solução é simples, tanto que foi resolvido com um telefonema. Para corrigir esse problema, siga os
passos abaixo:


1) Abra as conexões de rede.
2) Clique com o botão direito na conexão de rede sem fio e clique em "Propriedades".
3) Na tela "Propriedades de conexão da rede sem fio", clique na aba "Redes sem Fio".
4) Veja que no quadro "Redes preferenciais" está a sua rede sem fio. Selecione-a e clique em "Propriedades".
5) Clique na aba "Autenticação" e DESMARQUE a opção "Ativar autenticação IEEE 802.1x 
para esta rede".
6) Clique "OK" em todas as telas, reinicie o windows e teste sua conexão novamente. Vai funcionar!


Fonte - SOS Suporte
Related Posts Plugin for WordPress, Blogger...

segunda-feira, 2 de janeiro de 2012

Como limpar arquivos de paginação que guardam senhas e outras informações ao desligar o computador

Aprenda a deixar seu computador completamente seguro ao desligá-lo, apagando informações importantes que deixam rastros por ali.

Já é de conhecimento geral que alguns programas podem, algumas vezes, guardar informações relevantes de dados pessoais, senhas em texto simples (sem nenhuma codificação) e muito mais. Portanto, nada melhor do que deixar o computador seguro quando você o desliga, limpando esses dados que não serão usados naquele momento.

Para isso, a própria Microsoft traz uma solução chamada FixIt, que limpa a memória virtual quando você desliga o computador. Com isso, é possível ficar muito mais sossegado na hora de desligar o sistema, sabendo que as informações que ali existiam enquanto você estava por perto não continuam disponíveis.

Como limpar

Para isso, acesse este link e baixe, diretamente do site da Microsoft, o FixIt específico para a tarefa de limpar os dados quando desligar o computador. Após baixar o programa, clique para que ele comece a rodar, aceitando os termos do contrato.

Aguarde que ele crie o ponto de restauração e modifique as informações

O FixIt cria um ponto de restauração do sistema, para que você tenha um backup do estado atual do computador caso algo saia errado. Basta deixar que o FixIt faça o trabalho, que é executado em pouco tempo.
Ao final do processo, o FixIt mostra uma mensagem avisando que esta tarefa foi processada, o que significa que você já pode fechar a janela, reiniciar o computador e continuar a navegar por qualquer lugar da internet.

Reinicie na hora ou depois

Manualmente

Para quem não está interessado em baixar qualquer tipo de arquivo no computador, a solução manual é uma boa ideia. Com isso, mesmo sem baixar o FixIt você é capaz de deixar o sistema completamente seguro, limpando as informações ao desligar o computador.

Clique para executar o arquivo

Para isso, acesse o Menu Iniciar e busque a palavra “Regedit” para encontrar o arquivo executável de mesmo nome. É com ele que você abre o Editor do Registro, responsável por manter várias informações no sistema.

A seguir, siga o caminho HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Session Manager\Memory Management e clique em “ClearPageFileAtShutdown” para abrir uma nova janela.

Siga o caminho até a opção ClearPageFileAtShutdown

No Editor DWORD, insira o valor “1” (sem aspas) para que o sistema saiba que é preciso limpar o sistema ao desligar o computador. Então feche o Editor do Registro e reinicie o computador. Para reverter o processo, basta seguir o mesmo caminho, mudando o valor “1” inserido de volta para “0”.
O caminho de volta segue o mesmo princípio também para quem utilizou a ajuda do FixIt. Basta entrar no Editor e seguir os passos para reverter o processo rapidamente.

Mude o valor para 1

Vale a pena comentar que esta dica vale não apenas para o Windows 7, mas também para os usuários do Windows Vista que queiram deixar o computador mais seguro. Ou seja, não existem mais desculpas para não conseguir dormir tranquilo, preocupado em ter o computador limpo e sem informações importantes escondidas.


Related Posts Plugin for WordPress, Blogger...

Os acertos e os erros da Microsoft em 2011

Este ano foi cheio de altos e baixos para a maior empresa de software do mundo. Aqui estão sete razões.
 (crédito: thinkstock)




A Microsoft luta para se adaptar a um mercado de computação em que o PC está ficando em segundo plano, atrás de tablets e smartphones. Muito dos problemas da empresa nos últimos tempos têm surgido diretamente dessa mudança de mercado. Aqui está uma lista com as sete ações mais errôneas e inteligentes da Microsoft em 2011.


1.Aquisição do Skype (Certo).
A Microsoft anunciou em maio passado que havia chegado a um acordo para adquirir o Skype por US $ 8,5 bilhões. Por que foi tão esperta? Ferramentas e serviços VoiP do Skype irão adicionar simplicidade, recursos de bate-papo por vídeo são amplamente utilizado por uma série de produtos da Microsoft, incluindo o Office e Office 365, Windows Phone, Xbox e, no futuro, o Windows 8. Ações que poderiam dar à Microsoft uma vantagem sobre os rivais como Google e Apple que, daqui para frente, podem até ter que pagar pelo direito de usar o Skype em algumas de suas plataformas.
2. Ainda sem tablets (Errado).
Se a atual temporada de compras provou alguma coisa, é que 2011 foi o ano do tablet. Dados de mercado mostram que os principais presentes sob a árvore de natal este ano foram touch-powered da Apple, Android OEMs e Amazon. Quanto à Microsoft? Ela ainda está falando de tablets num tempo futuro. A estratégia de tablets da empresa está intimamente ligada ao Windows 8, ambos devem entrar em operação até final do próximo ano ou mesmo de 2013. Aí já pode ser tarde demais para a festa.
3. Kinect para Windows (Certo).
Com PCs ficando em segundo plano, a Microsoft precisa encontrar uma maneira de revigorar seu núcleo de franquia Windows. Ela pode ter a coisa certa em ferramentas que permitem aos desenvolvedores de aplicativos porta Kinect da Xbox ao PC. Kinect em máquinas Windows promete uma série de novas aplicações, de entretenimento a fabricação de saúde. Alguns desenvolvedores da Universidade de Washington já estão usando a tecnologia para criar sistemas que permitirão aos médicos operar equipamentos cirúrgicos miniaturizados através de gestos com as mãos.
4. Acabou com o Zune (Certo e Errado).
A Microsoft colocou oficialmente seu longo sofrimento, a franquia Zune, fora de sua miséria, em outubro deste ano. Ato inteligente, porque o Zune havia se tornado um concorrente na categoria de música MP3 player, e como marca não se encaixava com a nova estratégia da Microsoft móvel, que é baseada em Windows Phone 7. A parte errada? Levou tanto tempo para tomar essa decisão – Zune deveria ter sido demolido há muito tempo.
5. Lançamento Office 365 (Certo).
Com cidades como Los Angeles e Washington DC trocando seus desktops para aplicativos Google, a Microsoft precisava responder a seu rival baseada em ofertas de nuvem. Assim fez com o Office 365, que foi lançado em junho. Office 365 tem recursos baseados em nuvem das ferramentas familiares de produtividade e comunicação da Microsoft. Inclui acesso ao Office Professional Plus, o Exchange Online, SharePoint Online, Online Lync e Office Web.
Os planos começam em US $ 6 mensal por usuário, tornando a oferta competitiva com os aplicativos e serviços do Google, que inclui e-mail online, aplicativos de produtividade e de calendário a partir de 5 dólares por usuário.
6. Bilhões para Nokia (Errado).
A Microsoft e a Nokia fecharam no início deste ano um acordo sob o qual a fabricante finlandesa de celulares abandonará o Symbian e passará a usar o Windows Phone como sistema operacional padrão em praticamente todos os seus dispositivos móveis. Na superfície, é um bom negócio para a Microsoft, uma vez que a Nokia ainda vende mais telefones em todo o mundo que qualquer outro fabricante. Mas acontece que a Microsoft vai realmente pagar bilhões de dólares para a Nokia usar Windows Phone.
7. Acordo SUSE Linux (Certo).
Em julho, a Microsoft anunciou que iria estender um acordo no qual ela compra “certificados” para suporte e serviços de apoio SUSE Linux e revende-os em uma marcação para clientes do Windows que operam em ambientes híbridos. Microsoft, que afirma que Linux viola suas patentes, também se compromete a não processar os detentores de certificado de infração. O programa de ações permite que a empresa lucrar com suas reivindicações no Linux sem irritar os clientes.
Related Posts Plugin for WordPress, Blogger...

5 grandes tendências de nuvem

Computação em nuvem tornou o caminho mais fácil para as empresas experimentarem e inovarem com a TI. A tendência é acelerar ainda mais no próximo ano.


Cloud computing não é mais uma curiosidade como acontecia alguns anos atrás. As empresas hoje estão cada vez mais olhando para a computação em nuvem como um componente integral de sua estratégia de computação. O raciocínio é claro. Empresas agora entendem que a nuvem oferece a possibilidade de ser capaz de mais, sem ter problemas com mudança da TI e sem perder tempo e despesa de instalação, configuração e implantação de novos sistemas. Muitas empresas estão descobrindo que é muito mais fácil para experimentar e inovar com cloud computing do que com modelos de computação tradicional.
Mas como em qualquer área emergente ainda é muito cedo para declarar vitória. Computação em nuvem é complicada em muitos aspectos. Enquanto 2011 foi o ano em que a nuvem tomou seu lugar como uma estratégia legítima, 2012 será o ano em que as empresas precisarão lidar com questões operacionais de cloud computing. Portanto, eu estou prevendo cinco grandes tendências para a nuvem.
1ª Grande Tendência: gerenciamento de serviços para nuvem se tornará um requisito para adoção.
Está se tornando evidente que as empresas não adotarão um modelo único de implantação da nuvem, mas usarão uma combinação de vários serviços de nuvem pública (incluindo software como um serviço, infraestrutura como um serviço, e plataforma como um serviço), serviços privados de cloud bem como seu ambiente de computação tradicional. Isto é verdade especialmente para as empresas do mid-market e grandes empresas. A capacidade de gerenciar este ambiente híbrido será a diferença entre o sucesso e o fracasso. Em 2012, os clientes começarão a planejar e implementar uma estratégia de gerenciamento de serviços para a nuvem.
2ª Grande Tendência: Cloud Security será ampliada para abranger privacidade, compliance e governança.
Executivos de empresas passaram a se preocupar com a segurança em nuvem desde o momento em que a Amazon começou a oferecer serviços de nuvem pública. Embora haja uma variedade de opiniões sobre o quão seguro são os serviços de cloud, não existe uma prática consistente relacionada com a segurança da nuvem. Isso irá mudar em 2012. Este será o ano em que TI e gestão de negócios vão começar a lidar com as sutilezas das regras de configuração e processos – que nuvens usar em determinadas circunstâncias. Por exemplo, as comunidades de nuvem aberta, com pouca segurança e sem governança, serão de valor limitado para as empresas que têm de cumprir com a indústria e exigências governamentais. Por outro lado, há um segmento emergente de ofertas de cloud pública destinado às empresas que querem um maior nível de segurança e governança. Cada vez mais, as organizações estão olhando para as nuvens privadas, já que a governança precisa ser rigorosamente aplicada.
3ª GrandeTendência: O Acordo de Nível de Serviço torna-se um critério chave de compra.
Embora a ideia de um acordo de nível de serviço não seja nova, ainda não é bem compreendida no contexto da computação em nuvem. Uma das mudanças mais importantes que espero em 2012 é que as empresas passem a ter um olhar muito mais duro com a forma como os prestadores de serviços em nuvem oferecem SLAs. Todos os provedores de cloud computing oferecem um acordo de nível de serviço mais contratual, mas a maioria deles ainda declara para proteger o vendedor ao invés do cliente.
4ª Grande Tendência: gestão empresarial volta sua atenção à segurança de grandes dados.
As empresas estão começando a adotar tecnologias que lhes permitam gerenciar e analisar grandes volumes de dados de fontes diferentes. Assim como a atenção para big data irá expandir em 2012, as preocupações em proteger a segurança e a integridade dessas fontes compostas de dados também irão ampliar.
5ª GrandeTendência: a nova definição do ambiente de computação muda as expectativas do cliente.
Embora as organizações tenham se preocupado sempre com o desempenho de seus ambientes voltados para o cliente, o advento de modelos de computação em nuvem híbrida irá acrescentar o nível de urgência. Há uma diferença entre o nível de controle que tinha sobre o centro de dados e o controle de um ambiente híbrido que inclui serviços de cloud pública e privada (algumas aplicações de software como um serviço, a capacidade de demanda para os horários de pico, etc). As empresas vão exigir a capacidade de monitorar e medir o desempenho do ponto de vista da experiência do cliente.
Related Posts Plugin for WordPress, Blogger...

Como melhorar o caos dos sistemas operacionais

Com sistemas operacionais da Microsoft, Apple, Google, RIM e outros dentro das empresas, a TI não pode cruzar os braços e esperar que a situação melhore. Separamos cinco lições para te ajudar nesta jornada
O help desk deve ser o lugar mais infernal para se trabalhar ultimamente. De acordo com a pesquisa Guerra dos Sistemas Operacionais (SO), da InformationWeek Analytics, quase todas as empresas suportam Windows, metade delas, dispositivos Apple, e três em cada dez sistemas operacionais Linux ou Android. Dois terços das companhias permitem que seus funcionários conectem gadgets pessoais às redes corporativas com pouca – ou nenhuma – orientação sobre quais aparelhos ou plataformas eles podem usar ou se a TI oferece algum tipo de suporte. Se algo der errado, você sabe quem será o primeiro a ser chamado.
Bem vindo ao caos dos sistemas operacionais.
O Windows ainda domina (99% das respostas), mas o número mascara uma grande mudança na quantidade de sistemas operacionais com que a TI tem lidado. 85% das áreas suportam, oficialmente, mais de um SO; em média, empresas suportam até três plataformas. Os smartphones são a principal força, liderada pelo iOS, da Apple, e Android, baseado em Linux. Mas a pesquisa mostra que o suporte oferecido tem se ampliado por todas as plataformas, incluindo servidores, desktops, laptops, tablets e thin clients.
E, apenas na contagem oficial, 65% das dos departamentos de TI permitem uma ou mais plataformas adicionais que não são oficialmente suportadas. É como aceitar sistemas como OS X, da Apple, ou Linux e achar que os usuários farão todas as atualizações de segurança e não usarão uma das lojas de aplicativos para baixar um software perigoso, com acesso à rede corporativa.
No começo de 2011, um delator que atende pelo nome de Myournet postou 21 aplicativos infectados com malware no Android Market, antes que o Google os tirasse do ar. Isso tende a piorar. Enquanto mais de dois terços das áreas de TI que entrevistamos permite conexão de dispositivos pessoais à rede corporativa, a maioria não exige padrões como antivírus, atualizações e seleção de dispositivo. Não surpreende que 78% dos profissionais de TI estejam preocupados com essa tendência, citando segurança, gerenciamento e suporte como os principais problemas.
E o que tem sido feito para conter o caos? Não muito. A maioria das organizações avalia os sistemas por tipo de dispositivo e linha de negócio. Isso deixa passar a oportunidade de conhecer o SO da equipe de servidor que pode beneficiar a de desktop, e a chance de explorar a funcionalidade entre componentes. A maioria das companhias tem gerenciamento de antivírus e correções para desktops e laptops, mas menos de 18% oferecem antivírus, suporte remoto ou correções para tablets, thin clients e smartphones.
Os fabricantes querem expandir a presença nas empresas. Em recente entrevista, o VP de engenharia do Windows Phone, Terry Myerson, deixou claro que a Microsoft espera que o Windows Phone 7 entre na maioria das companhias pela porta dos fundos, conquistando consumidores que levarão o smartphone ao trabalho. Foi assim que o iPhone e o iPad se estabeleceram no mundo corporativo, e a versão para servidor do futuro OS Lion, da Apple, oferecerá melhor gerenciamento de desktop e opções de armazenamento.
A Research in Motion (RIM) trouxe o tablet Playbook, baseado no sistema operacional QNX, e outros OEMs lançaram ou planejam lançar seus próprios tablets, a maioria baseado em Android. A HP estava nessa concorrência, mas, recentemente, a companhia decidiu abandonar o mundo móvel e tem feito uma liquidação de seus tablets com webOS nos EUA.
O Google se ofereceu para vender netbooks baseados em Chrome OS por US$ 28 por unidade, por mês. É um híbrido de software e hardware como serviço. O argumento é que não é necessário se preocupar com a manutenção do sistema operacional, já que as atualizações são realizadas online e os aplicativos são baseados em web. O gigante das buscas alega que o modelo irá eliminar problemas com suporte, mas o sistema tem funcionalidades limitadas se não estiver online.
Related Posts Plugin for WordPress, Blogger...