.
Carregando...

" Sejam Bem Vindos a Hany Tech "

Aqui você encontra de tudo em um só lugar: Informações, Novidades,Dicas de Tecnologia, e uma completa assistencia em informática e Redes. HanyTech Solução em Tecnologia. "NOSSA PRIORIDADE É: AGILIDADE NOS SERVIÇOS E SATISFAÇÃO DOS CLIENTES"



MANUTENÇÃO EM COMPUTADORES, NOTEBOOKS E PERIFÉRICOS

Contamos com uma especialidade e estamos empenhados em oferecer as melhores soluções, seja em computadores, notebooks ou periféricos. Soluções completas e com garantia de qualidade seja em hardware ou software, Sempre prezando pela qualidade, honestidade e melhor preço.

INSTALAÇÃO E CONFIGURAÇÃO DE REDES CABEADA E WIRELESS

Tendo como parceiros provedores de serviços de internet ADSL, CABO, Wireless e usando de equipamento e softwares de ponta como cisco, mikrotik, VSEC e outros temos a oferecer serviços de instalação residencial e corporativo de internet bem como o compartilhamento e/ou reestruturação de sistemas já existentes.

DESENVOLVIMENTO,REGISTRO E HOSPEDAGEM DE SITES

Através de datacenters no brasil e no exterior e com profissionais internos e terceirizados, tudo isso se reflete em soluções confiáveis e de alto poder de satisfação em desenvolvimento e hospedagem de sites.

CONTRATOS DE MANUTENÇÃO

Faça como algumas empresas renomadas já fizeram, terceirize a manutenção de computadores, notebooks e periféricos da sua empresa. Acabando assim com a dor de cabeça na hora de contratar um profissional qualificado e por dentro da sua estrutura. Planos de manutenção corretiva, preventiva, suporte e consultoria.

CONSULTORIA EM INFORMÁTICA

Temos pessoal qualificado para lhe oferecer o melhor em consultoria seja em automação ,manutenção redes cabeadas ou wireless bem como otimização de recursos e upgrades.

A Empresa

A Hany Tech Solução em Tecnologia foi Criada em 2010 com o objetivo de atender à crescente demanda em equipamentos de informática, além de prestar assistência técnica, a HanyTech está tornando-se sinônimo de confiança e qualidade. Sempre orientada pelas tecnologias e evoluindo junto ao mercado, a Hany Tech vem acompanhando o desenvolvimento e as necessidades dos seus clientes junto as novas tecnologias, e se qualificando para melhor atender o mercado.

Blog

Chrome barrará downloads que façam mudanças indesejadas no PC

O navegador Chrome já exibe alertas quando algum malware é baixado por um usuário por meio do serviço Navegação Segura, mas o Google quer mais. Nesta quinta-feira, 14, a empresa anunciou que a ferramenta começará a alertar também outros tipos de programas que causem mudanças não-solicitadas na máquina, como a mudança de sua página inicial ou configurações do navegador.

Segundo o Google, o aviso será mostrado quando alguma página tenta enganar o usuário a baixar e instalar algo. Estes alertas começarão a ser exibidos a partir da próxima semana e serão iguais aos que o Chrome já mostra contra malwares comuns.

Caso haja algum engano, o usuário continua tendo a opção de ir à lista de downloads e abrir o arquivo manualmente, ou simplesmente dispensar o aviso.
Reprodução

Este tipo de programa normalmente começa a exibir pop-ups indesejados, instalam barras de ferramentas no browser, mudam a ferramenta de buscas padrão e a página inicial, além de executar processos que acabam reduzindo a velocidade do computador.

A empresa diz que, atualmente, já são mostrados 3 milhões de avisos por semana e o número deve aumentar com a maior abrangência do serviço. Cerca de 1,1 bilhão de usuários da web estão protegidos, já que tanto o Firefox quanto o Safari também usam a tecnologia do Google contra o download de malwares, embora não se saiba quando os outros navegadores receberão a novidade.

fonte:olhar digital
LEIA MAIS

Montar as peças dentro do PC ainda é tão difícil quanto há alguns anos?


Se você é um entusiasta de computadores certamente já deve ter aberto o seu desktop para ver como as peças são dentro dele. Ou quem sabe você já montou o seu próprio computador? Somente quem já fez isso sabe como é o gosto de ligar o “Frankenstein” pela primeira vez e ver que tudo está funcionando direitinho.
Mas há alguns anos atrás isso não era uma tarefa muito simples. Hoje em dia dificilmente um computador não vá funcionar direito depois de montado, pois todos os componentes são bem compatíveis uns com os outros. Basta um pouco de cuidado — e bom senso — para manusear as placas e em poucos minutos tudo estará funcionando.
Mas isso não foi sempre assim. Há pouco mais de uma década montar um computador era uma tarefa que exigia um bom conhecimento profissional. Saber como combinar os componentes, regular, ajustar e configurar as máquinas podia ser uma verdadeira dor de cabeça para os marinheiros de primeiras viagem.

Processador

Instalar um processador hoje em dia é incrivelmente mais simples do que há 15 anos atrás. E em mais de um aspecto diferente. Antes, além de ter um processador compatível com a placa-mãe, era preciso ter muito cuidado na hora da instalação física.
Hoje em dia os coolers, dissipadores e placas-mãe são preparados para trabalharem em conjunto, até mesmo fisicamente. As placas da AMD trazem uma base plástica, basta conectar os ganchos do dissipador e fechar a trava.
As placas da Intel são semelhantes, mas o suporte plástico geralmente fica no próprio dissipador. Basta encaixar, travar e conectar o fio do cooler à placa-mãe.
Antes, não era bem assim. Além de ser mais difícil identificar o lado correto do processador para não danificá-lo, prender o dissipador no slot era uma tarefa árdua. Geralmente era preciso forçar a trava com uma chave de fenda, até que ela encaixasse no pino plástico do soquete.
Instalar o dissipador sem trincar esse processador era uma verdadeira arte.
O problema disso é que a chave de fenda poderia escapar para dois lados: se fosse pra baixo, poderia raspar a placa-mãe e arrancar algumas trilhas de dados, danificando o equipamento. Do outro lado, poderia escapar e cortar a sua mão.
Se tudo isso fosse feito corretamente, ainda era preciso controlar os jumpers da placa-mãe para acertar o multiplicador e a frequência FSB para definir o clock correto da CPU. Caso você configurasse esse parâmetro errado poderia queimar o processador em menos de um segundo, pois poderia fazê-lo rodar em uma frequência diferente daquela a qual ele foi programado.
O tempo passou e esses jumpres deixaram de ser físicos, passaram para o BIOS. Até aí ainda era preciso ajustar corretamente esses parâmetros, mas a máquina já corria menos risco de problemas, já que ela detectava o modelo do processador e pré-configurava tudo.
Hoje em dia você só precisa comprar uma placa e uma CPU compatíveis e instalar tudo. Como o sistema exige zero configuração, queimar o processador por uma instalação mal feita é uma tarefa quase impossível.

Placa de vídeo

Placa de vídeo é sinônimo de máquina gamer, isso porque um desktop normal geralmente se sai muito bem com uma saída de vídeo onboard para tarefas corriqueiras. A situação muda quando os jogos entram em cena. Assim, não tem jeito é preciso uma placa offboard.
Mas você sabia que há algum tempo todas as placas eram offboard? E encaixar uma no sistema não era uma tarefa tão simples assim. Antes de tudo era preciso saber se a sua máquina comportava uma placa de vídeo ISA nova, ou quem sabe uma VESA Local Bus.
Nem mesmo as primeiras placas de vídeo 3D tornaram a vida mais fácil: a primeira geração da famosa linha Voodoo era apenas 3D. Para aceleração 2D ainda era preciso ter uma placa de vídeo externa. Um cabo exclusivo conectava a placa 3D na placa 2D comum e o monitor geralmente era ligado na segunda porta da aceleradora 3D. Complicado? E era mesmo.
Além disso, o MS-DOS ainda era uma plataforma dominante para os jogos nos PCs da época. Como a maioria dos programas rodava em “modo real”, ou seja, direto, sem passar por uma camada de sistema operacional, os jogos precisavam ter drivers específicos para funcionar. Cada um deles.
E como não existia internet, se algum jogo veio sem os drivers de vídeo, dificilmente você conseguiria ativar a aceleração gráfica. Já pensou ter uma Voodoo na sua máquina e não conseguir ativar a aceleração gráfica de Tomb Raider somente porque faltava um arquivo?
A Voodoo precisava estar conectada a uma placa de vídeo "comum" para funcionar
Com a chegada das placas de vídeo onboard, quase tudo ficou mais fácil. Não era mais preciso sair em busca de uma placa de vídeo compatível com o seu sistema, bastava ligar a máquina e instalar os drivers que, por sorte, vinham em um disquete ou CD que acompanhava a placa.
O único problema dessas interfaces era conectar uma placa de vídeo externa: algumas placas-mãe simplesmente se recusavam a aceitar uma placa de vídeo externa. Outras eram mais amigáveis, bastava desativar as saídas onboard no bios, desligar a máquina, e instalar a placa externa para que tudo funcionasse como deveria.
Hoje em dia não há muito segredo. Você compra uma placa nova, instala no slot PCI Express, acessa o site do fabricante e baixa os drivers. Depois disso, é só se divertir.

Placa de som

Houve um tempo em que se ter uma placa de som no computador era um artifício de luxo. Acredite se quiser: som com qualidade de CD era um opcional para quem tinha dinheiro pra investir.
Quem conseguia adquirir um kit multimídia com uma placa de som Sound Blaster, da Creative, precisava de um pouco de conhecimento antes de conseguir fazer o sistema funcionar 100%. Isso porque não bastava instalar a placa, era preciso configurar o sistema para que ele reconhecesse o hardware na inicialização da máquina.
Encontrar um kit multimídia à venda é uma tarefa difícil hoje em dia.
Geralmente o CD de instalação da placa fazia esse tipo de ajuste, mas quem já teve um sistema assim sabe que as regulagens “finas” precisavam ser feitos à mão, através de linhas de comando dentro do arquivo “autoexec.bat.” Veja um pequeno exemplo:
@echo off
SET SOUND=C:\PROGRA~1\CREATIVE\CTSND
SET BLASTER=A220 I5 D1 H5 P330 E620 T6
SET PATH=C:\Windows;C:\DOS 
LH C:\Windows\COMMAND\MSCDEX.EXE /D:123
A terceira linha diz respeito às configurações do sistema de som, especificamente. Conhecer essas informações era necessário porque em cada aplicativo ou jogo era preciso reproduzi-las exatamente como elas podem ser vistas aqui, manualmente, um por um. Se isso não fosse feito, o jogo iria ficar sem som.
O tempo passou e os chips de som passaram para as placas-mãe, os chamados onboard. Mesmo assim, as placas de som externas não deixaram de existir, a diferença é que agora tudo fica dentro do sistema operacional, e geralmente tudo é reconhecido e instalado automaticamente, você não precisa ter trabalho algum. As interrupções e endereçamentos continuam lá, a diferença é que isso agora é feito tudo de forma transparente ao usuário.
Placa de som Creative, com interface IDE embutida.
É bem provável que você nem mesmo saiba qual é o chip de som presente na sua máquina, já que possivelmente nunca precisou fazer a instalação de drivers ou configurações mais complexas.

Armazenamento

Os SSDs já estão ganhando muita popularidade e não são mais tão incomuns. Contudo, os HDs tradicionais continuam firmes e fortes no mercado, principalmente pela sua relação custo x benefício.
Contudo, mesmo os HDs tradicionais são diferentes dos modelos mais antigos. Praticamente todas as unidades de armazenamento atuais utilizam a interface SATA, enquanto as antigas eram IDE. Mas e o que isso significa?
Além de ser um cabo de conexão diferente, o IDE tinha algumas particularidades que tornavam a sua instalação um pouco mais complicada.
Uma placa-mãe geralmente possui (ou possuía) dois conectores IDE, e cada um deles pode receber até dois periféricos. Esses periféricos devem ser organizados como MASTER ou SLAVE (mestre e escravo, em tradução livre). Essa ordem também é garantida pela posição dos cabos, sendo que uma porta IDE podia ter um SLAVE e um MASTER, não os dois ao mesmo tempo. Se isso acontecesse, o sistema não reconhecia os discos.
Mas e como configurar isso? Simples, através de jumpers (uma espécie de chave seletora). Cada um dos discos possui jumpers específicos e é só selecionar qual deles deve ser o principal e qual o secundário.
Há alguns anos todas as controladoras IDE eram externas, ou seja, era preciso instalar uma placa controladora em um slot (geralmente ISA) na placa-mãe, para então conectar o cabo IDE que ia até os HDs. Como um drive de CD-ROM também era um luxo nessa época, algumas máquinas suportavam apenas uma placa controladora, resultando em apenas uma porta IDE com suporte a dois HDs.
Conectar o drive de CD era uma tarefa para o “kit Multimídia” ou seja, a placa de som era híbrida; além de ser uma placa de som ela era também uma placa controladora IDE. Deste modo, o drive de CD era conectado à ela.
Drives de disquete também utilizavam interfaces diferenciadas, e assim como as placas IDE essas placas controladoras deviam ser instaladas separadamente. Alguns modelos eram mais poderosos e traziam conectores IDE e FDD na mesma placa.
Interface IDE: Veja a posição da trilha vermelha no cabo de dados.
Aos poucos, tanto IDE quanto FDD (Floppy Disk Drive) foram incorporadas à placa-mãe, facilitando a instalação de periféricos. Só que um problema ainda persistiu até o fim dos dias dessas interfaces: a posição dos cabos.
No início não haviam indicações de ordem dos cabos de dados, apenas um minúsculo número 1 ao lado da trilha 1 do conector. Esse número, com o tempo, foi substituído por uma trilha vermelha, assim, era só localizar a trilha vermelha e conectá-la ao ponto correto na placa. E se invertesse os cabos? Corria o risco de danificar os componentes; tanto a placa quanto o HDD, ou drive de disquete.
Quem montava computadores nessa época lembra do que aprendeu como regra de ouro: “No HD o fio vermelho fica do lado do conector de força” em alusão ao conector de força que vinha da fonte e ficava sempre do lado do pino 1 do conector IDE.
Para garantir que não houvessem mais erros, os conectores IDE de 80 trilhas ganharam um pino guia, que servia para acertar o lado sem erros, mas logo esse cabo foi substituído pela interface SATA, que temos até hoje.
A interface SATA facilitou muito a vida. Hoje em dia não existe muito problema para conectar as unidades de armazenamento, seja ela qual for. Basta conectar os cabos de dados, de força e pronto. Ao ligar a máquina tudo será reconhecido sem muitos problemas.

Placa-mãe

As primeiras placas-mãe eram bem simples. A grosso modo, é possível dizer que a única função delas era conectar os periféricos fisicamente, pois todos os controladores eram externos.
Os recursos mais básicos de controle passaram a ser incluídos no início dos anos de 1990, e compreendiam coisas como controle de teclado e mouse, portas seriais e, mais tarde, controladores de disquetes.
Ao instalar placas controladoras externas, era preciso ajustar a compatibilidade dos recursos e interrupções do hardware através de jumpers localizados na placa-mãe ou no BIOS. As interrupções precisavam ser independentes, por exemplo: uma placa de som não podia utilizar o IRQ 5 se o Fax-modem estivesse utilizando essa interrupção.
Configurar tudo isso exigia certa dose de conhecimento e algumas vezes dor de cabeça. Isso porque nem todas as placas externas permitiam que se alterasse parâmetros de interrupção, obrigando você a se virar como podia.
As placas-mãe já foram assim.
Com o passar do tempo mais componentes passaram a ser transferidos para as motherboards, como chip de vídeo, som, rede, fax-modem e muito mais. Hoje em dia é possível montar um computador sem nenhuma placa externa, já que algumas placas-mãe trazem até mesmo o processador embutido.

BIOS

O BIOS é pouco utilizado hoje em dia, principalmente porque a maioria dos componentes consegue se acertar automaticamente quando você liga o computador. Mas nem sempre foi assim.
Antes dos sistemas operacionais Plug `N Play, era preciso acertar os canais e interrupções de cada um dos itens de hardware instalados na máquina, além, é claro, de configurar cada um dos componentes precisamente. Um item fora do lugar era necessário para fazer o sistema não funcionar.
Um conflito muito comum era a porta de comunicação das portas seriais, (geralmente COM3 e COM4) que era a mesma porta utilizada pela maioria dos fax-modems. Geralmente esse conflito precisava ser resolvido no BIOS para garantir o funcionamento do sistema.
Atualizar o BIOS também era uma tarefa mais complexa. Era preciso criar um disco de boot (apenas com disquetes) e gravar os arquivos de atualização no disco. Depois era preciso reiniciar a máquina com esse sistema provisório para então atualizar o BIOS, rezando para que o disquete não apresentasse uma trilha defeituosa, pois isso poderia acabar danificando o BIOS e “matando” a placa-mãe.
Por essas e outras razões é que a atualização do BIOS da placa-mãe foi um bom tempo sinônimo de perigo, e todos que passaram por isso já ouviram a frase que devem carregar até hoje: “Se está funcionando, não atualize”.
Hoje em dia a função do BIOS mudou bastante. Além de mais complexas e cheias de recursos elas oferecem ferramentas de atualização automáticas ou via pendrive. Basta selecionar o arquivo e pronto. Algumas placas-mãe trazem mais de um arquivo de BIOS instalado, tudo para garantir a segurança do sistema.

Fax-modem, rede e jogos online

Muito tempo antes de a internet se popularizar já era possível jogar com seus amigos través de uma linha telefônica. A instalação do fax-modem era semelhante à da placa de som. Geralmente era possível controlar a porta de interrupção da placa através de um jumper físico, e depois indicar esse parâmetro dentro do arquivo autoexec.bat.
Para jogar online era preciso que o jogo tivesse suporte a esse recurso. Rodando via MS-DOS, não tinha como aproveitar a interface de conexão do sistema operacional, ou seja, era preciso literalmente configurar a máquina para receber ligações enquanto seu amigo (ou amigos) programava a máquina dele para telefonar para a sua, ou vice-versa.
Curiosamente era tranquilo jogar desse modo. A conexão era direta, logo, dificilmente havia lag entre os comandos. É claro, salvas as devidas proporções como a qualidade das linhas e a localização dos dois jogadores.
Ligar as máquinas em rede também era mais difícil, pois diversos protocolos de comunicação eram vigentes. Para fazer os computadores se entenderem era preciso combinar esses padrões.
US Robotics Sportster 56K: um mito.
Antes da internet existia o BBS, um sistema de comunicação bem mais primitivo que a rede mundial de computadores, mas que fez a alegria de muita gente. O BBS funcionava assim: um servidor era configurado para aceitar conexões externas, assim, os usuários precisavam discar para esse número a partir de seu computador.
Quando a conexão era estabelecida, era possível navegar pelo conteúdo desse servidor, que podia compreender salas de bate papo ou até mesmo games online.
A sigla BBS vem de Bulletin Board System, e era mais ou menos o que um website é hoje. Já imaginou ter que telefonar e estabelecer uma conexão nova para cada acesso ao TecMundo ou ao Facebook?
Quando a internet chegou, acessar via fax-modem era o que tinha. Isso porque era preciso fazer o modem discar para o provedor, para que esse fizesse a ponte entre a sua máquina e a web. Contudo, para que a conexão funcionasse de forma estável era preciso ajustar o hardware, e é aí que entravam vários guias especializados que traziam as “strings” perfeitas para o seu modem.
Essas strings determinavam padrões de conexão, controle de erro e padrão de transferência de fluxo de dados. E otimizar ao máximo era mais que recomendado, afinal de contas, só dava pra usar a internet depois da meia noite.
Este guia do site 3D Spotlight data do início do ano 2000, e mostra exatamente como configurar esse tipo de parâmetro. Se você é da “velha guarda” certamente vai reconhecer esses passos.
Não bastava instalar o modem, era preciso configurar tudo.
A era da banda larga chegou aos poucos. No início era preciso alugar um modem junto às operadoras, pois adquirir um separadamente era mais caro que o preço de um computador novo. Além disso, somente um técnico especializado podia configurar o sistema.
Hoje em dia a maioria das operadoras dá o modem de presente (com WiFi e tudo) para os assinantes. Além disso, ele já vem configurado e basta apenas conectá-lo ao seu computador.

Sistema operacional

Falar de todo o hardware sem passar pelo sistema operacional não parece ser justo. Vamos nos ater aos mais populares: MS-DOS e Windows, que reinaram absolutos aqui no Brasil durante o início da década de 1990.
Instalar tudo no MS-DOS era bem mais complicado. Isso porque, como citamos antes, era preciso configurar quase tudo “na unha”. Poucos softwares de instalação eram capazes de fazer o trabalho direito; isso porque quando você mandava um programa configurar a placa de som, ele bagunçava outros parâmetros, como o fax-modem ou o mouse. Desse modo, era preciso ir lá no config.sys ou autoexec.bat para ajustar tudo corretamente.
Além disso, o MS-DOS e quase todos os sistemas operacionais de sua época trabalhavam apenas com um tipo de memória: a chamada memória convencional. Isso porque os primeiros processadores IBM PC permitiam o endereçamento de apenas 1.024 Kb de memória. Desses, 394 Kb eram reservados para o sistema, o bloco UMA ou Upper Memory Área. Com isso, os programas tinham apenas 640 Kb disponíveis para uso.
Quem nunca fez piada com esta tela?
Já pensou ter que gerenciar esses 640 Kb de memória entre placa de som, modem, portas seriais e ainda fazer os programas rodarem? Isso era uma tarefa realmente complicada, pois não adiantava ter 4 ou até 8 megas de RAM. O único jeito era alocar cada um dos parâmetros manualmente se você quisesse fazer algum programa rodar na máquina.
Para alocar os parâmetros corretamente era preciso configurar os gestores de memória estendida (como o EMM386), que podiam alocar os programas no restante da memória disponível, deixando os 640 K iniciais apenas para recursos mais importantes ou programas mais antigos e que não funcionavam com memória estendida.
A chegada dos sistema operacionais modernos mudou essa regra, permitindo que os programas pudessem alocar até 4 GB de RAM (nos sistemas 32 bits). Além disso, a memória virtual também permitiu um grande avanço na computação ao permitir que programas maiores que a quantidade de memória total pudessem ser executados.
A memória virtual é uma “RAM simulada” na unidade de armazenamento, ou seja, os dados do programa ficam na memória virtual até que precisem ser utilizados. Então, eles vão para a RAM propriamente dita.
É claro que esse sistema é mais lento que RAM real, mas possibilitou que muitos aplicativos rodassem em praticamente qualquer computador. Principalmente em uma época em que a memória RAM era incrivelmente cara. Somente pra se ter uma ideia, no início de 1995 cada MB de RAM custavaaproximadamente 30 dólares. A chegada do Windows 95 e da memória virtual ajudaram muita gente a economizar uns trocados.
Gerenciar a memória era uma arte.
Hoje em dia temos sistemas operacionais bastante autônomos. O Windows 8, por exemplo, pode ser instalado praticamente sem entradas do usuário. Basta colocar o DVD (ou pendrive) e iniciar o processo. Ele dá conta de configurar quase todos os itens de hardware automaticamente.

E agora?

Montar um computador hoje em dia exige pouco conhecimento específico; no máximo um pouco de bom senso deve ser suficiente para garantir que nada saia errado. E se sair, o que menos falta na internet são guias de instalação e manutenção, inclusive aqui no TecMundo.
Somente quem pôde acompanhar de perto essa evolução sabe o quanto as coisas acabaram ficando mais fáceis hoje em dia, quando basta conectar as peças e instalar o sistema operacional, que faz praticamente tudo sozinho, desde a configuração do hardware até a instalação dos drivers e periféricos.
E essas facilidades foram muito bem vindas, pois agora passamos mais tempo utilizando a máquina do que configurando portas de comunicação e outros parâmetros. O único problema é que não é mais possível ter a mesma sensação de vitória ao ver o “micro” funcionando pela primeira vez.
LEIA MAIS

Entrou em vigor o Marco Civil da Internet.




A partir desta segunda-feira, 23, você, que acessa a internet brasileira, segue um conjunto de normas criadas especificamente para a rede, porque hoje 

entrou em vigor o Marco Civil da Internet.
Até ontem, não havia uma definição clara sobre o que é, como funciona e para que serve a internet no Brasil, todos nós a usávamos de forma empírica. Agora, oficialmente, a internet passa a ser vista como "o sistema constituído do conjunto de protocolos lógicos, estruturado em escala mundial para uso público e irrestrito, com a finalidade de possibilitar a comunicação de dados entre terminais por meio de diferentes redes".

O que muda para o usuário 
O Marco Civil determina que a internet é uma ferramenta fundamental para a liberdade de expressão e diz que ela deve ajudar o brasileiro a se comunicar e se manifestar como bem entender, nos termos da Constituição.
O texto da Lei chega a apontar que "o acesso à internet é essencial ao exercício da cidadania". O internauta tem garantia de que sua vida privada não será violada, a qualidade da conexão estará em linha com o contratado e que seus dados só serão repassados a terceiros se ele aceitar - ou em casos judiciais.
Um dos pontos essenciais do Marco Civil é o estabelecimento da neutralidade da rede. Preparamos um texto só para explicar o que significa o termo e você pode conferi-lo aqui. Em linhas gerais, quer dizer que as operadoras estão proibidas de vender pacotes de internet pelo tipo de uso.
O governo até pode fazer essa discriminação, mas só em duas situações: se ela for indispensável para a prestação dos serviços; ou se serviços de emergência precisarem ser priorizados. Mesmo assim, o presidente que estiver no comando não tem como simplesmente mandar tirar internet de um lugar e botar no outro. Ele precisará consultar o Comitê Gestor da Internet e a Agência Nacional de Telecomunicações (Anatel).

O que muda para empresas 
As empresas que trabalham com serviços na internet (como redes sociais) precisam se adaptar a novas regras. Eles precisam simplificar e esclarecer seus contratos de prestação de serviços para informar aos internautas sobre como funciona a coleta e armazenamento de dados, registros de conexão e acesso. Além disso, será necessário tratar do acesso e das práticas de gerenciamento de redes nos termos de uso.
Quem fornece conexão nunca poderá ser responsabilizado pelo conteúdo postado por seus clientes. Já quem oferece serviços como redes sociais, blogs, vídeos etc. corre o risco de ser culpado, caso não tire o material do ar depois de avisado judicialmente. Por exemplo: se a Justiça mandar o Google tirar um vídeo racista do YouTube e isso não for feito, o Google se torna responsável por aquele material.
Haverá um prazo para que o conteúdo considerado ofensivo saia de circulação, mas o juiz que cuidar do caso pode antecipar isso se houver “prova inequívoca”, levando em conta a repercussão e os danos que o material estiver causando à pessoa prejudicada.
Como se vê, com ou sem Marco Civil a internet permaneceria a mesma, só que agora o internauta brasileiro segue regras e tem direitos correspondentes a todo esse ambiente, assim como as empresas que atuam nele. A falta dessa compreensão foi um dos motivos que fizeram tanta gente odiar essa lei (saiba mais), se tiver dúvidas sobre o assunto,veja aqui um texto que explica ponto a ponto os princípios da nova lei.

Fonte: olhar digital
LEIA MAIS

Contato

Então você acha que nós somos as pessoas certas para o seu trabalho? Por favor entrar em contato conosco.



Designed By Seo Blogger Templates