quarta-feira, 27 de outubro de 2010

Tecnologia em Alta: Fotografia digital

 Designa-se por fotografia digital a fotografia tirada com uma câmera digital ou determinados modelos de telefone celular, resultando num arquivo de computador que pode ser editado, impresso, enviado por e-mail ou armazenado em websites ou em dispositivos de armazenamento digital. Dispensa, assim, o processo de revelação. A visualização da imagem pode ser feita no ato, através dos recursos da câmera digital (normalmente, uma tela de LCD), e a manipulação da imagem pode ser feita em um computador, usando-se softwares editores de imagem como o Photoshop, GIMP, entre outros.

 Ajuste do EV

O EV é o controle de entrada de luz, onde pode ser:
    * Positivo: o EV positivo é quando entra mais luz do que o padrão. Aumentar o EV é útil para bater fotos em locais com pouca luz, onde será preciso uma captura maior da luz refletida. Geralmente as câmeras digitais automáticas permitem aumentar o EV até +2.0
    * Negativo: o EV negativo é quando entra menos luz do que o padrão. Diminuir o EV é útil para bater fotos que precise captura menos luz, como por exemplo, em fotos contra-luz. Geralmente as câmeras digitais automáticas permitem diminuir o EV até -2.0
    * É bom lembrar que câmeras automáticas são as câmeras apropriadas para pessoas que não tem grande conhecimento em fotografias. Câmeras profissionais (manuais) são câmeras que precisa ter um abrangedor conhecimento na área de fotografias.

Fotografia macro

Alguns modelos de máquina fotográfica digital possuem uma lente que permite fotos de quatro cm, três cm ou até menos distancia do objeto. Esse tipo de fotografia captura os mínimos detalhes dos objetos, detalhes até que não podem ser vistos a olho nu. Fotos de macro são utilizadas geralmente para obter fotos de insetos, pequenas peças, olhos (de perto), flores e etc.
No modo macro, o zoom é extremamente limitado.

 Limpeza da câmera

As câmeras para terem uma boa durabilidade necessitam de limpezas freqüentes e de forma correta.

 Obturador

Obturador é a peça da máquina que se abre para entrar luz no sensor e captar a imagem. O obturador pode ficar aberto de 60 segundos até 1/5000 segundos. Isso depende da câmera, ou então de como a câmera foi configurada. Para fotos em movimentos o obturador fica aberto menos tempo, algumas frações de segundos, para evitar que apareça vulto na foto, ou então para evitar que a foto saia embaçada. Quando o obturador fica aberto mais tempo, ele capta mais movimentos, então qualquer movimento de leve já aparece um vulto na foto. Usa-se uma velocidade lenta do obturador para bater foto de paisagens, onde precisa captar bastantes detalhes por causa da longa distancia do fundo. Usa-se também uma velocidade muito lenta do obturador para bater foto de fogos de artifício, para poder captar toda a trajetória dos fogos, criando um rastro no céu, aumenta a beleza dos fogos.
 
Tipos de zoom

Uma máquina fotográfica digital pode ter dois tipos de zoom:
    * Zoom Ótico: É o zoom que aproxima a imagem através do uso de lentes que se posicionam automaticamente dentro do tubo de entrada de luz. O zoom ótico é o que tem mais qualidade por permitir que o sensor da câmera capture a luz que entra pela objetiva.
    * Zoom Digital: É o zoom que aumenta o tamanho da imagem, sem o uso de lentes. O zoom digital é um software que multiplica a quantidade de pixels para ampliar uma imagem. Este efeito é chamado de interpolação. O zoom digital tem menos qualidade em comparação ao zoom óptico porque a medida que amplia a imagem ele multiplica a quantidade de pixels da mesma através de um programa e não pelo que é captado pelo sensor da câmera. É considerado mais um artifício do que um recurso, pois não traz nenhum benefício verdadeiro.

sexta-feira, 22 de outubro de 2010

Tecnologia em Alta: Sistema de posicionamento global

 O sistema de posicionamento global, popularmente conhecido por GPS (do acrónimo/acrônimo do original inglês Global Positioning System ou do português "geo-posicionamento por satélite"), conforme o nome diz, inclui um conjunto de satélites é um sistema de informação eletrônico que fornece via rádio a um aparelho receptor móvel a posição do mesmo com referencia as coordenadas terrestres, esse sistema que por vezes é impropriamente designado de sistema de navegação não substitui integralmente ao sistema de navegação astronômica, mas apenas informa as coordenadas do receptor e não o rumo indispensável a navegação estimada faltando solicitar o recurso de um simulador integrado ao receptor. Existem atualmente dois sistemas efetivos de posicionamento por satélite; o GPS americano e o Glonass russo; também existem mais dois sistemas em implantação; o Galileo europeu e o Compass chinês e isso se faz necessário universalmente, porque o sistema americano é controlado pelo Departamento de Defesa dos Estados Unidos da América, DoD, para uso exclusivo militar e, embora atualmente, encontre-se aberto para uso e civil gratuito, poucas garantias temos que em tempo de guerra continue emitindo sinais o que resultara num serio risco a navegação.
O DoD fornece dois tipos de serviços GPS: Standard e Precision.
O sistema está dividido em três partes: espacial, de controlo e utilizador. O segmento espacial é composto pela constelação de satélites. O segmento de controlo é formado pelas estações terrestres dispersas pelo mundo ao longo da Zona Equatorial, responsáveis pela monitorização das órbitas dos satélites, sincronização dos relógios atómicos de bordo dos satélites e actualização dos dados de almanaque que os satélites transmitem. O segmento do utilizador consiste num receptor que capta os sinais emitidos pelos satélites. Um receptor GPS (GPSR) descodifica as transmissões do sinal de código e fase de múltiplos satélites e calcula a sua posição com base nas distâncias a estes. A posição é dada por latitude, longitude e altitude, coordenadas geodésicas referentes ao sistema WGS84.

 Descrição técnica

Receptores GPS vêm numa variedade de formatos, de dispositivos integrados dentro de carros, telefones, e relógios, a dispositivos dedicados somente ao GPS como estes das marcas Trimble, Garmin e Leica.
O sistema foi declarado totalmente operacional apenas em 1995. Seu desenvolvimento custou 10 bilhões de dólares. Consiste numa "constelação" de 28 satélites sendo 4 sobressalentes em 6 planos orbitais. Os satélites GPS, construídos pela empresa Rockwell, foram lançados entre Fevereiro de 1978 (Bloco I), e 6 de Novembro de 2004 (o 29º). Cada um circunda a Terra duas vezes por dia a uma altitude de 20200 quilómetros (12600 milhas) e a uma velocidade de 11265 quilómetros por hora (7000 milhas por hora). Os satélites têm a bordo relógios atómicos e constantemente difundem o tempo preciso de acordo com o seu próprio relógio, junto com informação adicional como os elementos orbitais de movimento, tal como determinado por um conjunto de estações de observação terrestres.

Medição com um GPS
 
 O receptor não necessita de ter um relógio de tão grande precisão, mas sim de um suficientemente estável. O receptor capta os sinais de quatro satélites para determinar as suas próprias coordenadas, e ainda o tempo. Então, o receptor calcula a distância a cada um dos quatro satélites pelo intervalo de tempo entre o instante local e o instante em que os sinais foram enviados (esta distância é chamada pseudodistância). Descodificando as localizações dos satélites a partir dos sinais de microondas (tipo de onda electromagnética) e de uma base de dados interna, e sabendo a velocidade de propagação do sinal, o receptor, pode situar-se na intersecção de quatro calótes, uma para cada satélite.
Até meados de 2000 o departamento de defesa dos EUA impunha a chamada "disponibilidade selectiva", que consistia em um erro induzido ao sinal impossibilitando que aparelhos de uso civil operassem com precisão inferior a 90 metros.
Porém, o presidente Bill Clinton foi pressionado a assinar uma lei determinando o fim dessa interferência no sinal do sistema, desse modo entende-se que não há garantias que em tempo de guerra o serviço continue a disposição ou com a atual precisão.
No cenário militar, o GPS é também usado para o direcionamento de diversos tipos de armamentos de precisão, como as bombas JDAM (Joint Direct Attack Munition) e os famosos mísseis Tomahawk. Estas bombas "inteligentes" são guiadas a seus alvos por um sistema inercial em conjunto com um GPS. Este tipo de sistema de guiamento pode ser usado em qualquer condição climática e garante um alto índice de acertos.

 Aplicações

Além de sua aplicação óbvia na aviação geral e comercial e na navegação marítima, qualquer pessoa que queira saber a sua posição, encontrar o seu caminho para determinado local (ou de volta ao ponto de partida), conhecer a velocidade e direção do seu deslocamento pode-se beneficiar com o sistema. Atualmente o sistema está sendo muito difundido em automóveis com sistema de navegação de mapas, que possibilita uma visão geral da área que você está percorrendo.
A comunidade científica utiliza-o pelo seu relógio altamente preciso. Durante experiências científicas de recolha de dados, pode-se registrar com precisão de micro-segundos (0,000001 segundo) quando a amostra foi obtida. Naturalmente a localização do ponto onde a amostra foi recolhida também pode ser importante. Agrimensores diminuem custos e obtêm levantamentos precisos mais rapidamente com o GPS. Unidades específicas têm custo aproximado de 3.000 dólares e precisão de 1 metro, mas existem receptores mais caros com precisão de 1 centímetro. A recolha de dados por estes receptores é mais lenta.
Exemplo de um receptor GPS com mapas, instalado em um carro.
Guardas florestais, trabalhos de prospecção e exploração de recursos naturais, geólogos, arqueólogos, bombeiros, são enormemente beneficiados pela tecnologia do sistema. O GPS tem-se tornado cada vez mais popular entre ciclistas, balonistas, pescadores, ecoturistas, geocachers, vôo livre ou por aventureiros que queiram apenas orientação durante as suas viagens. Com a popularização do GPS, um novo conceito surgiu na agricultura: a agricultura de precisão. Uma máquina agrícola dotada de receptor GPS armazena dados relativos à produtividade em um dispositivo de memória que, tratados por programa específico, produz um mapa de produtividade da lavoura. As informações permitem também o(p)timizar a aplicação de corre(c)tivos e fertilizantes.

 Tipos de receptores
 
Existem diferentes receptores GPS, desde diversas marcas que comercializam soluções "tudo-em-um", até os externos que são ligados por cabo ou ainda por bluetooth. Geralmente categorizados em termos de demandas de uso em Geodésicos, Topográficos e de Navegação. A diferenciação entre essas categorias, que a princípio pode parecer meramente de preço de aquisição é principalmente devido à precisão alcançada, ou seja a razão da igualdade entre o dado real do posicionamento, e o oferecido pelo equipamento. Sendo os mais acurados, com valores na casa dos milímetros, os receptores Geodésicos são capazes de captar as duas frequências emitidas pelos satélites (L1 e L2), possibilitando assim a eliminação dos efeitos da refracção ionosférica. Os topográficos, que tem características de trabalho semelhantes à categoria anterior, porém somente captam a portadora L1, também possuem elevada precisão, geralmente na casa dos centímetros. Ambas as categorias tem aplicações técnicas, e características próprias como o pós-processamento, o que significa que geralmente não informam o posicionamento instantaneamente (excepto os modelos RTK).
No caso da categoria de maior uso, a de navegação, embora possua menor precisão de posicionamento, tem inúmeras vantagens como o baixo preço de aquisição e inúmeras aplicações, onde vê-se uma infinidade de modelos, tanto aqueles que integram diversos equipamentos como computadores de mão, celulares, relógios, etc., como aqueles dedicados exclusivamente ao posicionamento GPS, onde também encontramos aplicações para uso do dado de posicionamento em outros equipamentos como notebooks, rastreadores de veículos, etc.
Actualmente com a convergência de dispositivos, existem muita variedade de Pocket PCs com GPS interno. Estes têm a vantagem de se poder escolher o software que se pretende utilizar com eles.

 O que ter em conta ao escolher um receptor?

    * Número de canais que o receptor utiliza.
    * Mapas disponíveis (caso se aplique).
    * Luminosidade do(a) ecrã/tela (caso se aplique).
    * Autonomia.
    * Robustez.
    * Tempo de duração das baterias(caso se aplique).

Porque o que conta acima de tudo é a recepção de sinal, conta muito o número de canais que o GPS usa para adquirir o sinal. Actualmente existem receptores com chip SIRF III que usam 20 canais.

Futuro- GPS modernização

    * Dia 24 de março 2009 foi lançado o primeiro satélite GPS equipado com uma amostra de hardware funcionando em frequência L5
Entre outras novidades, este satélite será o primeiro a emitir o sinal GPS numa frequência de 1176.45 MHz (±12 MHz).
    * Melhora a estrutura do sinal para melhor desempenho.
    * Transmissão superior ao do L1 e L2 sinal.

A data limite para que a força aérea americana coloque um satélite GPS de forma operacional em na frequência L5 é 26 de agosto de 2009. Caso esta data seja ultrapassado, o governo dos Estados Unidos perderão o direito de empregar tal frequência em seus projetos militares/civis.
L1C é um sinal de uso civil, para ser transmitido na mesma frequência L1 (1575,42 MHz), que atualmente contém a C/ Um sinal GPS utilizados por todos os atuais usuários. O L1C estará disponível com o primeiro bloco III lançamento previsto para 2013.

segunda-feira, 18 de outubro de 2010

Tecnologia em Alta: Wi-Fi

Wi-Fi é uma marca registrada da Wi-Fi Alliance, que é utilizada por produtos certificados que pertencem à classe de dispositivos de rede local sem fios (WLAN) baseados no padrão IEEE 802.11. Por causa do relacionamento íntimo com seu padrão de mesmo nome, o termo Wi-Fi é usado frequentemente como sinônimo para a tecnologia IEEE 802.11. Seu nome é uma abreviação do termo inglês Wireless Fidelity, que significa Fidelidade Sem Fio.
O padrão Wi-Fi opera em faixas de frequências que não necessitam de licença para instalação e/ou operação. Este fato as tornam atrativas. No entanto, para uso comercial no Brasil é necessária licença da Agência Nacional de Telecomunicações (Anatel).
Para se ter acesso à internet através de rede Wi-Fi deve-se estar no raio de ação ou área de abrangência de um ponto de acesso (normalmente conhecido por hotspot) ou local público onde opere rede sem fios e usar dispositivo móvel, como computador portátil, Tablet PC ou PDA com capacidade de comunicação sem fio, deixando o usuário do Wi-Fi bem à vontade em usá-lo em lugares de "não acesso" à internet, como: Aeroportos.
Hoje, muitas operadoras de telefonia estão investindo pesado no Wi-Fi, para ganhos empresariais.
Hotspot Wi-Fi existe para estabelecer ponto de acesso para conexão à internet. O ponto de acesso transmite o sinal sem fios numa pequena distância – cerca de 100 metros. Quando um periférico que permite "Wi-Fi", como um Pocket PC, encontra um hotspot, o periférico pode na mesma hora conectar-se à rede sem fio. Muitos hotspots estão localizados em lugares que são acessíveis ao público, como aeroportos, cafés, hotéis e livrarias. Muitas casas e escritórios também têm redes "Wi-Fi". Enquanto alguns hotspots são gratuitos, a maioria das redes públicas é suportada por Provedores de Serviços de Internet (Internet Service Provider - ISPs) que cobram uma taxa dos usuários para se conectarem.
Atualmente, praticamente todos os computadores portáteis vêm de fábrica com dispositivos para rede sem fio no padrão Wi-Fi (802.11b, a ou g). O que antes era acessório está se tornando item obrigatório, principalmente devido ao fato da redução do custo de fabricação.
 

 Extended Service Sets (ESS)

Múltiplas infra-estruturas de BSS podem ser conectadas através de suas interfaces de uplink e por sua vez está conectado no Distribution System - DS (Centro de Distribuição - CD). Quando temos várias BSS interconectadas via DS, chamamos de ESS.


 Principais padrões

Os principais padrões na família IEEE 802.11 são:

IEEE 802.11a: Padrão Wi-Fi para frequência 5 GHz com capacidade teórica de 54 Mbps.
IEEE 802.11b: Padrão Wi-Fi para frequência 2,4 GHz com capacidade teórica de 11 Mbps. Este padrão utiliza DSSS (Direct Sequency Spread Spectrum – Sequência Direta de Espalhamento de Espectro) para diminuição de interferência.

IEEE 802.11g: Padrão Wi-Fi para frequência 2,4 GHz com capacidade teórica de 54 Mbps.
Wi-Fi Protected Access (WPA e WPA2): padrão de segurança instituído para substituir padrão WEP (Wired Equivalent Privacy) que possui falhas graves de segurança, possibilitando que um hacker pudesse quebrar a chave de criptografia após monitorar poucos minutos de comunicação.
A família 802.11 inclui técnicas de modulação no ar que usam o mesmo protocolo básico. Os mais populares são os definidos pelos protocolos 802.11b e 802.11g e são emendas ao padrão original. O 802.11-1997 foi o primeiro padrão de rede sem fio, mas o 802.11b foi o primeiro largamente aceitado, seguido do 802.11g e 802.11n. A segurança foi, no início, propositalmente fraca devido a requisitos de exportação de alguns governos, e mais tarde foi melhorada através da emenda 802.11i após mudanças governamentais e legislativas. O 802.11n é uma nova tecnologia multi-streaming de modulação que está ainda em desenvolvimento, mas produtos baseados em versões proprietárias do pré-rascunho já são vendidas. Outros padrões na família (c-f, h, j) são emendas de serviço e extensões ou correções às especificações anteriores.
802.11b e 802.11g usam a banda 24.4GHz ISM, operando nos Estados Unidos sobre a Part 15 do US Federal Communications Commission Rules and Regulations. Por causa desta escolha de frequência de banda, equipamentos 802.11b e g podem, ocasionalmente, sofrer interferências de fornos microondas e telefones sem fio. Dispositivos Bluetooth, enquanto operando na mesma banda, em teoria não interferem no 802.11b/g por que usam um método chamado frequency hopping spread spectrum signaling (FHSS) enquanto o 802.11b/g usa um método chamado direct sequence spread spectrum signaling (DSSS). O 802.11a usa a banda 5GHz U-NII, que oferece 8 canais não sobrepostos ao invés dos 3 oferecidos na frequência de banda 2.4GHz ISM.
O seguimento do espectro da frequência de rádio utilizado varia entre os países. Nos EUA, dispositivos 802.11a e 802.11g podem operar sem licença, como explicado na Parte 15 do FCC Rules and Regulations. Frequências usadas por canais um a seis (802.11b) caem na banda de rádio amador de 2.4GHz. Operadores licenciados de rádio amador podem operar dispositivos 802.11b/g sob a Parte 97 do FCC Rules and Regulatins, permitindo uma saída maior de energia mas não conteúdo comercial ou encriptação.
IEEE 802.11n: Padrão Wi-Fi para frequência 2,4 GHz e/ou 5 GHz com capacidade de 65 à 600 Mbps. Esse padrão utiliza como método de transmissão MIMO-OFDM.

  Tabela de frequências e potência:

Padrão--------- Região/País----------Frequência----------Potência


802.11b & g --América do Norte----2,4 - 2,4835 GHz---1000 mW
802.11b & g---Europa --------------2,4 - 2,4835 GHz---100 mW
802.11b & g---Japão--------------- 2,4 - 2,497 GHz-----10 mW
802.11b & g---Espanha-------------2,4 - 2,4875 GHz ---100 mW
802.11b & g---França--------------2,4 - 2,4835 GHz----100 mW
802.11a -------América do Norte--5,15 - 5,25 GHz------40 mW
802.11a-------América do Norte--5,25 - 5,35 GHz------200 mW
802.11a-------América do Norte--5,47 - 5,725 GHz-----não aprovado
802.11a-------América do Norte--5,725 - 5,825 GHz---800 mW


 Dispositivos padrão

Um ponto de acesso sem fio conecta um grupo de dispositivos sem fio a uma LAN com fio. Um ponto de acesso é semelhante a um HUB de rede, retransmitindo dados entre dipositivos sem fio conectados e (normalmente) a um único dispositivo com fios conectado, frequentemente um HUB ethernet ou SWITCH, permitindo aos dispositivos sem fio comunicarem-se com outros dispositivos com fio.
Adaptadores sem fio permitem conectar dispositivos à rede sem fio. Estes adaptadores conectam dispositivos através de várias interconexões externas ou internas como PCI, miniPCI, USB , ExpressCard, Cardbus e PC card. Os laptops mais novos são equipados com adaptadores internos. Placas internas são geralmente mais difíceis de instalar.

Roteadores sem fio integram uma WAP, SWITCH ethernet, e um firmware interno com aplicação de roteamento que provê Roteamento IP, NAT e encaminhamento de DNS através de uma interface WAN integrada. Um roteador sem fio permite que dispositivos ethernet de LAN cabeadas e sem fio conectem-se a (normalmente) um único dispositivo WAN, como um cable modem ou DSL modem. Um roteador wireless permite que todos os três dispositivos (principalmente pontos de acesso e roteadores) sejam configurados através de um utilitário central. Este utilitário é geralmente um servidor web integrado que serve páginas para clientes da rede cabeada e sem fio da LAN e opcionalmente para clientes da WAN. Este utilitário pode também ser uma aplicação que roda em um computador como o Apple's Airport.
Uma ponte de rede sem fio conecta uma rede cabeada a uma rede sem fio. Isto é diferente de um ponto de acesso de modo que um ponto de acesso conecta dispositivos sem fio a uma rede cabeada na camada data-link. Duas pontes sem fio podem ser usadas para conectar duas redes cabeadas sobre um link sem fio, útil em situações onde uma rede cabeada pode não estar disponível, como entre duas casas separadas.
Extensores de alcance ou repetidores podem estender o alcance de uma rede sem fio existente. Extensores de alcance podem ser posicionados estrategicamente para cobrir um área ou permitir que a área do sinal atravesse barreiras como aquelas criadas em corredores em forma de L. Dispositivos sem fio conectados através de repetidores irão sofrer uma latência maior para cada salto. Ainda, um dispositivo sem fio conectado a qualquer um dos repetidores em uma corrente terão uma performance limitada pelo link mais fracos entre dois nós na corrente da qual a conexão é originada até onde a conexão termina.

quarta-feira, 13 de outubro de 2010

Tecnologia em Alta: 3G

O padrão 3G é a terceira geração de padrões e tecnologias de telefonia móvel, substituindo o 2G. É baseado na família de normas da União Internacional de Telecomunicações (UIT), no âmbito do Programa Internacional de Telecomunicações Móveis (IMT-2000).

 Visão Geral


As tecnologias 3G permitem às operadoras da rede oferecerem a seus usuários uma ampla gama dos mais avançados serviços, já que possuem uma capacidade de rede maior por causa de uma melhora na eficiência espectral. Entre os serviços, há a telefonia por voz e a transmissão de dados a longas distâncias, tudo em um ambiente móvel. Normalmente, são fornecidos serviços com taxas de 5 a 10 megabits por segundo.
Ao contrário das redes definidas pelo padrão IEEE 802.11, as redes 3G permitem telefonia móvel de longo alcance e evoluíram para incorporar redes de acesso à Internet em alta velocidade e Vídeo-telefonia. As redes IEEE 802.11 (mais conhecidas como Wi-Fi ou WLAN) são de curto alcance e ampla largura de banda e foram originalmente desenvolvidas para redes de dados, além de não possuírem muita preocupação quanto ao consumo de energia, aspecto fundamental para aparelhos que possuem pouca autonomia energética.

Até Dezembro de 2007, 190 redes 3G já operavam em 40 países e 154 redes HSDPA operavam em 71 países, segundo a Global mobile Suppliers Association. Na Ásia, na Europa, no Canadá e nos Estados Unidos, as empresas de comunicações utilizam a tecnologia W-CDMA, com cerca de 100 terminais designados para operar as redes 3G.
Na Europa, os serviços 3G foram introduzidos a partir de Março de 2003, começando pelo Reino Unido e Itália. O Conselho da União Européia sugeriu às operadoras 3G cobrirem 80% das populações nacionais europeias até ao final de 2005.
A implantação das redes 3G foi tardia em alguns países devido a enormes custos adicionais para licenciamento do espectro. Em muitos países, as redes 3G não usam as mesmas frequências de rádio que as 2G, fazendo com que as operadoras tenham que construir redes completamente novas e licenciar novas frequências; uma excepção são os Estados Unidos em que as empresas operam serviços 3G na mesma frequência que outros serviços. Os custos com licença em alguns países europeus foram particularmente altos devido a leilões do governo de um número limitado de licenças e a leilões com propostas confidenciais, além da excitação inicial sobre o potencial do 3G. Outros atrasos se devem a despesas com actualização dos equipamentos para os novos sistemas.

Em Junho de 2007, o assinante 3G de número 200 milhões foi conectado. Se comparado aos 3 biliões de assinantes de telefonia móvel no mundo, esse número corresponde apenas a 6,7%. Nos países onde a 3G foi lançada inicialmente (Japão e Coréia do Sul), mais da metade dos assinantes utilizam 3G. Na Europa, o país líder é a Itália, com um terço dos seus assinantes tendo migrado para a 3G. Outros países líderes na migração para a 3G são o Reino Unido, a Áustria e a Singapura, com 20% de migração. Uma estatística confusa está computando clientes de CDMA 2000 1x RTT como se fossem clientes 3G. Se for utilizada essa definição de carácter disputado, o total de assinantes 3G seria de 475 milhões em Junho de 2007, 15,8% dos assinantes de todo o mundo.
 Características


A característica mais importante da tecnologia móvel 3G é suportar um número maior de clientes de voz e dados, especialmente em áreas urbanas, além de maiores taxas de dados a um custo incremental menor que na 2G.
Ela utiliza o espectro de radiofrequência em bandas identificadas, fornecidas pela UTI para a Terceira Geração de serviços móveis IMT-2000, e depois licenciadas para as operadoras.
Permite a transmissão de 384 kbits/s para sistemas móveis e 7 megabits/s para sistemas estacionários. Espera-se que tenha uma maior capacidade de usuários e uma maior eficiência espectral, de forma que os consumidores possam dispor de roaming global entre diferentes redes 3G.


 Padrões

O IMT-2000 da União Internacional de Telecomunicações (ITU) consiste em seis interfaces de rádio:
   * IMT-DS Direct-Sequence
         o também conhecido como W-CDMA ou UTRA-FDD, usado nos UMTS
   * IMT-MC Multi-Carrier
         o também conhecido como CDMA2000, o sucessor do 2G CDMA (IS-95)
   * IMT-TD Time-Division
         o Este engloba: TD-CDMA (Time Division - Code Division Multiple Access) e TD-SCDMA (Time Division - Synchronous Code Division Multiple Access).
   * IMT-SC Single Carrier
         o também conhecido como EDGE[1]
   * IMT-FT Frequency Time
         o também conhecido como DECT
   * IMT-OFDMA TDD WMAN
         o mais conhecido como WiMAX

 Evolução para 3G

As redes de telecomunicações de telefonia de celular móvel são actualizadas de forma a utilizarem as tecnologias 3G desde 1999. O Japão foi o primeiro país a implementar o 3G nacionalmente e essa transição foi praticamente completada em 2006. Logo após o Japão, a Coréia também iniciou sua transição, que foi feita por volta de 2004.


 Operadoras e redes UMTS

A partir de 2005, a evolução das redes 3G ocorreu em alguns anos, devido à capacidade limitada das redes 2G existentes. As redes 2G foram construídas principalmente para voz e transmissão lenta de dados. Devido às rápidas mudanças nas expectativas dos usuários, elas não atendem hoje às necessidades de transmissão de dados sem fio.
"2,5G" (e mesmo 2.75G) são tecnologias como o serviço de dados i-mode, telefones com câmara, circuito de alta velocidade de dados comutados (HSCSD) e General Packet Radio Service (GPRS) foram criados para fornecer alguma funcionalidade de domínios, como redes 3G , mas sem a plena transição para a rede 3G. Eles foram construídos para introduzir as possibilidades de aplicação de tecnologia wireless para o consumidor final, e assim aumentar a procura de serviços 3G.


 Padronização da rede

A União Internacional das Telecomunicações (UIT) definiu a demanda para redes móveis 3G com o padrão IMT-2000. Uma organização chamada 3rd Generation Partnership Project (3GPP) continuou esse trabalho definindo um sistema móvel compatível com o padrão IMT-2000. Esse sistema é chamado de Sistema Universal de Telecomunicações Móveis (Universal Mobile Telecommunications System - UMTS).

 Evolução do 3G (pré-4G)

A padronização da evolução do 3G está a funcionar em ambas as 3GPP e 3GPP2. Os correspondentes especificações do 3GPP e 3GPP2 evoluções são nomeadas como LTE e UMB, respectivamente. 3G evolução utiliza parcialmente fora 3G tecnologias destinadas a melhorar o desempenho e fazer um bom caminho migração. Há vários caminhos diferentes de 2G para 3G. Na Europa, o principal caminho começa a partir GSM quando GPRS é adicionado a um sistema. A partir deste ponto, é possível ir para o sistema UMTS. Na América do Norte o sistema evolução terá início Time divisão de acesso múltiplo (TDMA), a mudança reforçada Dados Tarifas para GSM Evolution (EDGE) e, em seguida, a UMTS.
No Japão, dois padrões 3G são utilizados: FOMA (utiliza o WCDMA o que torna o UMTS compatível) utilizados pelo Softbank e NTT DoCoMo, e CDMA2000, utilizado por KDDI. Transição para a 3G foi concluída no Japão, em 2006.


 Vantagens de uma arquitectura de rede em camadas


Ao contrário do GSM, UMTS é baseada em um serviço dividido em seções. No topo está a seção de serviços, que oferece organização rápida de serviços e localização centralizada. No meio está a seção de controle, que ajuda a atualizar os procedimentos e que capacita a rede a se alocar dinamicamente. Na base está a camada de conectividade onde qualquer tecnologia de transmissão pode ser utilizada e onde o canal de áudio trafega por ATM/AAL2 ou IP/RTP.

 Tecnologias móveis

Ao converter uma rede GSM para uma rede UMTS, a primeira nova tecnologia é General Packet Radio Service (GPRS). É o gatilho para os serviços 3G. A ligação à rede é sempre relativa, de modo que o assinante está on-line o tempo todo. Desde o ponto de vista do operador, é importante saber que os investimentos em GPRS são reutilizados quando se vai para o UMTS. Também é importante capitalizar a experiência adquirida no negócio utilizando GPRS.
De GPRS, os operadores poderão mudar directamente para a rede UMTS, ou investir em um sistema EDGE. Uma vantagem a mais do EDGE UMTS é que ele não necessita de novas licenças. As frequências também são reutilizadas, não são necessárias novas antenas.

 Migrando de GPRS para UMTS


Residência registo (HLR) Visitante localização registo (VLR) Equipamento identidade registo (EIR) De rede GPRS, os seguintes elementos da rede podem ser reutilizados:
Mobile centro comutação (MSC) (vendedor dependentes) Autenticação centro (AUC) Publicação GPRS Support Node (SGSN) (vendedor dependentes) Gateway GPRS apoio nó (GGSN) De Global Service for Mobile (GSM) rede de rádio comunicação, os seguintes elementos não podem ser reutilizados
Estação base controlador (BSC) Base transceiver station (BTS) Eles podem permanecer na rede e ser utilizado em rede dupla operação onde redes 2G e 3G co-existir enquanto rede de migração e os novos terminais 3G tornam-se disponíveis para uso na rede.


A rede UMTS introduz novos elementos da rede que funcionará como especificado pelo 3GPP:

Node B (estação base) Radio Network Controller (RNC) Media Gateway (MGW) A funcionalidade do MSC e SGSN muda quando vai UMTS. Num sistema GSM da MSC trata todos os circuitos comutados operações como a conexão e A-B-assinante através da rede. SGSN trata todos os pacotes comutados operações e transfere todos os dados na rede. Em UMTS o Media Gateway (MGW) cuidar de todas as transferências de dados em ambos os circuitos e pacotes redes comutadas. MSC e SGSN controle MGW operações. Os gânglios são renomeados para MSC-servidor e servidor-GSN.

 Terminais UMTS

A complexidade técnica de um telefone 3G depende da sua necessidade de itinerância no legado das redes 2G. Nos primeiros países, o Japão e a Coreia do Sul, não havia necessidade de incluir capacidades de roaming mais velhos, tais como redes GSM, de forma que telemóveis 3G foram pequenos e leves. Na Europa e na América, os fabricantes e operadores de rede quis telemóveis 3G multi-modo, que operam em redes 2G e 3G (por exemplo, WCDMA e GSM), que acrescentou à complexidade, tamanho, peso e custo do handset. Como resultado, no início os telefones europeus WCDMA foram significativamente maiores e mais pesados que telefones WCDMA comparáveis no mercado japonês.
A japonesa Vodafone KK's experimentou um grande número de problemas com estas diferenças quando sua mãe baseada no Reino Unido, Vodafone, insistiu na utilização de telemóveis normais pela subsidiária japonesa. Clientes japoneses que estavam habituados aos pequenos aparelhos foram subitamente obrigado a mudar para handsets europeus, que foram considerados muito mais pesados e feios pelos consumidores japoneses. Durante esta conversão, Vodafone KK 6 clientes perdidos para cada 4 que migrou para a 3G. Pouco tempo depois, Vodafone vendeu a filial (agora conhecida como Softbank).
A tendência geral para telas pequenas nos telefones parece ter pausado, talvez mesmo virado, com a capacidade de grandes ecrãs nos telefones para fornecer mais vídeo, jogos e internet sobre o uso de redes 3G.


 Críticas


Embora 3G tenha sido introduzida com êxito para usuários da Europa, Austrália, Ásia, América do Sul, América do Norte e da África, algumas questões são debatidas pelos fornecedores e os utilizadores 3G:
    * Taxas caras de entrada para o serviço de licenças 3G.
    * Numerosas diferenças em termos de licença.
    * Grande quantidade de dívida actualmente sustentada por muitas empresas telecomunicações, o que a torna um desafio para construir a infra-estrutura necessária para 3G.
    * Falta de apoio dos Estados-membros para conturbado financeiramente operadores.
    * Expensas dos telemóveis 3G.
    * Falta de buy-in por 2G usuários móveis 3G para os novos serviços sem fios.
    * A falta de cobertura, porque é ainda um novo serviço.
    * Alta dos preços dos serviços móveis 3G em alguns países, incluindo o acesso à Internet (ver taxa fixa).
    * Actual falta de usuário necessidade de serviços 3G de voz e dados em uma mão-na posse dispositivo.


 3G no Brasil

A primeira operadora a oferecer 3G no Brasil foi a Vivo em 2004 com a tecnologia Evolution-Data Optimized ou CDMA 1X-EVDO que atinge velocidades de até 2mb por segundo. No entanto, a cobertura ficou limitada a poucas cidades, nas quais muitas possuíam cobertura parcial (algumas regiões de cada município).
No final de 2007, as operadoras Claro e Telemig celular lançaram suas redes 3G UMTS/HSDPA na frequência de 850 MHz, antecipando-se ao leilão realizado em dezembro de 2007. Em dezembro de 2007 foi realizado o leilão das faixas de frequências no Brasil. Dessa forma as três principais operadoras do país Vivo, Claro e TIM conseguiram obter cobertura nacional. A Oi obteve licenças nas regiões I e III, com a compra da BrT (Brasil Telecom), que atuava somente na região II, vai ter cobertura nacional. A Telemig celular e a BRT obtiveram a cobertura em suas respectivas regiões. Nesse mesmo leilão, a operadora CTBC também adquiriu a tecnologia para a sua área de concessão: Triângulo Mineiro e parte dos estados: Goiás, Mato Grosso do Sul e São Paulo. A Sercomtel Celular utilizará a tecnologia 3G na frequência de 850 MHZ, nas cidades de Londrina e Tamarana.
Conforme reafirmou na primeira semana de março de 2008, o presidente da Anatel, Ronaldo Sardenberg, disse que o leilão da subfaixa H da Terceira Geração deverá ocorrer até o final deste semestre, subfaixa esta reservada para um quinto player(outra operadora). Como naquele leilão, a Nextel surpreendeu a todos disputando com altos lances uma das bandas, a Anatel deve considerar a possibilidade desse quinto player já estar estabelecido e pronto para ingressar no mercado 3G.

terça-feira, 5 de outubro de 2010

Tecnologia em Alta: Métodos Científicos



 O contexto de uma pesquisa

Primeiramente os pesquisadores definem proposições lógicas ou suposições (hipóteses) para explicar certos fenômenos e observações, e então desenvolvem experiências que testam essas hipóteses. Se confirmadas, as hipóteses podem gerar leis e teorias. Integrando-se hipóteses de certa área em uma estrutura coerente de conhecimento contribuí-se na formulação de novas hipóteses, bem como coloca as hipóteses em um conjunto de conhecimento maior que são as leis e teorias reconhecidas consensualmente pela comunidade científica e/ou o paradigma de seu tempo.
Outra característica do método é que o processo precisa ser objetivo, e o cientista deve ser imparcial na interpretação dos resultados. Sobre a objetividade, ou seja, atente às propriedades do objeto e não do sujeito (subjetividade), é conhecida a afirmação de Hans Selye, pesquisador canadense que formulou a moderna concepção de stress: "Quem não sabe o que procura não entende o que encontra" referindo-se à necessidade de formulação de definições precisas (a essência dos conceitos) e que possam ser respondidas com um simples sim ou não. Tanto a imparcialidade (evidência) como a objetividade foram incluídas por René Descartes (1596 – 1649) nas regras lógicas que caracterizam o método científico.

 Além disso, o procedimento precisa ser documentado, tanto no que diz respeito à fonte de dados como às regras de análise, para que outros cientistas possam re-analisar, reproduzir e verificar a confiabilidade dos resultados. Assim se distinguem os relatos científicos (artigos, monografias, teses e dissertações) de um simples estilo (padrão) ou arquitetura de texto orientados pelo que caracterizam as normas da Retórica ou o estudo do uso persuasivo da linguagem, em função da eloqüência.
É comum o uso da análise matemática ou estatística, quando possível, ou aproximação de modelos abstratos (tipos ideais) e categorias de classificação a depender do objetivo da pesquisa (identificar, descrever, analisar) que pode ser basicamente quantitativa ou qualitativa.
A divisão da ciência em áreas ou disciplinas cientificas distintas tem levado a tais adequações da metodologia. É comum a afirmação de que em função da evolução do método cientifico num extremo temos a física e química seguida da biologia e da geologia e por último as ciências sociais, psicologia e ciências jurídicas quase se aproximando da filosofia e estudo das crenças (senso comum) ou ciências do espírito (sistemas mítico - religiosos).
Contudo pesquisadores contemporâneos vêem nessas duas abordagens uma oposição complementar, enquanto que as pesquisas quantitativas que visam descrever e explicar fenómenos que produzem regularidades mensuráveis são recorrentes (ou discrepantes) e exteriores ao sujeito (objetivos), na pesquisa qualitativa o observador (sujeito) é da mesma natureza que o objeto de sua análise e, ele próprio, uma parte da sua observação (o subjetivo).
É importante ter em mente que as pesquisas cientificas se relacionam com um modelo (paradigmático) ou uma constelação de pressupostos e crenças, escalas de valores, técnicas e conceitos compartilhados pelos membros de uma determinada comunidade científica num determinado momento histórico.


 Elementos do método científico

"Ciência é muito mais uma maneira de pensar do que um corpo de conhecimentos." - Carl Sagan

"...ciência consiste em agrupar factos para que leis gerais ou conclusões possam ser tiradas deles." - Charles Darwin


O método científico é composto dos seguintes elementos:
Caracterização - Quantificações, observações e medidas.
Hipóteses - Explicações hipotéticas das observações e medidas.
Previsões - Deduções lógicas das hipóteses.
Experimentos - Testes dos três elementos acima.

O método científico consiste dos seguintes aspectos:

Observação - Uma observação pode ser simples, isto é, feita a olho nu, ou pode exigir a utilização de instrumentos apropriados.
Descrição - O experimento precisa ser replicável (capaz de ser reproduzido).
Previsão - As hipóteses precisam ser válidas para observações feitas no passado, no presente e no futuro.
Controle - Para maior segurança nas conclusões, toda experiência deve ser controlada. Experiência controlada é aquela que é realizada com técnicas que permitem descartar as variáveis passíveis de mascarar o resultado.
Falseabilidade - toda hipótese tem que ser falseável ou refutável. Isso não quer dizer que o experimento seja falso; mas sim que ele pode ser verificado, contestado. Ou seja, se ele realmente for falso, deve ser possível prová-lo.
Explicação das Causas - Na maioria das áreas da Ciência é necessário que haja causalidade. Nessas condições os seguintes requerimentos são vistos como importantes no entendimento científico:
Identificação das Causas

Correlação dos eventos - As causas precisam se correlacionar com as observações.
Ordem dos eventos - As causas precisam preceder no tempo os efeitos observados.
Na área da saúde a natureza da associação causal foi formulada por Hence e adaptada por Robert Koch em 1877 para demonstração da relação causal entre microrganismos e patologias consistindo basicamente no enunciado acima ou seja: força da associação (conectividade); seqüência temporal (assimetria); transitividade (evidência experimental); previsibilidade/ estabilidade.
Uma maneira linearizada e pragmática de apresentar os quatro pontos acima está exposto a seguir passo-a-passo. Vale a pena notar que é apenas um exemplo, não sendo obrigatória a existência de todos esses passos. Na verdade, na maioria dos casos não se seguem todos esses passos, ou mesmo parte deles. O método científico não é uma receita: ele requer inteligência, imaginação e criatividade. O importante é que os aspectos e elementos apresentados acima estejam presentes.

Definir o problema.
Recolhimento de dados
Proposta de uma hipótese
Realização de uma experiência controlada, para testar a validade da hipótese
Análise dos resultados
Interpretar os dados e tirar conclusões, o que serve para a formulação de novas hipóteses.
Publicação dos resultados em monografias, dissertações, teses, artigos ou livros aceitos por universidades e ou reconhecidos pela comunidade científica.
Observe-se que nem todas as hipótese podem ser confirmadas ou refutadas por experimentos e que em muitas áreas do conhecimento o recolhimento de dados e a tentativas de interpretá-los já é uma grande tarefa como nas ciências humanas e jurídicas (criminologia).


 Ciências humanas

A limitação ética da realização de experimentos com seres humanos, o estudo das subjetividades ou do essencialmente subjetivo, individual e particular psiquismo humano, ou a natureza histórica do objeto das ciências sociais, conduziram os pensadores a distintos caminhos ou proposições de estudo para o método científico. Contudo, parafraseando Minayo,..."uma base de dados quando bem trabalhada teórica e praticamente, produz riqueza de informações, aprofundamento e maior fidedignidade interpretativa"...
As principais divergências na análise dos resultados de pesquisas em ciências sociais ou humanas se dão no plano da contextualização dos dados ou informações obtidas em campo nos diversos sistemas teóricos ou seja conjunto de teorias e leis reconhecidas como consensuais em distintos momentos históricos e/ou segmentos das comunidades científicas. Nas ciências sociais identifica-se três grandes correntes de pensamentos:

Positivismo / Auguste Comte.
Fenomenologia (Fenomenologia do Espírito / Estruturalismo)
Materialismo dialéctico; Dialéctica / Marxismo


 A evolução do conceito de método

 A história do método científico se mistura com a história da ciência. Documentos do Antigo Egito já descrevem métodos de diagnósticos médicos. Na cultura da Grécia Antiga, os primeiros indícios do método científico começam a aparecer. Grande avanço no método foi feito no começo da filosofia islâmica, principalmente no uso de experimentos para decidir entre duas hipóteses. Os principios fundamentais do método científico se consolidaram com o surgimento da Física nos séculos XVII e XVIII. Francis Bacon, em seu trabalho Novum Organum(1620)-uma referência ao Organon de Aristóteles-especifica um novo sistema lógico para melhorar o velho processo filosófico do silogismo.
A metodologia científica tem sua origem no pensamento de Descartes, que foi posteriormente desenvolvimento empiricamente pelo físico inglês Isaac Newton. René Descartes propôs chegar à verdade através da dúvida sistemática e da decomposição do problema em pequenas partes, características que definiram a base da pesquisa científica.


Lê-se no livro o Discurso do método:

...''E como a multiplicidade de leis serve frequentemente para escusar os vícios, de sorte que um estado é muito melhor governado quando, possuindo poucas, elas são aí rigorosamente aplicadas, assim, em lugar de um grande número de preceitos dos quais a lógica é composta, acrediteis que já me seriam bastante quatro, contanto que tomasse a firme e constante resolução de não deixar uma vez só de observá-los.

O primeiro- consistia em nunca aceitar, por verdadeira, coisa nenhuma que não conhecesse como evidente; isto é, devia evitar cuidadosamente a precipitação e a prevenção; e nada incluir em meus juizos que não se apresentasse tão claramente e tão distintamente ao meu espírito que não tivesse nenhuma ocasião de o pôr em dúvida.

O segundo dividir cada uma das dificuldades que examinasse em tantas parcelas quantas pudessem ser e fossem exigidas para melhor compreendê-las.
O terceiro conduzir por ordem os meus pensamentos, começando pelos objetos mais simples e fáceis de serem conhecidos, para subir, pouco a pouco, como por degraus, até o conhecimento dos mais compostos, e supondo mesmo certa ordem entre os que não se precedem naturalmente uns aos outros.
e o últimofazer sempre enumerações tão completas e revisões tão gerais, que ficasse certo de nada omitir''."...

Correntemente estas regras são 1 – da evidência; 2 – da divisão ou análise; 3 – da ordem ou dedução; 3 da enumeração (contar; especificar), classificação.

 O acidente (serendipity)
É comum considerar alguns dos mais importantes avanços na ciência, tais como as descobertas da radioatividade por Henri Becquerel ou da penicilina por Alexander Fleming, como tendo ocorrido por acidente. No entanto, o que é possível afirmar à luz da observação científica é que terão sido parcialmente acidentais, uma vez que as pessoas envolvidas haviam aprendido a "pensar cientificamente", estando, portanto, conscientes de que observaram algo novo e interessante.
Os progressos da ciência são acompanhados de muitas horas de trabalho cuidadoso, que segue um caminho mais ou menos sistemático na busca de respostas a questões científicas. É este o caminho denominado de método científico.


 A hipótese

A Hipótese (do gr. Hypóthesis) é uma proposição que se admite de modo provisório como princípio do qual se pode deduzir pelas regras da lógica um conjunto dado de proposições, ou um mecanismo da experiência a explicar.
Literalmente pode ser compreendida como uma suposição ou pergunta, conjetura que orienta uma investigação por antecipar características prováveis do objeto investigado e que vale quer pela confirmação através de deduções lógicas dessas características, quer pelo encontro de novos caminhos de investigação (novas hipóteses e novos experimentos).
No método científico, a hipótese é o caminho que deve levar à formulação de uma teoria. O cientista, na sua hipótese, tem dois objetivos: explicar um fato e prever outros acontecimentos dele decorrentes (deduzir as consequências). A hipótese deverá ser testada em experiências laboratoriais controladas. Se, após muitas dessas experiências, os resultados obtidos pelos pesquisadores não contrariarem a hipótese, então ela será aceita como uma lei e integrada à uma teoria e/ou sistema teórico.