segunda-feira, 1 de novembro de 2010

Tecnologia em Alta: Software

Software
 
 Software, logiciário ou suporte lógico é uma sequência de instruções a serem seguidas e/ou executadas, na manipulação, redirecionamento ou modificação de um dado/informação ou acontecimento. Software também é o nome dado ao comportamento exibido por essa seqüência de instruções quando executada em um computador ou máquina semelhante além de um produto desenvolvido pela Engenharia de software, e inclui não só o programa de computador propriamente dito, mas também manuais e especificações. Para fins contábeis e financeiros, o Software é considerado um Bens de capital.
Este produto passa por várias etapas como: análise econômica, análise de requisitos, especificação, codificação, teste, documentação, Treinamento, manutenção e implantação nos ambientes.

  Software como programa de computador

Um programa de computador é composto por uma seqüência de instruções, que é interpretada e executada por um processador ou por uma máquina virtual. Em um programa correto e funcional, essa sequência segue padrões específicos que resultam em um comportamento desejado.
Um programa pode ser executado por qualquer dispositivo capaz de interpretar e executar as instruções de que é formado.
Quando um software está representado como instruções que podem ser executadas diretamente por um processador dizemos que está escrito em linguagem de máquina. A execução de um software também pode ser intermediada por um programa interpretador, responsável por interpretar e executar cada uma de suas instruções. Uma categoria especial e notável de interpretadores são as máquinas virtuais, como a Máquina virtual Java (JVM), que simulam um computador inteiro, real ou imaginado.
O dispositivo mais conhecido que dispõe de um processador é o computador. Atualmente, com o barateamento dos microprocessadores, existem outras máquinas programáveis, como telefone celular, máquinas de automação industrial, calculadora, etc.

 A construção de um programa de computador
 
Um programa é um conjunto de instruções para o processador (linguagem de máquina). Entretanto, pode-se utilizar linguagens de programação, que traduza comandos em instruções para o processador.
Normalmente, programas de computador são escritos em linguagens de programação, pois estas foram projetadas para aproximar-se das linguagens usadas por seres humanos. Raramente a linguagem de máquina é usada para desenvolver um programa. Atualmente existe uma quantidade muito grande de linguagens de programação, dentre elas as mais populares no momento são Java, Visual Basic, C, C++, PHP, dentre outras.
Alguns programas feitos para usos específicos, como por exemplo software embarcado ou software embutido, ainda são feitos em linguagem de máquina para aumentar a velocidade ou diminuir o espaço consumido. Em todo caso, a melhoria dos processadores dedicados também vem diminuindo essa prática, sendo a C uma linguagem típica para esse tipo de projeto. Essa prática, porém, vem caindo em desuso, principalmente devido à grande complexidade dos processadores atuais, dos sistemas operacionais e dos problemas tratados. Muito raramente, realmente apenas em casos excepcionais, é utilizado o código de máquina, a representação numérica utilizada diretamente pelo processador.
O Programa é inicialmente "carregado" na memória principal. Após carregar o programa, o computador encontra o 'Entry Point' ou ponto inicial de entrada do programa que carregou e lê as instruções sucessivamente byte por byte. As instruções do programa são passadas para o sistema ou processador onde são traduzidas da linguagens de programação para a linguagem de máquina, sendo em seguida executadas ou diretamente para o hardware, que recebe as instruções na forma de linguagem de máquina.

 Tipos de programas de computador

Qualquer computador moderno tem uma variedade de programas que fazem diversas tarefas.
Eles podem ser classificados em duas grandes categorias:
1.Software de sistema que incluiu o firmware (O BIOS dos computadores pessoais, por exemplo), drivers de dispositivos, o sistema operacional e tipicamente uma interface gráfica que, em conjunto, permitem ao usuário interagir com o computador e seus periféricos.
2.Software aplicativo, que permite ao usuário fazer uma ou mais tarefas específicas. Aplicativos podem ter uma abrangência de uso de larga escala, muitas vezes em âmbito mundial; nestes casos, os programas tendem a ser mais robustos e mais padronizados. Programas escritos para um pequeno mercado têm um nível de padronização menor.
Ainda é possível usar a categoria Software embutido ou Software embarcado, indicando software destinado a funcionar dentro de uma máquina que não é um computador de uso geral e normalmente com um destino muito específico
Atualmente temos um novo tipo de software. O software como serviço, que é um tipo que roda diretamente na internet, não sendo necessário instalar nada no computador do usuário. Geralmente esse tipo de software é gratuito e tem as mesmas funcionalidades das versões desktop.
 

Licenças

A maioria do software é publicado sob uma licença de software. Essa licença define e até restringe qual a forma que se pode utilizar o software definido números de licenças, modificações entre outros. Exemplos de licenças:

GNU General Public License
- Licença BSD
- Licença Apache
- Licença comercial
- Licença de software
- Licença de software livre
- Software livre
- Freeware
- Shareware
- Demo
- Trial

quarta-feira, 27 de outubro de 2010

Tecnologia em Alta: Fotografia digital

 Designa-se por fotografia digital a fotografia tirada com uma câmera digital ou determinados modelos de telefone celular, resultando num arquivo de computador que pode ser editado, impresso, enviado por e-mail ou armazenado em websites ou em dispositivos de armazenamento digital. Dispensa, assim, o processo de revelação. A visualização da imagem pode ser feita no ato, através dos recursos da câmera digital (normalmente, uma tela de LCD), e a manipulação da imagem pode ser feita em um computador, usando-se softwares editores de imagem como o Photoshop, GIMP, entre outros.

 Ajuste do EV

O EV é o controle de entrada de luz, onde pode ser:
    * Positivo: o EV positivo é quando entra mais luz do que o padrão. Aumentar o EV é útil para bater fotos em locais com pouca luz, onde será preciso uma captura maior da luz refletida. Geralmente as câmeras digitais automáticas permitem aumentar o EV até +2.0
    * Negativo: o EV negativo é quando entra menos luz do que o padrão. Diminuir o EV é útil para bater fotos que precise captura menos luz, como por exemplo, em fotos contra-luz. Geralmente as câmeras digitais automáticas permitem diminuir o EV até -2.0
    * É bom lembrar que câmeras automáticas são as câmeras apropriadas para pessoas que não tem grande conhecimento em fotografias. Câmeras profissionais (manuais) são câmeras que precisa ter um abrangedor conhecimento na área de fotografias.

Fotografia macro

Alguns modelos de máquina fotográfica digital possuem uma lente que permite fotos de quatro cm, três cm ou até menos distancia do objeto. Esse tipo de fotografia captura os mínimos detalhes dos objetos, detalhes até que não podem ser vistos a olho nu. Fotos de macro são utilizadas geralmente para obter fotos de insetos, pequenas peças, olhos (de perto), flores e etc.
No modo macro, o zoom é extremamente limitado.

 Limpeza da câmera

As câmeras para terem uma boa durabilidade necessitam de limpezas freqüentes e de forma correta.

 Obturador

Obturador é a peça da máquina que se abre para entrar luz no sensor e captar a imagem. O obturador pode ficar aberto de 60 segundos até 1/5000 segundos. Isso depende da câmera, ou então de como a câmera foi configurada. Para fotos em movimentos o obturador fica aberto menos tempo, algumas frações de segundos, para evitar que apareça vulto na foto, ou então para evitar que a foto saia embaçada. Quando o obturador fica aberto mais tempo, ele capta mais movimentos, então qualquer movimento de leve já aparece um vulto na foto. Usa-se uma velocidade lenta do obturador para bater foto de paisagens, onde precisa captar bastantes detalhes por causa da longa distancia do fundo. Usa-se também uma velocidade muito lenta do obturador para bater foto de fogos de artifício, para poder captar toda a trajetória dos fogos, criando um rastro no céu, aumenta a beleza dos fogos.
 
Tipos de zoom

Uma máquina fotográfica digital pode ter dois tipos de zoom:
    * Zoom Ótico: É o zoom que aproxima a imagem através do uso de lentes que se posicionam automaticamente dentro do tubo de entrada de luz. O zoom ótico é o que tem mais qualidade por permitir que o sensor da câmera capture a luz que entra pela objetiva.
    * Zoom Digital: É o zoom que aumenta o tamanho da imagem, sem o uso de lentes. O zoom digital é um software que multiplica a quantidade de pixels para ampliar uma imagem. Este efeito é chamado de interpolação. O zoom digital tem menos qualidade em comparação ao zoom óptico porque a medida que amplia a imagem ele multiplica a quantidade de pixels da mesma através de um programa e não pelo que é captado pelo sensor da câmera. É considerado mais um artifício do que um recurso, pois não traz nenhum benefício verdadeiro.

sexta-feira, 22 de outubro de 2010

Tecnologia em Alta: Sistema de posicionamento global

 O sistema de posicionamento global, popularmente conhecido por GPS (do acrónimo/acrônimo do original inglês Global Positioning System ou do português "geo-posicionamento por satélite"), conforme o nome diz, inclui um conjunto de satélites é um sistema de informação eletrônico que fornece via rádio a um aparelho receptor móvel a posição do mesmo com referencia as coordenadas terrestres, esse sistema que por vezes é impropriamente designado de sistema de navegação não substitui integralmente ao sistema de navegação astronômica, mas apenas informa as coordenadas do receptor e não o rumo indispensável a navegação estimada faltando solicitar o recurso de um simulador integrado ao receptor. Existem atualmente dois sistemas efetivos de posicionamento por satélite; o GPS americano e o Glonass russo; também existem mais dois sistemas em implantação; o Galileo europeu e o Compass chinês e isso se faz necessário universalmente, porque o sistema americano é controlado pelo Departamento de Defesa dos Estados Unidos da América, DoD, para uso exclusivo militar e, embora atualmente, encontre-se aberto para uso e civil gratuito, poucas garantias temos que em tempo de guerra continue emitindo sinais o que resultara num serio risco a navegação.
O DoD fornece dois tipos de serviços GPS: Standard e Precision.
O sistema está dividido em três partes: espacial, de controlo e utilizador. O segmento espacial é composto pela constelação de satélites. O segmento de controlo é formado pelas estações terrestres dispersas pelo mundo ao longo da Zona Equatorial, responsáveis pela monitorização das órbitas dos satélites, sincronização dos relógios atómicos de bordo dos satélites e actualização dos dados de almanaque que os satélites transmitem. O segmento do utilizador consiste num receptor que capta os sinais emitidos pelos satélites. Um receptor GPS (GPSR) descodifica as transmissões do sinal de código e fase de múltiplos satélites e calcula a sua posição com base nas distâncias a estes. A posição é dada por latitude, longitude e altitude, coordenadas geodésicas referentes ao sistema WGS84.

 Descrição técnica

Receptores GPS vêm numa variedade de formatos, de dispositivos integrados dentro de carros, telefones, e relógios, a dispositivos dedicados somente ao GPS como estes das marcas Trimble, Garmin e Leica.
O sistema foi declarado totalmente operacional apenas em 1995. Seu desenvolvimento custou 10 bilhões de dólares. Consiste numa "constelação" de 28 satélites sendo 4 sobressalentes em 6 planos orbitais. Os satélites GPS, construídos pela empresa Rockwell, foram lançados entre Fevereiro de 1978 (Bloco I), e 6 de Novembro de 2004 (o 29º). Cada um circunda a Terra duas vezes por dia a uma altitude de 20200 quilómetros (12600 milhas) e a uma velocidade de 11265 quilómetros por hora (7000 milhas por hora). Os satélites têm a bordo relógios atómicos e constantemente difundem o tempo preciso de acordo com o seu próprio relógio, junto com informação adicional como os elementos orbitais de movimento, tal como determinado por um conjunto de estações de observação terrestres.

Medição com um GPS
 
 O receptor não necessita de ter um relógio de tão grande precisão, mas sim de um suficientemente estável. O receptor capta os sinais de quatro satélites para determinar as suas próprias coordenadas, e ainda o tempo. Então, o receptor calcula a distância a cada um dos quatro satélites pelo intervalo de tempo entre o instante local e o instante em que os sinais foram enviados (esta distância é chamada pseudodistância). Descodificando as localizações dos satélites a partir dos sinais de microondas (tipo de onda electromagnética) e de uma base de dados interna, e sabendo a velocidade de propagação do sinal, o receptor, pode situar-se na intersecção de quatro calótes, uma para cada satélite.
Até meados de 2000 o departamento de defesa dos EUA impunha a chamada "disponibilidade selectiva", que consistia em um erro induzido ao sinal impossibilitando que aparelhos de uso civil operassem com precisão inferior a 90 metros.
Porém, o presidente Bill Clinton foi pressionado a assinar uma lei determinando o fim dessa interferência no sinal do sistema, desse modo entende-se que não há garantias que em tempo de guerra o serviço continue a disposição ou com a atual precisão.
No cenário militar, o GPS é também usado para o direcionamento de diversos tipos de armamentos de precisão, como as bombas JDAM (Joint Direct Attack Munition) e os famosos mísseis Tomahawk. Estas bombas "inteligentes" são guiadas a seus alvos por um sistema inercial em conjunto com um GPS. Este tipo de sistema de guiamento pode ser usado em qualquer condição climática e garante um alto índice de acertos.

 Aplicações

Além de sua aplicação óbvia na aviação geral e comercial e na navegação marítima, qualquer pessoa que queira saber a sua posição, encontrar o seu caminho para determinado local (ou de volta ao ponto de partida), conhecer a velocidade e direção do seu deslocamento pode-se beneficiar com o sistema. Atualmente o sistema está sendo muito difundido em automóveis com sistema de navegação de mapas, que possibilita uma visão geral da área que você está percorrendo.
A comunidade científica utiliza-o pelo seu relógio altamente preciso. Durante experiências científicas de recolha de dados, pode-se registrar com precisão de micro-segundos (0,000001 segundo) quando a amostra foi obtida. Naturalmente a localização do ponto onde a amostra foi recolhida também pode ser importante. Agrimensores diminuem custos e obtêm levantamentos precisos mais rapidamente com o GPS. Unidades específicas têm custo aproximado de 3.000 dólares e precisão de 1 metro, mas existem receptores mais caros com precisão de 1 centímetro. A recolha de dados por estes receptores é mais lenta.
Exemplo de um receptor GPS com mapas, instalado em um carro.
Guardas florestais, trabalhos de prospecção e exploração de recursos naturais, geólogos, arqueólogos, bombeiros, são enormemente beneficiados pela tecnologia do sistema. O GPS tem-se tornado cada vez mais popular entre ciclistas, balonistas, pescadores, ecoturistas, geocachers, vôo livre ou por aventureiros que queiram apenas orientação durante as suas viagens. Com a popularização do GPS, um novo conceito surgiu na agricultura: a agricultura de precisão. Uma máquina agrícola dotada de receptor GPS armazena dados relativos à produtividade em um dispositivo de memória que, tratados por programa específico, produz um mapa de produtividade da lavoura. As informações permitem também o(p)timizar a aplicação de corre(c)tivos e fertilizantes.

 Tipos de receptores
 
Existem diferentes receptores GPS, desde diversas marcas que comercializam soluções "tudo-em-um", até os externos que são ligados por cabo ou ainda por bluetooth. Geralmente categorizados em termos de demandas de uso em Geodésicos, Topográficos e de Navegação. A diferenciação entre essas categorias, que a princípio pode parecer meramente de preço de aquisição é principalmente devido à precisão alcançada, ou seja a razão da igualdade entre o dado real do posicionamento, e o oferecido pelo equipamento. Sendo os mais acurados, com valores na casa dos milímetros, os receptores Geodésicos são capazes de captar as duas frequências emitidas pelos satélites (L1 e L2), possibilitando assim a eliminação dos efeitos da refracção ionosférica. Os topográficos, que tem características de trabalho semelhantes à categoria anterior, porém somente captam a portadora L1, também possuem elevada precisão, geralmente na casa dos centímetros. Ambas as categorias tem aplicações técnicas, e características próprias como o pós-processamento, o que significa que geralmente não informam o posicionamento instantaneamente (excepto os modelos RTK).
No caso da categoria de maior uso, a de navegação, embora possua menor precisão de posicionamento, tem inúmeras vantagens como o baixo preço de aquisição e inúmeras aplicações, onde vê-se uma infinidade de modelos, tanto aqueles que integram diversos equipamentos como computadores de mão, celulares, relógios, etc., como aqueles dedicados exclusivamente ao posicionamento GPS, onde também encontramos aplicações para uso do dado de posicionamento em outros equipamentos como notebooks, rastreadores de veículos, etc.
Actualmente com a convergência de dispositivos, existem muita variedade de Pocket PCs com GPS interno. Estes têm a vantagem de se poder escolher o software que se pretende utilizar com eles.

 O que ter em conta ao escolher um receptor?

    * Número de canais que o receptor utiliza.
    * Mapas disponíveis (caso se aplique).
    * Luminosidade do(a) ecrã/tela (caso se aplique).
    * Autonomia.
    * Robustez.
    * Tempo de duração das baterias(caso se aplique).

Porque o que conta acima de tudo é a recepção de sinal, conta muito o número de canais que o GPS usa para adquirir o sinal. Actualmente existem receptores com chip SIRF III que usam 20 canais.

Futuro- GPS modernização

    * Dia 24 de março 2009 foi lançado o primeiro satélite GPS equipado com uma amostra de hardware funcionando em frequência L5
Entre outras novidades, este satélite será o primeiro a emitir o sinal GPS numa frequência de 1176.45 MHz (±12 MHz).
    * Melhora a estrutura do sinal para melhor desempenho.
    * Transmissão superior ao do L1 e L2 sinal.

A data limite para que a força aérea americana coloque um satélite GPS de forma operacional em na frequência L5 é 26 de agosto de 2009. Caso esta data seja ultrapassado, o governo dos Estados Unidos perderão o direito de empregar tal frequência em seus projetos militares/civis.
L1C é um sinal de uso civil, para ser transmitido na mesma frequência L1 (1575,42 MHz), que atualmente contém a C/ Um sinal GPS utilizados por todos os atuais usuários. O L1C estará disponível com o primeiro bloco III lançamento previsto para 2013.

segunda-feira, 18 de outubro de 2010

Tecnologia em Alta: Wi-Fi

Wi-Fi é uma marca registrada da Wi-Fi Alliance, que é utilizada por produtos certificados que pertencem à classe de dispositivos de rede local sem fios (WLAN) baseados no padrão IEEE 802.11. Por causa do relacionamento íntimo com seu padrão de mesmo nome, o termo Wi-Fi é usado frequentemente como sinônimo para a tecnologia IEEE 802.11. Seu nome é uma abreviação do termo inglês Wireless Fidelity, que significa Fidelidade Sem Fio.
O padrão Wi-Fi opera em faixas de frequências que não necessitam de licença para instalação e/ou operação. Este fato as tornam atrativas. No entanto, para uso comercial no Brasil é necessária licença da Agência Nacional de Telecomunicações (Anatel).
Para se ter acesso à internet através de rede Wi-Fi deve-se estar no raio de ação ou área de abrangência de um ponto de acesso (normalmente conhecido por hotspot) ou local público onde opere rede sem fios e usar dispositivo móvel, como computador portátil, Tablet PC ou PDA com capacidade de comunicação sem fio, deixando o usuário do Wi-Fi bem à vontade em usá-lo em lugares de "não acesso" à internet, como: Aeroportos.
Hoje, muitas operadoras de telefonia estão investindo pesado no Wi-Fi, para ganhos empresariais.
Hotspot Wi-Fi existe para estabelecer ponto de acesso para conexão à internet. O ponto de acesso transmite o sinal sem fios numa pequena distância – cerca de 100 metros. Quando um periférico que permite "Wi-Fi", como um Pocket PC, encontra um hotspot, o periférico pode na mesma hora conectar-se à rede sem fio. Muitos hotspots estão localizados em lugares que são acessíveis ao público, como aeroportos, cafés, hotéis e livrarias. Muitas casas e escritórios também têm redes "Wi-Fi". Enquanto alguns hotspots são gratuitos, a maioria das redes públicas é suportada por Provedores de Serviços de Internet (Internet Service Provider - ISPs) que cobram uma taxa dos usuários para se conectarem.
Atualmente, praticamente todos os computadores portáteis vêm de fábrica com dispositivos para rede sem fio no padrão Wi-Fi (802.11b, a ou g). O que antes era acessório está se tornando item obrigatório, principalmente devido ao fato da redução do custo de fabricação.
 

 Extended Service Sets (ESS)

Múltiplas infra-estruturas de BSS podem ser conectadas através de suas interfaces de uplink e por sua vez está conectado no Distribution System - DS (Centro de Distribuição - CD). Quando temos várias BSS interconectadas via DS, chamamos de ESS.


 Principais padrões

Os principais padrões na família IEEE 802.11 são:

IEEE 802.11a: Padrão Wi-Fi para frequência 5 GHz com capacidade teórica de 54 Mbps.
IEEE 802.11b: Padrão Wi-Fi para frequência 2,4 GHz com capacidade teórica de 11 Mbps. Este padrão utiliza DSSS (Direct Sequency Spread Spectrum – Sequência Direta de Espalhamento de Espectro) para diminuição de interferência.

IEEE 802.11g: Padrão Wi-Fi para frequência 2,4 GHz com capacidade teórica de 54 Mbps.
Wi-Fi Protected Access (WPA e WPA2): padrão de segurança instituído para substituir padrão WEP (Wired Equivalent Privacy) que possui falhas graves de segurança, possibilitando que um hacker pudesse quebrar a chave de criptografia após monitorar poucos minutos de comunicação.
A família 802.11 inclui técnicas de modulação no ar que usam o mesmo protocolo básico. Os mais populares são os definidos pelos protocolos 802.11b e 802.11g e são emendas ao padrão original. O 802.11-1997 foi o primeiro padrão de rede sem fio, mas o 802.11b foi o primeiro largamente aceitado, seguido do 802.11g e 802.11n. A segurança foi, no início, propositalmente fraca devido a requisitos de exportação de alguns governos, e mais tarde foi melhorada através da emenda 802.11i após mudanças governamentais e legislativas. O 802.11n é uma nova tecnologia multi-streaming de modulação que está ainda em desenvolvimento, mas produtos baseados em versões proprietárias do pré-rascunho já são vendidas. Outros padrões na família (c-f, h, j) são emendas de serviço e extensões ou correções às especificações anteriores.
802.11b e 802.11g usam a banda 24.4GHz ISM, operando nos Estados Unidos sobre a Part 15 do US Federal Communications Commission Rules and Regulations. Por causa desta escolha de frequência de banda, equipamentos 802.11b e g podem, ocasionalmente, sofrer interferências de fornos microondas e telefones sem fio. Dispositivos Bluetooth, enquanto operando na mesma banda, em teoria não interferem no 802.11b/g por que usam um método chamado frequency hopping spread spectrum signaling (FHSS) enquanto o 802.11b/g usa um método chamado direct sequence spread spectrum signaling (DSSS). O 802.11a usa a banda 5GHz U-NII, que oferece 8 canais não sobrepostos ao invés dos 3 oferecidos na frequência de banda 2.4GHz ISM.
O seguimento do espectro da frequência de rádio utilizado varia entre os países. Nos EUA, dispositivos 802.11a e 802.11g podem operar sem licença, como explicado na Parte 15 do FCC Rules and Regulations. Frequências usadas por canais um a seis (802.11b) caem na banda de rádio amador de 2.4GHz. Operadores licenciados de rádio amador podem operar dispositivos 802.11b/g sob a Parte 97 do FCC Rules and Regulatins, permitindo uma saída maior de energia mas não conteúdo comercial ou encriptação.
IEEE 802.11n: Padrão Wi-Fi para frequência 2,4 GHz e/ou 5 GHz com capacidade de 65 à 600 Mbps. Esse padrão utiliza como método de transmissão MIMO-OFDM.

  Tabela de frequências e potência:

Padrão--------- Região/País----------Frequência----------Potência


802.11b & g --América do Norte----2,4 - 2,4835 GHz---1000 mW
802.11b & g---Europa --------------2,4 - 2,4835 GHz---100 mW
802.11b & g---Japão--------------- 2,4 - 2,497 GHz-----10 mW
802.11b & g---Espanha-------------2,4 - 2,4875 GHz ---100 mW
802.11b & g---França--------------2,4 - 2,4835 GHz----100 mW
802.11a -------América do Norte--5,15 - 5,25 GHz------40 mW
802.11a-------América do Norte--5,25 - 5,35 GHz------200 mW
802.11a-------América do Norte--5,47 - 5,725 GHz-----não aprovado
802.11a-------América do Norte--5,725 - 5,825 GHz---800 mW


 Dispositivos padrão

Um ponto de acesso sem fio conecta um grupo de dispositivos sem fio a uma LAN com fio. Um ponto de acesso é semelhante a um HUB de rede, retransmitindo dados entre dipositivos sem fio conectados e (normalmente) a um único dispositivo com fios conectado, frequentemente um HUB ethernet ou SWITCH, permitindo aos dispositivos sem fio comunicarem-se com outros dispositivos com fio.
Adaptadores sem fio permitem conectar dispositivos à rede sem fio. Estes adaptadores conectam dispositivos através de várias interconexões externas ou internas como PCI, miniPCI, USB , ExpressCard, Cardbus e PC card. Os laptops mais novos são equipados com adaptadores internos. Placas internas são geralmente mais difíceis de instalar.

Roteadores sem fio integram uma WAP, SWITCH ethernet, e um firmware interno com aplicação de roteamento que provê Roteamento IP, NAT e encaminhamento de DNS através de uma interface WAN integrada. Um roteador sem fio permite que dispositivos ethernet de LAN cabeadas e sem fio conectem-se a (normalmente) um único dispositivo WAN, como um cable modem ou DSL modem. Um roteador wireless permite que todos os três dispositivos (principalmente pontos de acesso e roteadores) sejam configurados através de um utilitário central. Este utilitário é geralmente um servidor web integrado que serve páginas para clientes da rede cabeada e sem fio da LAN e opcionalmente para clientes da WAN. Este utilitário pode também ser uma aplicação que roda em um computador como o Apple's Airport.
Uma ponte de rede sem fio conecta uma rede cabeada a uma rede sem fio. Isto é diferente de um ponto de acesso de modo que um ponto de acesso conecta dispositivos sem fio a uma rede cabeada na camada data-link. Duas pontes sem fio podem ser usadas para conectar duas redes cabeadas sobre um link sem fio, útil em situações onde uma rede cabeada pode não estar disponível, como entre duas casas separadas.
Extensores de alcance ou repetidores podem estender o alcance de uma rede sem fio existente. Extensores de alcance podem ser posicionados estrategicamente para cobrir um área ou permitir que a área do sinal atravesse barreiras como aquelas criadas em corredores em forma de L. Dispositivos sem fio conectados através de repetidores irão sofrer uma latência maior para cada salto. Ainda, um dispositivo sem fio conectado a qualquer um dos repetidores em uma corrente terão uma performance limitada pelo link mais fracos entre dois nós na corrente da qual a conexão é originada até onde a conexão termina.

quarta-feira, 13 de outubro de 2010

Tecnologia em Alta: 3G

O padrão 3G é a terceira geração de padrões e tecnologias de telefonia móvel, substituindo o 2G. É baseado na família de normas da União Internacional de Telecomunicações (UIT), no âmbito do Programa Internacional de Telecomunicações Móveis (IMT-2000).

 Visão Geral


As tecnologias 3G permitem às operadoras da rede oferecerem a seus usuários uma ampla gama dos mais avançados serviços, já que possuem uma capacidade de rede maior por causa de uma melhora na eficiência espectral. Entre os serviços, há a telefonia por voz e a transmissão de dados a longas distâncias, tudo em um ambiente móvel. Normalmente, são fornecidos serviços com taxas de 5 a 10 megabits por segundo.
Ao contrário das redes definidas pelo padrão IEEE 802.11, as redes 3G permitem telefonia móvel de longo alcance e evoluíram para incorporar redes de acesso à Internet em alta velocidade e Vídeo-telefonia. As redes IEEE 802.11 (mais conhecidas como Wi-Fi ou WLAN) são de curto alcance e ampla largura de banda e foram originalmente desenvolvidas para redes de dados, além de não possuírem muita preocupação quanto ao consumo de energia, aspecto fundamental para aparelhos que possuem pouca autonomia energética.

Até Dezembro de 2007, 190 redes 3G já operavam em 40 países e 154 redes HSDPA operavam em 71 países, segundo a Global mobile Suppliers Association. Na Ásia, na Europa, no Canadá e nos Estados Unidos, as empresas de comunicações utilizam a tecnologia W-CDMA, com cerca de 100 terminais designados para operar as redes 3G.
Na Europa, os serviços 3G foram introduzidos a partir de Março de 2003, começando pelo Reino Unido e Itália. O Conselho da União Européia sugeriu às operadoras 3G cobrirem 80% das populações nacionais europeias até ao final de 2005.
A implantação das redes 3G foi tardia em alguns países devido a enormes custos adicionais para licenciamento do espectro. Em muitos países, as redes 3G não usam as mesmas frequências de rádio que as 2G, fazendo com que as operadoras tenham que construir redes completamente novas e licenciar novas frequências; uma excepção são os Estados Unidos em que as empresas operam serviços 3G na mesma frequência que outros serviços. Os custos com licença em alguns países europeus foram particularmente altos devido a leilões do governo de um número limitado de licenças e a leilões com propostas confidenciais, além da excitação inicial sobre o potencial do 3G. Outros atrasos se devem a despesas com actualização dos equipamentos para os novos sistemas.

Em Junho de 2007, o assinante 3G de número 200 milhões foi conectado. Se comparado aos 3 biliões de assinantes de telefonia móvel no mundo, esse número corresponde apenas a 6,7%. Nos países onde a 3G foi lançada inicialmente (Japão e Coréia do Sul), mais da metade dos assinantes utilizam 3G. Na Europa, o país líder é a Itália, com um terço dos seus assinantes tendo migrado para a 3G. Outros países líderes na migração para a 3G são o Reino Unido, a Áustria e a Singapura, com 20% de migração. Uma estatística confusa está computando clientes de CDMA 2000 1x RTT como se fossem clientes 3G. Se for utilizada essa definição de carácter disputado, o total de assinantes 3G seria de 475 milhões em Junho de 2007, 15,8% dos assinantes de todo o mundo.
 Características


A característica mais importante da tecnologia móvel 3G é suportar um número maior de clientes de voz e dados, especialmente em áreas urbanas, além de maiores taxas de dados a um custo incremental menor que na 2G.
Ela utiliza o espectro de radiofrequência em bandas identificadas, fornecidas pela UTI para a Terceira Geração de serviços móveis IMT-2000, e depois licenciadas para as operadoras.
Permite a transmissão de 384 kbits/s para sistemas móveis e 7 megabits/s para sistemas estacionários. Espera-se que tenha uma maior capacidade de usuários e uma maior eficiência espectral, de forma que os consumidores possam dispor de roaming global entre diferentes redes 3G.


 Padrões

O IMT-2000 da União Internacional de Telecomunicações (ITU) consiste em seis interfaces de rádio:
   * IMT-DS Direct-Sequence
         o também conhecido como W-CDMA ou UTRA-FDD, usado nos UMTS
   * IMT-MC Multi-Carrier
         o também conhecido como CDMA2000, o sucessor do 2G CDMA (IS-95)
   * IMT-TD Time-Division
         o Este engloba: TD-CDMA (Time Division - Code Division Multiple Access) e TD-SCDMA (Time Division - Synchronous Code Division Multiple Access).
   * IMT-SC Single Carrier
         o também conhecido como EDGE[1]
   * IMT-FT Frequency Time
         o também conhecido como DECT
   * IMT-OFDMA TDD WMAN
         o mais conhecido como WiMAX

 Evolução para 3G

As redes de telecomunicações de telefonia de celular móvel são actualizadas de forma a utilizarem as tecnologias 3G desde 1999. O Japão foi o primeiro país a implementar o 3G nacionalmente e essa transição foi praticamente completada em 2006. Logo após o Japão, a Coréia também iniciou sua transição, que foi feita por volta de 2004.


 Operadoras e redes UMTS

A partir de 2005, a evolução das redes 3G ocorreu em alguns anos, devido à capacidade limitada das redes 2G existentes. As redes 2G foram construídas principalmente para voz e transmissão lenta de dados. Devido às rápidas mudanças nas expectativas dos usuários, elas não atendem hoje às necessidades de transmissão de dados sem fio.
"2,5G" (e mesmo 2.75G) são tecnologias como o serviço de dados i-mode, telefones com câmara, circuito de alta velocidade de dados comutados (HSCSD) e General Packet Radio Service (GPRS) foram criados para fornecer alguma funcionalidade de domínios, como redes 3G , mas sem a plena transição para a rede 3G. Eles foram construídos para introduzir as possibilidades de aplicação de tecnologia wireless para o consumidor final, e assim aumentar a procura de serviços 3G.


 Padronização da rede

A União Internacional das Telecomunicações (UIT) definiu a demanda para redes móveis 3G com o padrão IMT-2000. Uma organização chamada 3rd Generation Partnership Project (3GPP) continuou esse trabalho definindo um sistema móvel compatível com o padrão IMT-2000. Esse sistema é chamado de Sistema Universal de Telecomunicações Móveis (Universal Mobile Telecommunications System - UMTS).

 Evolução do 3G (pré-4G)

A padronização da evolução do 3G está a funcionar em ambas as 3GPP e 3GPP2. Os correspondentes especificações do 3GPP e 3GPP2 evoluções são nomeadas como LTE e UMB, respectivamente. 3G evolução utiliza parcialmente fora 3G tecnologias destinadas a melhorar o desempenho e fazer um bom caminho migração. Há vários caminhos diferentes de 2G para 3G. Na Europa, o principal caminho começa a partir GSM quando GPRS é adicionado a um sistema. A partir deste ponto, é possível ir para o sistema UMTS. Na América do Norte o sistema evolução terá início Time divisão de acesso múltiplo (TDMA), a mudança reforçada Dados Tarifas para GSM Evolution (EDGE) e, em seguida, a UMTS.
No Japão, dois padrões 3G são utilizados: FOMA (utiliza o WCDMA o que torna o UMTS compatível) utilizados pelo Softbank e NTT DoCoMo, e CDMA2000, utilizado por KDDI. Transição para a 3G foi concluída no Japão, em 2006.


 Vantagens de uma arquitectura de rede em camadas


Ao contrário do GSM, UMTS é baseada em um serviço dividido em seções. No topo está a seção de serviços, que oferece organização rápida de serviços e localização centralizada. No meio está a seção de controle, que ajuda a atualizar os procedimentos e que capacita a rede a se alocar dinamicamente. Na base está a camada de conectividade onde qualquer tecnologia de transmissão pode ser utilizada e onde o canal de áudio trafega por ATM/AAL2 ou IP/RTP.

 Tecnologias móveis

Ao converter uma rede GSM para uma rede UMTS, a primeira nova tecnologia é General Packet Radio Service (GPRS). É o gatilho para os serviços 3G. A ligação à rede é sempre relativa, de modo que o assinante está on-line o tempo todo. Desde o ponto de vista do operador, é importante saber que os investimentos em GPRS são reutilizados quando se vai para o UMTS. Também é importante capitalizar a experiência adquirida no negócio utilizando GPRS.
De GPRS, os operadores poderão mudar directamente para a rede UMTS, ou investir em um sistema EDGE. Uma vantagem a mais do EDGE UMTS é que ele não necessita de novas licenças. As frequências também são reutilizadas, não são necessárias novas antenas.

 Migrando de GPRS para UMTS


Residência registo (HLR) Visitante localização registo (VLR) Equipamento identidade registo (EIR) De rede GPRS, os seguintes elementos da rede podem ser reutilizados:
Mobile centro comutação (MSC) (vendedor dependentes) Autenticação centro (AUC) Publicação GPRS Support Node (SGSN) (vendedor dependentes) Gateway GPRS apoio nó (GGSN) De Global Service for Mobile (GSM) rede de rádio comunicação, os seguintes elementos não podem ser reutilizados
Estação base controlador (BSC) Base transceiver station (BTS) Eles podem permanecer na rede e ser utilizado em rede dupla operação onde redes 2G e 3G co-existir enquanto rede de migração e os novos terminais 3G tornam-se disponíveis para uso na rede.


A rede UMTS introduz novos elementos da rede que funcionará como especificado pelo 3GPP:

Node B (estação base) Radio Network Controller (RNC) Media Gateway (MGW) A funcionalidade do MSC e SGSN muda quando vai UMTS. Num sistema GSM da MSC trata todos os circuitos comutados operações como a conexão e A-B-assinante através da rede. SGSN trata todos os pacotes comutados operações e transfere todos os dados na rede. Em UMTS o Media Gateway (MGW) cuidar de todas as transferências de dados em ambos os circuitos e pacotes redes comutadas. MSC e SGSN controle MGW operações. Os gânglios são renomeados para MSC-servidor e servidor-GSN.

 Terminais UMTS

A complexidade técnica de um telefone 3G depende da sua necessidade de itinerância no legado das redes 2G. Nos primeiros países, o Japão e a Coreia do Sul, não havia necessidade de incluir capacidades de roaming mais velhos, tais como redes GSM, de forma que telemóveis 3G foram pequenos e leves. Na Europa e na América, os fabricantes e operadores de rede quis telemóveis 3G multi-modo, que operam em redes 2G e 3G (por exemplo, WCDMA e GSM), que acrescentou à complexidade, tamanho, peso e custo do handset. Como resultado, no início os telefones europeus WCDMA foram significativamente maiores e mais pesados que telefones WCDMA comparáveis no mercado japonês.
A japonesa Vodafone KK's experimentou um grande número de problemas com estas diferenças quando sua mãe baseada no Reino Unido, Vodafone, insistiu na utilização de telemóveis normais pela subsidiária japonesa. Clientes japoneses que estavam habituados aos pequenos aparelhos foram subitamente obrigado a mudar para handsets europeus, que foram considerados muito mais pesados e feios pelos consumidores japoneses. Durante esta conversão, Vodafone KK 6 clientes perdidos para cada 4 que migrou para a 3G. Pouco tempo depois, Vodafone vendeu a filial (agora conhecida como Softbank).
A tendência geral para telas pequenas nos telefones parece ter pausado, talvez mesmo virado, com a capacidade de grandes ecrãs nos telefones para fornecer mais vídeo, jogos e internet sobre o uso de redes 3G.


 Críticas


Embora 3G tenha sido introduzida com êxito para usuários da Europa, Austrália, Ásia, América do Sul, América do Norte e da África, algumas questões são debatidas pelos fornecedores e os utilizadores 3G:
    * Taxas caras de entrada para o serviço de licenças 3G.
    * Numerosas diferenças em termos de licença.
    * Grande quantidade de dívida actualmente sustentada por muitas empresas telecomunicações, o que a torna um desafio para construir a infra-estrutura necessária para 3G.
    * Falta de apoio dos Estados-membros para conturbado financeiramente operadores.
    * Expensas dos telemóveis 3G.
    * Falta de buy-in por 2G usuários móveis 3G para os novos serviços sem fios.
    * A falta de cobertura, porque é ainda um novo serviço.
    * Alta dos preços dos serviços móveis 3G em alguns países, incluindo o acesso à Internet (ver taxa fixa).
    * Actual falta de usuário necessidade de serviços 3G de voz e dados em uma mão-na posse dispositivo.


 3G no Brasil

A primeira operadora a oferecer 3G no Brasil foi a Vivo em 2004 com a tecnologia Evolution-Data Optimized ou CDMA 1X-EVDO que atinge velocidades de até 2mb por segundo. No entanto, a cobertura ficou limitada a poucas cidades, nas quais muitas possuíam cobertura parcial (algumas regiões de cada município).
No final de 2007, as operadoras Claro e Telemig celular lançaram suas redes 3G UMTS/HSDPA na frequência de 850 MHz, antecipando-se ao leilão realizado em dezembro de 2007. Em dezembro de 2007 foi realizado o leilão das faixas de frequências no Brasil. Dessa forma as três principais operadoras do país Vivo, Claro e TIM conseguiram obter cobertura nacional. A Oi obteve licenças nas regiões I e III, com a compra da BrT (Brasil Telecom), que atuava somente na região II, vai ter cobertura nacional. A Telemig celular e a BRT obtiveram a cobertura em suas respectivas regiões. Nesse mesmo leilão, a operadora CTBC também adquiriu a tecnologia para a sua área de concessão: Triângulo Mineiro e parte dos estados: Goiás, Mato Grosso do Sul e São Paulo. A Sercomtel Celular utilizará a tecnologia 3G na frequência de 850 MHZ, nas cidades de Londrina e Tamarana.
Conforme reafirmou na primeira semana de março de 2008, o presidente da Anatel, Ronaldo Sardenberg, disse que o leilão da subfaixa H da Terceira Geração deverá ocorrer até o final deste semestre, subfaixa esta reservada para um quinto player(outra operadora). Como naquele leilão, a Nextel surpreendeu a todos disputando com altos lances uma das bandas, a Anatel deve considerar a possibilidade desse quinto player já estar estabelecido e pronto para ingressar no mercado 3G.

terça-feira, 5 de outubro de 2010

Tecnologia em Alta: Métodos Científicos



 O contexto de uma pesquisa

Primeiramente os pesquisadores definem proposições lógicas ou suposições (hipóteses) para explicar certos fenômenos e observações, e então desenvolvem experiências que testam essas hipóteses. Se confirmadas, as hipóteses podem gerar leis e teorias. Integrando-se hipóteses de certa área em uma estrutura coerente de conhecimento contribuí-se na formulação de novas hipóteses, bem como coloca as hipóteses em um conjunto de conhecimento maior que são as leis e teorias reconhecidas consensualmente pela comunidade científica e/ou o paradigma de seu tempo.
Outra característica do método é que o processo precisa ser objetivo, e o cientista deve ser imparcial na interpretação dos resultados. Sobre a objetividade, ou seja, atente às propriedades do objeto e não do sujeito (subjetividade), é conhecida a afirmação de Hans Selye, pesquisador canadense que formulou a moderna concepção de stress: "Quem não sabe o que procura não entende o que encontra" referindo-se à necessidade de formulação de definições precisas (a essência dos conceitos) e que possam ser respondidas com um simples sim ou não. Tanto a imparcialidade (evidência) como a objetividade foram incluídas por René Descartes (1596 – 1649) nas regras lógicas que caracterizam o método científico.

 Além disso, o procedimento precisa ser documentado, tanto no que diz respeito à fonte de dados como às regras de análise, para que outros cientistas possam re-analisar, reproduzir e verificar a confiabilidade dos resultados. Assim se distinguem os relatos científicos (artigos, monografias, teses e dissertações) de um simples estilo (padrão) ou arquitetura de texto orientados pelo que caracterizam as normas da Retórica ou o estudo do uso persuasivo da linguagem, em função da eloqüência.
É comum o uso da análise matemática ou estatística, quando possível, ou aproximação de modelos abstratos (tipos ideais) e categorias de classificação a depender do objetivo da pesquisa (identificar, descrever, analisar) que pode ser basicamente quantitativa ou qualitativa.
A divisão da ciência em áreas ou disciplinas cientificas distintas tem levado a tais adequações da metodologia. É comum a afirmação de que em função da evolução do método cientifico num extremo temos a física e química seguida da biologia e da geologia e por último as ciências sociais, psicologia e ciências jurídicas quase se aproximando da filosofia e estudo das crenças (senso comum) ou ciências do espírito (sistemas mítico - religiosos).
Contudo pesquisadores contemporâneos vêem nessas duas abordagens uma oposição complementar, enquanto que as pesquisas quantitativas que visam descrever e explicar fenómenos que produzem regularidades mensuráveis são recorrentes (ou discrepantes) e exteriores ao sujeito (objetivos), na pesquisa qualitativa o observador (sujeito) é da mesma natureza que o objeto de sua análise e, ele próprio, uma parte da sua observação (o subjetivo).
É importante ter em mente que as pesquisas cientificas se relacionam com um modelo (paradigmático) ou uma constelação de pressupostos e crenças, escalas de valores, técnicas e conceitos compartilhados pelos membros de uma determinada comunidade científica num determinado momento histórico.


 Elementos do método científico

"Ciência é muito mais uma maneira de pensar do que um corpo de conhecimentos." - Carl Sagan

"...ciência consiste em agrupar factos para que leis gerais ou conclusões possam ser tiradas deles." - Charles Darwin


O método científico é composto dos seguintes elementos:
Caracterização - Quantificações, observações e medidas.
Hipóteses - Explicações hipotéticas das observações e medidas.
Previsões - Deduções lógicas das hipóteses.
Experimentos - Testes dos três elementos acima.

O método científico consiste dos seguintes aspectos:

Observação - Uma observação pode ser simples, isto é, feita a olho nu, ou pode exigir a utilização de instrumentos apropriados.
Descrição - O experimento precisa ser replicável (capaz de ser reproduzido).
Previsão - As hipóteses precisam ser válidas para observações feitas no passado, no presente e no futuro.
Controle - Para maior segurança nas conclusões, toda experiência deve ser controlada. Experiência controlada é aquela que é realizada com técnicas que permitem descartar as variáveis passíveis de mascarar o resultado.
Falseabilidade - toda hipótese tem que ser falseável ou refutável. Isso não quer dizer que o experimento seja falso; mas sim que ele pode ser verificado, contestado. Ou seja, se ele realmente for falso, deve ser possível prová-lo.
Explicação das Causas - Na maioria das áreas da Ciência é necessário que haja causalidade. Nessas condições os seguintes requerimentos são vistos como importantes no entendimento científico:
Identificação das Causas

Correlação dos eventos - As causas precisam se correlacionar com as observações.
Ordem dos eventos - As causas precisam preceder no tempo os efeitos observados.
Na área da saúde a natureza da associação causal foi formulada por Hence e adaptada por Robert Koch em 1877 para demonstração da relação causal entre microrganismos e patologias consistindo basicamente no enunciado acima ou seja: força da associação (conectividade); seqüência temporal (assimetria); transitividade (evidência experimental); previsibilidade/ estabilidade.
Uma maneira linearizada e pragmática de apresentar os quatro pontos acima está exposto a seguir passo-a-passo. Vale a pena notar que é apenas um exemplo, não sendo obrigatória a existência de todos esses passos. Na verdade, na maioria dos casos não se seguem todos esses passos, ou mesmo parte deles. O método científico não é uma receita: ele requer inteligência, imaginação e criatividade. O importante é que os aspectos e elementos apresentados acima estejam presentes.

Definir o problema.
Recolhimento de dados
Proposta de uma hipótese
Realização de uma experiência controlada, para testar a validade da hipótese
Análise dos resultados
Interpretar os dados e tirar conclusões, o que serve para a formulação de novas hipóteses.
Publicação dos resultados em monografias, dissertações, teses, artigos ou livros aceitos por universidades e ou reconhecidos pela comunidade científica.
Observe-se que nem todas as hipótese podem ser confirmadas ou refutadas por experimentos e que em muitas áreas do conhecimento o recolhimento de dados e a tentativas de interpretá-los já é uma grande tarefa como nas ciências humanas e jurídicas (criminologia).


 Ciências humanas

A limitação ética da realização de experimentos com seres humanos, o estudo das subjetividades ou do essencialmente subjetivo, individual e particular psiquismo humano, ou a natureza histórica do objeto das ciências sociais, conduziram os pensadores a distintos caminhos ou proposições de estudo para o método científico. Contudo, parafraseando Minayo,..."uma base de dados quando bem trabalhada teórica e praticamente, produz riqueza de informações, aprofundamento e maior fidedignidade interpretativa"...
As principais divergências na análise dos resultados de pesquisas em ciências sociais ou humanas se dão no plano da contextualização dos dados ou informações obtidas em campo nos diversos sistemas teóricos ou seja conjunto de teorias e leis reconhecidas como consensuais em distintos momentos históricos e/ou segmentos das comunidades científicas. Nas ciências sociais identifica-se três grandes correntes de pensamentos:

Positivismo / Auguste Comte.
Fenomenologia (Fenomenologia do Espírito / Estruturalismo)
Materialismo dialéctico; Dialéctica / Marxismo


 A evolução do conceito de método

 A história do método científico se mistura com a história da ciência. Documentos do Antigo Egito já descrevem métodos de diagnósticos médicos. Na cultura da Grécia Antiga, os primeiros indícios do método científico começam a aparecer. Grande avanço no método foi feito no começo da filosofia islâmica, principalmente no uso de experimentos para decidir entre duas hipóteses. Os principios fundamentais do método científico se consolidaram com o surgimento da Física nos séculos XVII e XVIII. Francis Bacon, em seu trabalho Novum Organum(1620)-uma referência ao Organon de Aristóteles-especifica um novo sistema lógico para melhorar o velho processo filosófico do silogismo.
A metodologia científica tem sua origem no pensamento de Descartes, que foi posteriormente desenvolvimento empiricamente pelo físico inglês Isaac Newton. René Descartes propôs chegar à verdade através da dúvida sistemática e da decomposição do problema em pequenas partes, características que definiram a base da pesquisa científica.


Lê-se no livro o Discurso do método:

...''E como a multiplicidade de leis serve frequentemente para escusar os vícios, de sorte que um estado é muito melhor governado quando, possuindo poucas, elas são aí rigorosamente aplicadas, assim, em lugar de um grande número de preceitos dos quais a lógica é composta, acrediteis que já me seriam bastante quatro, contanto que tomasse a firme e constante resolução de não deixar uma vez só de observá-los.

O primeiro- consistia em nunca aceitar, por verdadeira, coisa nenhuma que não conhecesse como evidente; isto é, devia evitar cuidadosamente a precipitação e a prevenção; e nada incluir em meus juizos que não se apresentasse tão claramente e tão distintamente ao meu espírito que não tivesse nenhuma ocasião de o pôr em dúvida.

O segundo dividir cada uma das dificuldades que examinasse em tantas parcelas quantas pudessem ser e fossem exigidas para melhor compreendê-las.
O terceiro conduzir por ordem os meus pensamentos, começando pelos objetos mais simples e fáceis de serem conhecidos, para subir, pouco a pouco, como por degraus, até o conhecimento dos mais compostos, e supondo mesmo certa ordem entre os que não se precedem naturalmente uns aos outros.
e o últimofazer sempre enumerações tão completas e revisões tão gerais, que ficasse certo de nada omitir''."...

Correntemente estas regras são 1 – da evidência; 2 – da divisão ou análise; 3 – da ordem ou dedução; 3 da enumeração (contar; especificar), classificação.

 O acidente (serendipity)
É comum considerar alguns dos mais importantes avanços na ciência, tais como as descobertas da radioatividade por Henri Becquerel ou da penicilina por Alexander Fleming, como tendo ocorrido por acidente. No entanto, o que é possível afirmar à luz da observação científica é que terão sido parcialmente acidentais, uma vez que as pessoas envolvidas haviam aprendido a "pensar cientificamente", estando, portanto, conscientes de que observaram algo novo e interessante.
Os progressos da ciência são acompanhados de muitas horas de trabalho cuidadoso, que segue um caminho mais ou menos sistemático na busca de respostas a questões científicas. É este o caminho denominado de método científico.


 A hipótese

A Hipótese (do gr. Hypóthesis) é uma proposição que se admite de modo provisório como princípio do qual se pode deduzir pelas regras da lógica um conjunto dado de proposições, ou um mecanismo da experiência a explicar.
Literalmente pode ser compreendida como uma suposição ou pergunta, conjetura que orienta uma investigação por antecipar características prováveis do objeto investigado e que vale quer pela confirmação através de deduções lógicas dessas características, quer pelo encontro de novos caminhos de investigação (novas hipóteses e novos experimentos).
No método científico, a hipótese é o caminho que deve levar à formulação de uma teoria. O cientista, na sua hipótese, tem dois objetivos: explicar um fato e prever outros acontecimentos dele decorrentes (deduzir as consequências). A hipótese deverá ser testada em experiências laboratoriais controladas. Se, após muitas dessas experiências, os resultados obtidos pelos pesquisadores não contrariarem a hipótese, então ela será aceita como uma lei e integrada à uma teoria e/ou sistema teórico.

quinta-feira, 30 de setembro de 2010

Tecnologia em Alta: Foguete Espacial



Foguete espacial



Um foguete espacial (português brasileiro) ou foguetão (português europeu) é uma máquina que se desloca expelindo atrás de si um fluxo de gás a alta velocidade. Por conservação da quantidade de movimento (massa multiplicada por velocidade), o foguete desloca-se no sentido contrário com velocidade tal que, multiplicada pela massa do foguete, o valor da quantidade de movimento é igual ao dos gases expelidos.
Por extensão, o veículo, geralmente espacial, que possui motor(es) de propulsão deste tipo é denominado foguete, foguetão ou míssil. Normalmente, o seu objectivo é enviar objectos (especialmente satélites artificiais e sondas espaciais) e/ou naves espaciais e homens ao espaço 

Um foguete é constituído por uma estrutura, um motor de propulsão por reacção e uma carga útil. A estrutura serve para albergar os tanques de combustível e oxidante (comburente) e a carga útil. Chama-se também "foguete" ao motor de propulsão apenas.
Existem várias formas de forçar os gases de escape para fora do foguete com energia suficiente para conseguir propulsionar o foguete para a frente (i.e., vários tipos de motor de foguete). O tipo mais comum, que inclui todos os foguetes espaciais que existem actualmente e que voaram até hoje, são os chamados foguetes químicos, que funcionam libertando a energia química contida no seu combustível através de processo de combustão. Estes foguetes necessitam de transportar também um comburente para fazer reagir com o combustível. Esta mistura de gases sobreaquecidos é depois expandida numa tubeira divergente, a tubeira de Laval também conhecida como tubo de Bell, por forma a direccionar o gás em expansão para trás, e assim conseguir propulsionar o foguete para a frente.
Existem no entanto outros tipos de motor, por exemplo os motores nucleares térmicos, que sobreaquecem um gás até altas temperaturas, bombardeando-o com neutrões provenientes do decaimento do seu combustível nuclear. Esse gás é depois expandido na tubeira tal como nos foguetes químicos. Estes tipo de foguete foi desenvolvido e testado nos Estados Unidos durante a década de 60 do século passado, mas nunca chegou a ser utilizado. Os gases expelidos por este tipo de foguete são radioactivos, o que desaconselha o seu uso dentro da atmosfera terrestre, mas podem ser utilizados fora dela. Este tipo de foguete tem a vantagem de permitir eficiências muito superiores às dos foguetes químicos convencionais, uma vez que permitem acelerar os gases de escape a velocidades muito superiores.


 História

e o primeiro vôo de foguete propelido a combustível líquido (gasolina e oxigênio), lançado em 16 de março de 1926, em Auburn, Massachusetts, EUA.
A origem do foguete é provavelmente oriental. A primeira notícia que se tem do seu uso é do ano 1232, na China, onde foi inventada a pólvora.
Existem relatos do uso de foguetes chamados flechas de fogo voadoras no século XIII, na defesa da capital da província chinesa de Henan.
Os foguetes foram introduzidos na Europa pelos árabes.
Durante os séculos XV e XVI foi utilizado como arma incendiária. Posteriormente, com o aprimoramento da artilharia, o foguete bélico desapareceu até ao século XIX, e foi utilizado novamente durante as Guerras Napoleônicas.
Os foguetes do coronel inglês William Congreve foram usados na Espanha durante o sítio de Cádiz (1810), na primeira guerra Carlista (1833 - 1840) e durante a Guerra do Marrocos (1860).
Nos finais do século XIX e princípios do século XX, apareceram os primeiros cientistas que viram o foguete como um sistema para propulsionar veículos aeroespaciais tripulados. Entre eles destacam-se o russo Konstantin Tsiolkovsky, o alemão Hermann Oberth e o estadunidense Robert Hutchings Goddard, e, mais tarde os russos Sergei Korolev e Valentin Gruchensko e o alemão Wernher von Braun.
Os foguetes construídos por Goddard, embora pequenos, já tinham todos os princípios dos modernos foguetes, como orientação por giroscópios, por exemplo.
Os alemães, liderados por Wernher von Braun, desenvolveram durante a Segunda Guerra Mundial os foguetes V-1 e V-2 ( A-4 na terminologia alemã ), que foram a base para as pesquisas sobre foguetes dos EUA e da URSS no pós-guerra. Ambas as bombas nazistas, usadas para bombardear Paris e Londres no final da guerra, podem ser mais bem definidas como míssil. A rigor, a V-1 não chega a ser um foguete, mas um míssil que voa como avião a jato.
Inicialmente foram desenvolvidos foguetes especificamente destinados para uso militar, normalmente conhecidos como mísseis balísticos intercontinentais. Os programas espaciais que os estadunidenses e os russos colocaram em marcha basearam-se em foguetes projetados com finalidades próprias para a astronáutica, derivados destes foguetes de uso militar. Particularmente os foguetes usados no programa espacial soviético eram derivados do R.7, míssil balístico, que acabou sendo usado para lançar as missões Sputnik.
Destacam-se, pelo lado estadunidense, o Astrobee, o Vanguard, o Redstone, o Atlas, o Agena, o Thor-Agena, o Atlas-Centauro, a série Delta, os Titãs e Saturno ( entre os quais o Saturno V - o maior foguete de todos os tempos, que tornou possível o programa Apollo ), e, pelo lado soviético, os foguetes designados pelas letras A, B, C, D e G (estes dois últimos tiveram um papel semelhante aos Saturnos estadounidenses), denominados Proton.
Outros países que construíram foguetes, num programa espacial próprio, são a França, o Reino Unido (que o abandonou), e ainda China, Japão, Índia e o Brasil assim como o consórcio europeu que constituiu a Agência Espacial Européia (ESA) que construiu e lançou o foguete Ariane.

 Princípio de funcionamento

Princípio de funcionamento do motor de foguete: os gases expelidos pelo bocal provocam um movimento para cima por reação.
O princípio de funcionamento do motor de foguete baseia-se na terceira lei de Newton, a lei da ação e reação, que diz que "a toda ação corresponde uma reação, com a mesma intensidade, mesma direção e sentido contrário".
Imaginemos uma câmara fechada onde exista um gás em combustão. A queima do gás irá produzir pressão em todas as direções. A câmara não se moverá em nenhuma direção pois as forças nas paredes opostas da câmara irão se anular.
Se introduzirmos um bocal na câmara, onde os gases possam escapar, haverá um desequilíbrio. A pressão exercida nas paredes laterais opostas continuará não produzindo força, pois a pressão de um lado anulará a do outro. Já a pressão exercida na parte superior da câmara produzirá empuxo, pois não há pressão no lado de baixo (onde está o bocal).
Assim, o foguete se deslocará para cima por reação à pressão exercida pelos gases em combustão na câmara de combustão do motor. Por isto este tipo de motor é chamado de propulsão por reação.
Como no espaço exterior não há oxigênio para queimar com o combustível, o foguete deve levar armazenado em tanques não só o propelente (combustível), mas também o oxidante (comburente).
A magnitude do empuxo produzido (expressão que designa a força produzida pelo motor de foguete) depende da massa e da velocidade dos gases expelidos pelo bocal. Logo, quanto maior a temperatura dos gases expelidos, maior o empuxo. Assim, surge o problema de proteger a câmara de combustão e o bocal das altas temperaturas produzidas pela combustão. Uma maneira engenhosa de fazer isto é usar um fino jato do próprio propelente usado pelo foguete nas paredes do motor, para formar um isolante térmico e refrigerar o motor.

Tipos de foguete

Quanto ao tipo de combustível usado, existem três tipos de foguete:
    * Foguete de combustível líquido - em que o propelente e o oxidante estão armazenados em tanques fora da câmara de combustão e são bombeados e misturados na câmara onde entram em combustão;
    * Foguete de combustível sólido - em que ambos, propelente e oxidante, estão já misturados na câmara de combustão em estado sólido.
    * Foguete de combustível híbrido - em que propelente e oxidante estão em câmaras separadas e em estados diferentes: líquido/sólido ou gasoso/sólido. Atualmente encontra-se em estado de testes em países como EUA e Brasil.
Foguetes propelidos por fontes de energia ainda não dominadas e, portanto, ainda impraticáveis dado o estágio da tecnologia atual:
    * Foguete de antimatéria e Foguete de fusão
Quanto ao número de estágios, um foguete pode ser:
    * Foguete de um estágio - neste caso o foguete é "monolítico";
    * Foguete de múltiplos estágios - possui múltiplos estágios que vão queimando em seqüência e sendo descartados quando o combustível acaba, permitindo aumentar a capacidade de carga do foguete.

 

O futuro


O foguete convencional deverá passar por alguns avanços nos próximos anos, embora ainda deva ser o maior responsável, por muito tempo, pelo envio de astronautas e satélites artificiais ao espaço.
A adoção de veículos reutilizáveis, como o Ônibus Espacial (em Portugal: Vaivém Espacial) da NASA, deve ampliar-se. Os Ônibus Espaciais decolam como um foguete convencional, mas pousam como aviões, graças a sua aerodinâmica especial.
Um motor revolucionário, que pode fazer avançar a tecnologia astronáutica, é o motor Scramjet, capaz de atingir velocidades hipersônicas de até 15 vezes a velocidade do som. O motor Scramjet não possui partes móveis, e obtém a compressão necessária para a combustão pelo ar que entra pela frente, impulsionado pela própria velocidade do veículo no ar. A NASA testou com sucesso um motor deste tipo em 2004. O foguete, chamado X-43A, foi levado a altitude de 12000 m por um avião B-52, e lançado na ponta de um foguete Pegasus a altitude de 33000 m. Ele atingiu a velocidade recorde de 11000 km/h.
Outra possibilidade de avanço na tecnologia de motores de foguetes é o uso de propulsão nuclear, em que um reator nuclear aquece um gás produzindo um jato que é usado para produzir empuxo. Ou ainda a idéia de construir um foguete em forma de vela, que é acelerado pelo vento solar, o que permitiria maior velocidade e viagens a distâncias maiores.

sexta-feira, 24 de setembro de 2010

Tecnologia em Alta: Manufatura

Conceito de manufatura

Manufatura é um sistema de fabricação de grande quantidade de produtos de forma padronizada e em série. Neste processo pode ser usado somente as mãos (como era feito antes da Revolução Industrial) ou com a utilização de máquinas como passou a ocorrer após a Revolução Industrial.

A manufatura na Revolução Industrial

Durante a Revolução Industrial, houve grande avanço no modo de produção. O trabalho que antes era somente manual, passou a ser feito por máquinas, o que gerou uma maior produção em menor tempo.Além da utilização das máquinas, a manufatura passou a ter como marcante característica a utilização de um modo de trabalho em série, isso quer dizer que era feito etapa por etapa, e especializado, cada trabalhador tinha sua especialização numa área.

Avanços tecnológicos: máquinas

- 1765: o engenheiro escocês James Watt aumenta a eficiência do motor a vapor ao introduzir o condensador na máquina de Newcomen.

- 1768: o inventor inglês Sir Richard Arkwright cria uma máquina de fiar avançada para o período, aumentando significativamente a produtividade

- 1793: o engenheiro norte-americano Eli Whitney cria o descaroçador de algodão. Indústria Manufatureira

Uso de maquinas simples; Existência da divisão do trabalho; Inicio do trabalho assalariado e trabalho com as mãos.

terça-feira, 24 de agosto de 2010

Tecnologia em Alta: Tecnologia da Informação

 A Tecnologia da Informação (TI) pode ser definida como um conjunto de todas as atividades e soluções providas por recursos de computação. Na verdade, as aplicações para TI são tantas - estão ligadas às mais diversas áreas - que existem várias definições e nenhuma consegue determiná-la por completo.

 O termo

A TI é uma grande força em áreas como finanças, planejamento de transportes, design, produção de bens, assim como na imprensa, nas atividades editoriais, no rádio e na televisão. O desenvolvimento cada vez mais rápido de novas tecnologias de informação modificou as bibliotecas e os centros de documentação (principais locais de armazenamento de informação), introduzindo novas formas de organização e acesso aos dados e obras armazenadas; reduziu custos e acelerou a produção dos jornais e possibilitou a formação instantânea de redes televisivas de âmbito mundial.
Além disso, tal desenvolvimento facilitou e intensificou a comunicação pessoal e institucional, através de programas de processamento de texto, de formação de bancos de dados, de editoração eletrônica, bem como de tecnologias que permitem a transmissão de documentos, envio de mensagens e arquivos, assim como consultas a computadores remotos (via rede mundiais de computadores, como a internet). A difusão das novas tecnologias de informação trouxe também impasse e problemas, relativos principalmente à privacidade dos indivíduos e ao seu direito à informação, pois os cidadãos geralmente não têm acesso a grande quantidade de informação sobre eles, coletadas por instituições particulares ou públicas.
As tecnologias da informação não incluem somente componentes de máquina. Existem tecnologias intelectuais usadas para lidar com o ciclo da informação, como técnicas de classificação, por exemplo, que não requerem uso de máquinas apenas em um esquema. Esse esquema pode, também, ser incluído em um software que será usado, mas isso não elimina o fato de que a técnica já existia independentemente do software. As tecnologias de classificação e organização de informações existem desde que as bibliotecas começaram a ser formadas. Qualquer livro sobre organização de bibliotecas traz essas tecnologias.
Os maiores desenvolvedores mundiais desse tipo de tecnologia são Suécia, Cingapura, Dinamarca, Suíça e Estados Unidos, segundo o Relatório Global de Tecnologia da Informação 2009-2010 do Fórum Econômico Mundial. O Brasil é o 61º nesse ranking

 Impactos dos Sistemas de Informação (SI) / Tecnologias de Informação (TI) nas organizações:

A introdução de SI/TI numa organização irá provocar um conjunto de alterações, nomeadamente em nível das relações da organização com o meio envolvente (analisadas em termos de eficácia) e em nível de impactos internos na organização (analisados através da eficiência).
As TI são um recurso valioso e provocam repercussões em todos os níveis da estrutura organizacional:

1.no nível estratégico, quando uma ação é suscetível de aumentar a coerência entre a organização e o meio envolvente, que por sua vez se traduz num aumento de eficácia em termos de cumprimento da missão organizacional;
2.nos níveis operacional e administrativo, quando existem efeitos endógenos, traduzidos em aumento da eficiência organizacional em termos de opções estratégicas. No entanto, ao ser feita essa distinção, não significa que ela seja estanque, independente, pois existem impactos simultâneos nos vários níveis: estratégico, operacional e tático.
Assim, temos que os SI permitem às organizações a oferta de produtos a preços mais baixos, que, aliados a um bom serviço e à boa relação com os clientes, resultam numa vantagem competitiva adicional, através de elementos de valor acrescentado cujo efeito será a fidelidade dos clientes.
A utilização de SI pode provocar, também, alterações nas condições competitivas de determinado mercado, em termos de alteração do equilíbrio dentro do setor de atividade, dissuasão e criação de barreiras à entrada de novos concorrentes. Os SI/TI permitem, ainda, desenvolver novos produtos/serviços aos clientes ou diferenciar os já existentes dos da concorrência e que atraem o cliente de forma preferencial em relação à concorrência.
A utilização de alta tecnologia vai permitir uma relação mais estreita e permanente entre empresa e fornecedores, na medida em que qualquer pedido/sugestão da parte da empresa é passível de ser atendido/testado pelos fornecedores. A tecnologia permitiu uma modificação na maneira de pensar e de agir dos produtores e consumidores.
As Tecnologias de Informação têm reconhecidamente impactos no nível interno das organizações: na estrutura orgânica e no papel de enquadramento/coordenação na organização; em nível psicossociológico e das relações pessoais; no subsistema de objetivos e valores das pessoas que trabalham nas organizações; bem como no subsistema tecnológico.
Os maiores benefícios aparecem quando as estratégias organizacionais, as estruturas e os processos são alterados conjuntamente com os investimentos em TI. As TI’s permitem, assim, ultrapassar todo um conjunto de barreiras na medida em que existe uma nova maneira de pensar, pois em tempo real é possível às empresas agir e reagir rapidamente aos clientes, mercados e concorrência.

 Tecnologia da Informação e seu impacto na segurança empresarial:
A Tecnologia da Informação segue em avanço constante, mas ao mesmo tempo sua gestão no quesito segurança não acompanha o mesmo ritmo das políticas de segurança e não está ainda em um patamar que pode ser considerado eficiente. Com tantos recursos disponíveis e possibilidades quase ilimitadas, os gestores esquecem que agora sua empresa possui mais uma porta para o mundo, porta esta que, se aberta, pode dar a um individuo valiosas informações sobre sua organização.
Temos então um caso em que a tecnologia da informação se torna um risco devido a problemas de gerenciamento, é importante ressaltar os problemas que a tecnologia traz para as empresas além de seus benefícios, pois segurança também gera custos e, quando lidamos com alta tecnologia, os investimentos nunca são pequenos nessa área.

quinta-feira, 12 de agosto de 2010

Tecnologia em Alta: Relógio


 História

 Os mais antigos eram os relógios de sol, provavelmente os gnômons. A história registra que apareceu na Judeia, mais ou menos em 600 a.C., com os relógios de água (clepsidras) e os relógios de areia (ampulhetas). O arcebispo de Verona chamado Pacífico, em 850 de nossa era, construiu o primeiro relógio mecânico baseado em engrenagens e pesos. Em 797 (ou 801), o califa de Bagdá, Harun al-Rashid, presenteou Carlos Magno com um elefante asiático chamado Abul-Abbas, junto com um relógio mecânico de onde saía um pássaro que anunciava as horas. Isso indica que os primeiros relógios mecânicos provavelmente foram inventados pelos asiáticos. Contudo, embora exista controvérsia sobre a construção do primeiro relógio mecânico, o papa Silvestre II é considerado seu inventor.
Outros grandes construtores e aperfeiçoadores de relógios foram Ricardo de Walinfard (1344), Santiago de Dondis (1344), seu filho João de Dondis que ficou conhecido como "Horologius", e Henrique de Vick (1370).
Por volta de 1500, Pedro Henlein, na cidade de Nuremberg, fabrica o primeiro relógio de bolso.
Até que, em 1595, Galileu Galilei descobre a Lei do Pêndulo. Com os relógios mecânicos surge uma grande variedade de técnicas de registro da passagem do tempo. Os relógios deste tipo podem ser de pêndulo, de quartzo ou cronômetros.
Os mais precisos são os atômicos.
Os primeiros relógios utilizados foram os relógios de bolso. Eram muito raros e tidos como verdadeiras jóias, pois poucos tinham um. Os relógios de bolso eram símbolo da alta aristocracia.
Comenta-se que foi Santos Dumont quem inventou os relógios de pulso. A amizade de Santos Dumont com Louis Cartier vinha do fim do século XIX. Uma noite, Alberto lhe disse que não tinha como ler a hora em pleno vôo em seu relógio de bolso; com o auxílio do mestre relojoeiro Edmond Jaeger, Cartier apresentou uma solução para Santos Dumont, um protótipo do relógio de pulso, em 1904, o qual permitia ver as horas mantendo as mãos nos comandos.

terça-feira, 10 de agosto de 2010

Tecnologia em Alta: Câmera Digital


Ao invés de utilizar a película fotossensível (filme) para o registro das imagens, que requer, posteriormente à aquisição das imagens, um processo de revelação e ampliação das cópias, a câmera digital registra as imagens através de um sensor que entre outros tipos podem ser do tipo CMOS ou do tipo CCD, armazenando as imagens em cartões de memória. Uma câmera pode suportar um só ou vários tipos de memória, sendo os mais comuns: CompactFlash tipos I e II, SmartMedia, MMC e Memory Stick e SD.Estas imagens podem ser visualizadas imediatamente no monitor da própria câmera, podendo ser apagadas caso o resultado não tenha sido satisfatório. Posteriormente são transferidas para um e-mail, álbum virtual, revelação digital impressa, apresentadas em telas de TV ou armazenada em CD, disquete, pen-drive, etc.
Uma das características mais exploradas pelos fabricantes de câmeras digitais é a resolução do sensor da câmera, medida em megapixels.
Em teoria, quanto maior a quantidade de megapixels, melhor a qualidade da foto gerada, pois o seu tamanho será maior e permitirá mais zoom e ampliações sem perda de qualidade. Entretanto, a qualidade da foto digital não depende somente da resolução em megapixels, mas de todo o conjunto que forma a câmera digital. Os fatores que mais influenciam a qualidade das fotos/vídeos são a qualidade das lentes da objetiva, o algoritmo (software interno da câmera que processa os dados capturados) e os recursos que o fotógrafo pode usar para um melhor resultado, ou até mesmo eventuais efeitos especiais na foto. No entanto, dependendo do uso que será dado à fotografia, um número excessivo de megapixels não trará benefício adicional à qualidade da imagem e onerará o custo do equipamento.
Normalmente as câmeras voltadas ao uso profissional são dotadas de maior quantidade de megapixels, o que lhes permite fazer grandes ampliações. Já para o usuário amador, máquinas com resolução entre três e cinco megapixels geram excelentes resultados.

 Em profundidade

As câmeras convencionais dependem inteiramente de processos químicos e mecânicos, nem mesmo há necessidade de energia eléctrica para operar. Algumas utilizam energia para o flash e para o obturador.
Câmera Sony F-828, com Flash Sony HVL-F32X
Exemplo de Imagem Digital, tirada com uma Samsung Pro 815.Câmeras digitais, no entanto, têm um micro-computador para gravar as imagens electronicamente.
Tal como nas câmeras convencionais, a câmera digital contém uma série de lentes, que conduzem a luz para o sensor. Mas em vez de expor um filme fotográfico, utiliza um aparelho semicondutor, que registra a luz eletricamente através de uma gradação em volts, medindo a descarga elétrica gerada pela luz. O micro-computador então transforma essa informação elétrica e analógica em dados digitais, no caso de utilização de sensores CCD, tratando-se de uma CMOS, como veremos a seguir, a captação da imagem já é feita eletronicamente, de forma digital, poupando assim o tamanho e o preço deste tipo de sensor e facilitando sua transformação em imagem.
Existem dois tipos de sensores de imagem que convertem a luz em cargas eléctricas, são eles:

CCD - charge coupled device
CMOS - complementary metal oxide semiconductor
Assim que o sensor converte a luz em electrons, ele lê o valor (a carga acumulada) em cada célula da imagem. E aqui é que vêm as diferenças entre os dois sensores:
O CCD – transporta a carga pelo chip e lê o valor na esquina da linha. Um conversor analógico-para-digital então troca o valor do pixel para o valor digital, pela medição da quantidade de carga em cada célula.
O CMOS usam vários transistores para cada pixel para amplificar e mover a carga usando os tradicionais fios. O sinal já é digital por isso não necessita do conversor analógico-digital.

 Resolução

A resolução de uma imagem digital é a sua definição. Como a imagem na tela é formada pela justaposição de pequenos pontos quadriculados, chamados "pixels", a resolução é medida pela quantidade de pixels que há na área da imagem. Logo, sua unidade de medida é o "ppi", que significa "pixels per inch" ou pixels por polegada. A nomenclatura "dpi" - "dots per inches" é utilizada pela indústria gráfica e se relaciona com a quantidade de pontos necessários ´para uma impressão de qualidade, por isso, em termos fotográficos digitais deve-se utilizar a nomenclatura "ppi", que traduz a quantidade de pixels por linha do sensor ou da 
ampliação da fotografia.
Dessa forma, em uma imagem de tamanho definido, quando maior sua resolução, mais pixels haverá por polegada em ambas as dimensões - altura e largura -, levando a conclusão que imagens de "alta resolução" possuem "pixels" pequeninos, até mesmo invisíveis a olho nu, e, imagens de "baixa resolução" possuem "pixels" grandes que acabam por dar o efeito "pixelation", que deixa imagem quadriculada pelo o tamanho exagerado de seus pontos. Isso é comum acontecer quando tentamos ampliar uma imagem de "baixa resolução". Porém, esse conceito vem sendo discutido atualmente, já que sabemos que a quantidade exagerada de pixels por linha do sensor nem sempre corresponde a qualidade efetiva de captação.
Já se admite que o sensor deve conter muitos pixeis para ampliações maiores e melhor qualidade e nitidez, porém, se esses pontos/pixels registradores de luminosidade forem demasiadamente pequenos, sua qualidade pode ficar alterada e sua resolução subexplorada.

Para otimizar o uso da resolução de imagens temos que atentar ao meio, ou mídia em que ela será veiculada. Algumas dicas:
Nas câmeras digitais a resolução é dada por "megapixels", que nada mais são que "milhões de pixels", dados pela multiplicação da resolução da altura pela da largura da imagem. Por exemplo:
-Imagem com 120 px X 160px = 0.019MPX chamada também de padrão QSIF.
-Imagem com 480px x 640px = 0.307MPX chamada também de padrão VGA.
-Imagem com 4.200px x 2690px = 11.298MPX chamada também de padrão WUQSXGA.
 
Captando a cor

A maior parte dos sensores utilizam o filtering para captar a luz nas suas três cores primárias. Assim que a câmara gravar as três cores, combina-as para criar o espectro todo.

Isto é feito de várias maneiras.

Três sensores separados, presentes em câmeras de alta qualidade, em que cada um regista uma determinada cor. Existe um divisor de luz, que divide a luz pelas três cores que vão incidir em três sensores diferentes, cada sensor capta uma determinada cor. Nestas câmaras os três sensores vêm exactamente a mesma imagem só que em gamas de luz diferentes. Combinando as imagens dos três sensores, forma-se uma só a cores.
Um sensor, que vai captando a luz que vai atravessar um filtro vermelho, verde e azul (que está em rotação), ou seja o sensor grava a informação recebida para cada momento em que passa por um filtro diferente. A imagem não é rigorosamente a mesma para cada cor, mesmo que este processo seja feito em milésimos de segundo.
Ainda temos o sistema mais econômico, que é ter uma matriz em que cada uma das células é uma cor primária, o que se faz é interpolação, ou um palpite educado, baseado na informação da célula vizinha, contudo essa interpolação, tão combatida pelos profissionais pode ser minimizada com o aumento de pixels, ou sensores de luminosidade, diminuindo a margem de erro.
O sistema mas comum é o Bayer filter pattern, que é uma matriz onde alterna em cada linha de acordo com dois tipos de linha: uma é a sucessão vermelho e verde, e a outra linha é a sucessão azul e verde. Portanto no total temos a mesma quantidade de células verdes do que a soma das células azuis e vermelhas.
A razão disto é que o olho humano é mais sensível à luz verde.
Ora temos apenas um sensor e a informação de cada cor é gravada ao mesmo tempo. Então temos um mosaico de vermelho, verde e azul, onde cada pixel tem diferente intensidade. As câmeras têm então um algoritmo de "des-mosaico": a cor verdadeira de cada pixel será determinado pelo valor médio dos pixeis adjuntos. Existe também um outro sistema, o Foveon X3 sensor, que permite captar quatro cores, ciano, magenta, amarelo e preto ou CYMK, m inglês, e não três como os convencionais.
 
Exposição e focagem

Samsung S750.Para controlar a quantidade de luz que chega ao sensor(s), existem 2 componentes:
a abertura, que é o tamanho de abertura do diafragma;
a velocidade do obturador, que é o tempo de exposição de luz nos sensores.

 Lente e foco

As lentes das câmeras digitais são muito similares às das convencionais.
No entanto é de referir que a distância focal é a distância entre as lentes e o sensor. Isto é que vai determinar o zoom da máquina. Aumentando a distância estaremos a fazer um zoom in Existem as seguinte opções:
Objectivas de foco fixo e de zoom fixo
Objectivas de zoom óptico com focagem automática
Objectivas de zoom digital
Sistemas de objectivas intermutáveis

Armazenamento e compressão
 
A maioria das câmeras digitais conecta-se a um computador ou impressora por meio de um cabo USB. O conector mais comum para a câmara é o Mini B de cinco pinos (em preto, à direita).A maioria das câmeras digitais têm uma tela LCD, permitindo a visualização imediata das fotos. Esta pode considerar-se como uma grande vantagem em comparação com o método convencional.
As câmeras permitem um sistema de armazenamento de dados. Para a transferência dos dados por fios, existem várias conexões: