terça-feira, 24 de agosto de 2010

Tecnologia em Alta: Tecnologia da Informação

 A Tecnologia da Informação (TI) pode ser definida como um conjunto de todas as atividades e soluções providas por recursos de computação. Na verdade, as aplicações para TI são tantas - estão ligadas às mais diversas áreas - que existem várias definições e nenhuma consegue determiná-la por completo.

 O termo

A TI é uma grande força em áreas como finanças, planejamento de transportes, design, produção de bens, assim como na imprensa, nas atividades editoriais, no rádio e na televisão. O desenvolvimento cada vez mais rápido de novas tecnologias de informação modificou as bibliotecas e os centros de documentação (principais locais de armazenamento de informação), introduzindo novas formas de organização e acesso aos dados e obras armazenadas; reduziu custos e acelerou a produção dos jornais e possibilitou a formação instantânea de redes televisivas de âmbito mundial.
Além disso, tal desenvolvimento facilitou e intensificou a comunicação pessoal e institucional, através de programas de processamento de texto, de formação de bancos de dados, de editoração eletrônica, bem como de tecnologias que permitem a transmissão de documentos, envio de mensagens e arquivos, assim como consultas a computadores remotos (via rede mundiais de computadores, como a internet). A difusão das novas tecnologias de informação trouxe também impasse e problemas, relativos principalmente à privacidade dos indivíduos e ao seu direito à informação, pois os cidadãos geralmente não têm acesso a grande quantidade de informação sobre eles, coletadas por instituições particulares ou públicas.
As tecnologias da informação não incluem somente componentes de máquina. Existem tecnologias intelectuais usadas para lidar com o ciclo da informação, como técnicas de classificação, por exemplo, que não requerem uso de máquinas apenas em um esquema. Esse esquema pode, também, ser incluído em um software que será usado, mas isso não elimina o fato de que a técnica já existia independentemente do software. As tecnologias de classificação e organização de informações existem desde que as bibliotecas começaram a ser formadas. Qualquer livro sobre organização de bibliotecas traz essas tecnologias.
Os maiores desenvolvedores mundiais desse tipo de tecnologia são Suécia, Cingapura, Dinamarca, Suíça e Estados Unidos, segundo o Relatório Global de Tecnologia da Informação 2009-2010 do Fórum Econômico Mundial. O Brasil é o 61º nesse ranking

 Impactos dos Sistemas de Informação (SI) / Tecnologias de Informação (TI) nas organizações:

A introdução de SI/TI numa organização irá provocar um conjunto de alterações, nomeadamente em nível das relações da organização com o meio envolvente (analisadas em termos de eficácia) e em nível de impactos internos na organização (analisados através da eficiência).
As TI são um recurso valioso e provocam repercussões em todos os níveis da estrutura organizacional:

1.no nível estratégico, quando uma ação é suscetível de aumentar a coerência entre a organização e o meio envolvente, que por sua vez se traduz num aumento de eficácia em termos de cumprimento da missão organizacional;
2.nos níveis operacional e administrativo, quando existem efeitos endógenos, traduzidos em aumento da eficiência organizacional em termos de opções estratégicas. No entanto, ao ser feita essa distinção, não significa que ela seja estanque, independente, pois existem impactos simultâneos nos vários níveis: estratégico, operacional e tático.
Assim, temos que os SI permitem às organizações a oferta de produtos a preços mais baixos, que, aliados a um bom serviço e à boa relação com os clientes, resultam numa vantagem competitiva adicional, através de elementos de valor acrescentado cujo efeito será a fidelidade dos clientes.
A utilização de SI pode provocar, também, alterações nas condições competitivas de determinado mercado, em termos de alteração do equilíbrio dentro do setor de atividade, dissuasão e criação de barreiras à entrada de novos concorrentes. Os SI/TI permitem, ainda, desenvolver novos produtos/serviços aos clientes ou diferenciar os já existentes dos da concorrência e que atraem o cliente de forma preferencial em relação à concorrência.
A utilização de alta tecnologia vai permitir uma relação mais estreita e permanente entre empresa e fornecedores, na medida em que qualquer pedido/sugestão da parte da empresa é passível de ser atendido/testado pelos fornecedores. A tecnologia permitiu uma modificação na maneira de pensar e de agir dos produtores e consumidores.
As Tecnologias de Informação têm reconhecidamente impactos no nível interno das organizações: na estrutura orgânica e no papel de enquadramento/coordenação na organização; em nível psicossociológico e das relações pessoais; no subsistema de objetivos e valores das pessoas que trabalham nas organizações; bem como no subsistema tecnológico.
Os maiores benefícios aparecem quando as estratégias organizacionais, as estruturas e os processos são alterados conjuntamente com os investimentos em TI. As TI’s permitem, assim, ultrapassar todo um conjunto de barreiras na medida em que existe uma nova maneira de pensar, pois em tempo real é possível às empresas agir e reagir rapidamente aos clientes, mercados e concorrência.

 Tecnologia da Informação e seu impacto na segurança empresarial:
A Tecnologia da Informação segue em avanço constante, mas ao mesmo tempo sua gestão no quesito segurança não acompanha o mesmo ritmo das políticas de segurança e não está ainda em um patamar que pode ser considerado eficiente. Com tantos recursos disponíveis e possibilidades quase ilimitadas, os gestores esquecem que agora sua empresa possui mais uma porta para o mundo, porta esta que, se aberta, pode dar a um individuo valiosas informações sobre sua organização.
Temos então um caso em que a tecnologia da informação se torna um risco devido a problemas de gerenciamento, é importante ressaltar os problemas que a tecnologia traz para as empresas além de seus benefícios, pois segurança também gera custos e, quando lidamos com alta tecnologia, os investimentos nunca são pequenos nessa área.

quinta-feira, 12 de agosto de 2010

Tecnologia em Alta: Relógio


 História

 Os mais antigos eram os relógios de sol, provavelmente os gnômons. A história registra que apareceu na Judeia, mais ou menos em 600 a.C., com os relógios de água (clepsidras) e os relógios de areia (ampulhetas). O arcebispo de Verona chamado Pacífico, em 850 de nossa era, construiu o primeiro relógio mecânico baseado em engrenagens e pesos. Em 797 (ou 801), o califa de Bagdá, Harun al-Rashid, presenteou Carlos Magno com um elefante asiático chamado Abul-Abbas, junto com um relógio mecânico de onde saía um pássaro que anunciava as horas. Isso indica que os primeiros relógios mecânicos provavelmente foram inventados pelos asiáticos. Contudo, embora exista controvérsia sobre a construção do primeiro relógio mecânico, o papa Silvestre II é considerado seu inventor.
Outros grandes construtores e aperfeiçoadores de relógios foram Ricardo de Walinfard (1344), Santiago de Dondis (1344), seu filho João de Dondis que ficou conhecido como "Horologius", e Henrique de Vick (1370).
Por volta de 1500, Pedro Henlein, na cidade de Nuremberg, fabrica o primeiro relógio de bolso.
Até que, em 1595, Galileu Galilei descobre a Lei do Pêndulo. Com os relógios mecânicos surge uma grande variedade de técnicas de registro da passagem do tempo. Os relógios deste tipo podem ser de pêndulo, de quartzo ou cronômetros.
Os mais precisos são os atômicos.
Os primeiros relógios utilizados foram os relógios de bolso. Eram muito raros e tidos como verdadeiras jóias, pois poucos tinham um. Os relógios de bolso eram símbolo da alta aristocracia.
Comenta-se que foi Santos Dumont quem inventou os relógios de pulso. A amizade de Santos Dumont com Louis Cartier vinha do fim do século XIX. Uma noite, Alberto lhe disse que não tinha como ler a hora em pleno vôo em seu relógio de bolso; com o auxílio do mestre relojoeiro Edmond Jaeger, Cartier apresentou uma solução para Santos Dumont, um protótipo do relógio de pulso, em 1904, o qual permitia ver as horas mantendo as mãos nos comandos.

terça-feira, 10 de agosto de 2010

Tecnologia em Alta: Câmera Digital


Ao invés de utilizar a película fotossensível (filme) para o registro das imagens, que requer, posteriormente à aquisição das imagens, um processo de revelação e ampliação das cópias, a câmera digital registra as imagens através de um sensor que entre outros tipos podem ser do tipo CMOS ou do tipo CCD, armazenando as imagens em cartões de memória. Uma câmera pode suportar um só ou vários tipos de memória, sendo os mais comuns: CompactFlash tipos I e II, SmartMedia, MMC e Memory Stick e SD.Estas imagens podem ser visualizadas imediatamente no monitor da própria câmera, podendo ser apagadas caso o resultado não tenha sido satisfatório. Posteriormente são transferidas para um e-mail, álbum virtual, revelação digital impressa, apresentadas em telas de TV ou armazenada em CD, disquete, pen-drive, etc.
Uma das características mais exploradas pelos fabricantes de câmeras digitais é a resolução do sensor da câmera, medida em megapixels.
Em teoria, quanto maior a quantidade de megapixels, melhor a qualidade da foto gerada, pois o seu tamanho será maior e permitirá mais zoom e ampliações sem perda de qualidade. Entretanto, a qualidade da foto digital não depende somente da resolução em megapixels, mas de todo o conjunto que forma a câmera digital. Os fatores que mais influenciam a qualidade das fotos/vídeos são a qualidade das lentes da objetiva, o algoritmo (software interno da câmera que processa os dados capturados) e os recursos que o fotógrafo pode usar para um melhor resultado, ou até mesmo eventuais efeitos especiais na foto. No entanto, dependendo do uso que será dado à fotografia, um número excessivo de megapixels não trará benefício adicional à qualidade da imagem e onerará o custo do equipamento.
Normalmente as câmeras voltadas ao uso profissional são dotadas de maior quantidade de megapixels, o que lhes permite fazer grandes ampliações. Já para o usuário amador, máquinas com resolução entre três e cinco megapixels geram excelentes resultados.

 Em profundidade

As câmeras convencionais dependem inteiramente de processos químicos e mecânicos, nem mesmo há necessidade de energia eléctrica para operar. Algumas utilizam energia para o flash e para o obturador.
Câmera Sony F-828, com Flash Sony HVL-F32X
Exemplo de Imagem Digital, tirada com uma Samsung Pro 815.Câmeras digitais, no entanto, têm um micro-computador para gravar as imagens electronicamente.
Tal como nas câmeras convencionais, a câmera digital contém uma série de lentes, que conduzem a luz para o sensor. Mas em vez de expor um filme fotográfico, utiliza um aparelho semicondutor, que registra a luz eletricamente através de uma gradação em volts, medindo a descarga elétrica gerada pela luz. O micro-computador então transforma essa informação elétrica e analógica em dados digitais, no caso de utilização de sensores CCD, tratando-se de uma CMOS, como veremos a seguir, a captação da imagem já é feita eletronicamente, de forma digital, poupando assim o tamanho e o preço deste tipo de sensor e facilitando sua transformação em imagem.
Existem dois tipos de sensores de imagem que convertem a luz em cargas eléctricas, são eles:

CCD - charge coupled device
CMOS - complementary metal oxide semiconductor
Assim que o sensor converte a luz em electrons, ele lê o valor (a carga acumulada) em cada célula da imagem. E aqui é que vêm as diferenças entre os dois sensores:
O CCD – transporta a carga pelo chip e lê o valor na esquina da linha. Um conversor analógico-para-digital então troca o valor do pixel para o valor digital, pela medição da quantidade de carga em cada célula.
O CMOS usam vários transistores para cada pixel para amplificar e mover a carga usando os tradicionais fios. O sinal já é digital por isso não necessita do conversor analógico-digital.

 Resolução

A resolução de uma imagem digital é a sua definição. Como a imagem na tela é formada pela justaposição de pequenos pontos quadriculados, chamados "pixels", a resolução é medida pela quantidade de pixels que há na área da imagem. Logo, sua unidade de medida é o "ppi", que significa "pixels per inch" ou pixels por polegada. A nomenclatura "dpi" - "dots per inches" é utilizada pela indústria gráfica e se relaciona com a quantidade de pontos necessários ´para uma impressão de qualidade, por isso, em termos fotográficos digitais deve-se utilizar a nomenclatura "ppi", que traduz a quantidade de pixels por linha do sensor ou da 
ampliação da fotografia.
Dessa forma, em uma imagem de tamanho definido, quando maior sua resolução, mais pixels haverá por polegada em ambas as dimensões - altura e largura -, levando a conclusão que imagens de "alta resolução" possuem "pixels" pequeninos, até mesmo invisíveis a olho nu, e, imagens de "baixa resolução" possuem "pixels" grandes que acabam por dar o efeito "pixelation", que deixa imagem quadriculada pelo o tamanho exagerado de seus pontos. Isso é comum acontecer quando tentamos ampliar uma imagem de "baixa resolução". Porém, esse conceito vem sendo discutido atualmente, já que sabemos que a quantidade exagerada de pixels por linha do sensor nem sempre corresponde a qualidade efetiva de captação.
Já se admite que o sensor deve conter muitos pixeis para ampliações maiores e melhor qualidade e nitidez, porém, se esses pontos/pixels registradores de luminosidade forem demasiadamente pequenos, sua qualidade pode ficar alterada e sua resolução subexplorada.

Para otimizar o uso da resolução de imagens temos que atentar ao meio, ou mídia em que ela será veiculada. Algumas dicas:
Nas câmeras digitais a resolução é dada por "megapixels", que nada mais são que "milhões de pixels", dados pela multiplicação da resolução da altura pela da largura da imagem. Por exemplo:
-Imagem com 120 px X 160px = 0.019MPX chamada também de padrão QSIF.
-Imagem com 480px x 640px = 0.307MPX chamada também de padrão VGA.
-Imagem com 4.200px x 2690px = 11.298MPX chamada também de padrão WUQSXGA.
 
Captando a cor

A maior parte dos sensores utilizam o filtering para captar a luz nas suas três cores primárias. Assim que a câmara gravar as três cores, combina-as para criar o espectro todo.

Isto é feito de várias maneiras.

Três sensores separados, presentes em câmeras de alta qualidade, em que cada um regista uma determinada cor. Existe um divisor de luz, que divide a luz pelas três cores que vão incidir em três sensores diferentes, cada sensor capta uma determinada cor. Nestas câmaras os três sensores vêm exactamente a mesma imagem só que em gamas de luz diferentes. Combinando as imagens dos três sensores, forma-se uma só a cores.
Um sensor, que vai captando a luz que vai atravessar um filtro vermelho, verde e azul (que está em rotação), ou seja o sensor grava a informação recebida para cada momento em que passa por um filtro diferente. A imagem não é rigorosamente a mesma para cada cor, mesmo que este processo seja feito em milésimos de segundo.
Ainda temos o sistema mais econômico, que é ter uma matriz em que cada uma das células é uma cor primária, o que se faz é interpolação, ou um palpite educado, baseado na informação da célula vizinha, contudo essa interpolação, tão combatida pelos profissionais pode ser minimizada com o aumento de pixels, ou sensores de luminosidade, diminuindo a margem de erro.
O sistema mas comum é o Bayer filter pattern, que é uma matriz onde alterna em cada linha de acordo com dois tipos de linha: uma é a sucessão vermelho e verde, e a outra linha é a sucessão azul e verde. Portanto no total temos a mesma quantidade de células verdes do que a soma das células azuis e vermelhas.
A razão disto é que o olho humano é mais sensível à luz verde.
Ora temos apenas um sensor e a informação de cada cor é gravada ao mesmo tempo. Então temos um mosaico de vermelho, verde e azul, onde cada pixel tem diferente intensidade. As câmeras têm então um algoritmo de "des-mosaico": a cor verdadeira de cada pixel será determinado pelo valor médio dos pixeis adjuntos. Existe também um outro sistema, o Foveon X3 sensor, que permite captar quatro cores, ciano, magenta, amarelo e preto ou CYMK, m inglês, e não três como os convencionais.
 
Exposição e focagem

Samsung S750.Para controlar a quantidade de luz que chega ao sensor(s), existem 2 componentes:
a abertura, que é o tamanho de abertura do diafragma;
a velocidade do obturador, que é o tempo de exposição de luz nos sensores.

 Lente e foco

As lentes das câmeras digitais são muito similares às das convencionais.
No entanto é de referir que a distância focal é a distância entre as lentes e o sensor. Isto é que vai determinar o zoom da máquina. Aumentando a distância estaremos a fazer um zoom in Existem as seguinte opções:
Objectivas de foco fixo e de zoom fixo
Objectivas de zoom óptico com focagem automática
Objectivas de zoom digital
Sistemas de objectivas intermutáveis

Armazenamento e compressão
 
A maioria das câmeras digitais conecta-se a um computador ou impressora por meio de um cabo USB. O conector mais comum para a câmara é o Mini B de cinco pinos (em preto, à direita).A maioria das câmeras digitais têm uma tela LCD, permitindo a visualização imediata das fotos. Esta pode considerar-se como uma grande vantagem em comparação com o método convencional.
As câmeras permitem um sistema de armazenamento de dados. Para a transferência dos dados por fios, existem várias conexões: