Tipos de arquivo

TIPOS DE AQUIVOS DE IMAGEM

  • GIF (Graphics Interchange Format):

Desenvolvido inicialmente para a Compuserve, este tipo de arquivo pode ser utilizado, de preferência para gráficos, sendo que em alguns casos especiais também pode ser usado para imagens fotográficas. Alguns usos das imagens .GIF seriam para logotipos, ilustrações, cartoons e texto salvo como imagem. Este formato de arquivo pode possuir somente um número limitado de cores sólidas (256 cores) e por este motivo é pouco utilizado para compactação de fotos com muitos degradês e cores. GIF suporta transparência, animação e entrelaçamento. Não é recomendado para impressão comercial.

Nome: Graphics Interchange Format

Extensão: .gif

Desenvolvedor: Compuserve

Formatos: GIF 87a e GIF 89ª(mais novo)

Aplicações recomendadas: Arte linear; desenhos, logotipos, imagens com áreas transparentes e animações.

Propósito do desenvolvimento: Trata-se de um formato de compactação LZW desenvolvido para minimizar o tamanho do arquivo e o tempo de transferência eletrônica.

Compressão: LZW (Lempel-Ziv-Welch)

Cores: 256

Bits: 8 bits

Entrelaçamento: Sim

Animação: Sim

Transparência: Sim

Descrição: É o formato de arquivo utilizado geralmente para exibir elementos gráficos e imagens de cores indexadas, além de imagens de documentos HTML da World Wide Web e de outros serviços on-line.

  • JPG (Joint Photographic Experts Group) :

Este formato de arquivo não necessita de definição de paleta, e é especialmente utilizado para conteúdo fotográfico, por comportar até 16 milhões de cores. O .JPG utiliza um algoritmo de compactação com perdas, pois remove informações da imagem, causando a perda de qualidade, mas a remoção é feita de forma sutil para que não seja visível ou desagradável. Este tipo de arquivo é descompactado ao ser visualizado no navegador. O .JPG trabalha com níveis de compactação baixa, média, alta e máxima.

Mesmo escolhendo para salvar a imagem na maior resolução e qualidade possíveis, há perda de qualidade na imagem, mesmo que imperceptível. Isso ocorre porque o padrão JPEG, para diminuir o tamanho do arquivo, utiliza um sistema de compressão onde há perda de dados.

Além disso, quanto a câmera salva a sua foto no formato JPEG, ela edita a foto para corrigir cores, brilho, contraste, etc.

Nome: Joint Photographic Experts Group

Extensão: .jpg; .jpe; .jpeg; .jfif

Desenvolvedor: Joint Photographic Experts Group

Aplicações recomendadas: Fotos e transferências de imagens para a web.

Propósito do desenvolvimento: Compressão de arquivos com fotos ou desenhos com muitos detalhes para documentos HTML e outros serviços online.

Compressão: JPEG-esquema de compressão de lossy

Cores: 16,8 milhões

Modos de cores: CMYK, RGB e Tons de Cinza.

Bits: 24 bits

Descrição: Uma imagem JPEG é descompactada automaticamente ao ser aberta. Um nível de compactação mais alto gera uma qualidade de imagem mais baixa, enquanto um nível de compactação mais baixo gera uma qualidade maior de imagem.

  • PNG ( Portable Network Graphics):

Este formato utiliza um método de compactação sem perda de qualidade da imagem. O PNG  pode ser armazenado com diversas profundidades de bits, tanto 8 quanto 24 ou 32 bits, o que significa que pode-se escolher diversas cores para a transparência.

Possui informações sobre as características da plataforma na qual foi criado, de forma que a visualização do software pode ser automaticamente compensada, não comprometendo a qualidade da imagem.

Esse formato usa uma compactação ajustável, sem perdas, para exibir fotografias de 24 bits ou imagens de cores sólidas na World Wide Web e em outras mídias on-line. Foi desenvolvido como uma alternativa sem patente para o formato de arquivo GIF. O PNG suporta transparência em um canal alfa ou em uma cor designada. O melhor uso para o PNG é em documentos on-line, embora seu suporte a cores o torne mais indicado para documentos impressos do que o GIF.

Nome: Portable Network Graphic

Extensão: .png

Formatos: PNG e PNG Fireworks

PNG Fireworks: Contêm informações específicas do aplicativo que não são armazenadas  em

um arquivo PNG exportado ou em arquivos criados em outros aplicativos.

Aplicações recomendadas: Desenhos, Graficos de imagens solidas

Propósito do desenvolvimento: Desenvolvido para substituir o envelhecido formato GIF

Compressão: Distribuição progressiva

Cores: 16,8 milhões

Modos de cores: RGB e de cores indexadas, tons de cinza.

Bits: 24 bits até 32 bits

Transparência: Sim-254 níveis

Descrição: Desenvolvido como uma alternativa sem patente para o formato GIF, o formato PNG é utilizado para compactação sem perdas e para a exibição de imagens na World Wide Web.

 

  • EPS (Encapsulated PostScript):

A maioria dos softwares gráficos aceita este tipo de imagem, sendo utilizada para imagens com saída em impressora PostScript, e de alta resolução. Por este motivo, é um tipo de imagem utilizada em larga escala por agências de comunicação, que necessitam de imagens com boa resolução.  Arquivo de imagens exportadas por grande variedade de programas gráficos como Photoshop, QuarkXPress, Freehand e Illustrator.

Nome: Encapsulated PostScript

Extensão: .eps

Desenvolvedor: Adobe

Formato: EPS

Aplicações recomendadas: Arquivos para impressão

Propósito do desenvolvimento: Para impressoras PostScript.

Modos de cores: Lab, CMYK, RGB, Cores Indexadas, Duotônico, Tons de Cinza e Bitmap.

Demarcadores: Suporta demarcadores de corte.

Descrição: Esse formato é utilizado para transferir arte-final em linguagem PostScript entre aplicativos.

  • TIFF ( Tag Image File Format):

Este formato de arquivo também é utilizado para gerar imagens de boa resolução, preservando informações de multiresolução, e também de transparência, e além disto aceita layers ou camadas.

Nome: Tag Image File Format

Extensão: .tif

Desenvolvedor: Aldus Corporation e posteriormente pela Microsoft

Formato: Tiff

Aplicações recomendadas: Imagens de sem perdas e publicações impressas.

Propósito do desenvolvimento: Para salvar imagens criadas por scanners, frame grabbers e programas que editam fotografia.

Compressão: LZW

Modos de cores: CMYK, RGB, Lab, de cores indexadas e tons de cinza com canais alfa, e Bitmap sem canais alfa.

Bits: 8 ou 16 bits até 24 bits

Transparência: Sim

Descrição: Utilizado para a troca de arquivos entre aplicativos e plataformas de computadores.

  • RAW  – [NEF/CR2]

RAW é um banco de dados enorme, contendo toda a informação captada pelos milhões de pixels do sensor da câmera, sem nenhuma alteração.

Ao salvar a foto no formato RAW não há qualquer tipo de compressão ou edição. Com isso você terá uma foto de melhor qualidade. A desvantagem é que o tamanho do arquivo será muito maior. (de 2 a 6 vezes maiores que o correspondente JPEG)

Outro problema é que o Windows e programas de edição de imagens não reconhecem o formato RAW. Por isso você precisará converter as fotos do formato RAW para outro formato. Depois de feita a conversão você poderá editar suas fotos em seu programa de edição preferido. Lembrando que o formato TIF, apesar de usar compressão, esta não tem perda de dados.

Nome: RAW

Extensão: .raw

Desenvolvedor:

Formato: Formato proprietário, divergindo pelo modelo da câmera.

Aplicações recomendadas: Arquivos fotográficos de câmeras digitais.

Propósito do desenvolvimento: Para a manipulação posterior da imagem em um aplicativo gráfico.

Compressão: Nenhuma

Modos de cores: CMYK, RGB, tons de cinza com canais alfa; multicanal e Lab sem canais alfa.

Entrelaçamento: Sim(opcional)

Descrição: Este formato gera imagens exatamente como elas foram captadas pelo sensor da máquina digital. Não há processamento da imagem como brilho e contraste pela câmera.

 

  • BMP  (Bitmap Image File):

É o formato de imagem de bitmap padrão do Windows em computadores compatíveis com esse sistema operacional e com o DOS. No entanto, ele não aceita CMYK e o seu suporte a cores é limitado a 1, 4, 8 ou 24 bits. Não é indicado para documentos impressos comercialmente ou on-line e não é aceito por alguns navegadores da Web. Os gráficos BMP podem produzir uma qualidade aceitável quando impressos em impressoras de baixa resolução ou não-PostScript.

Arquivo de imagem, pode ser aberto em qualquer visualizador ou editor de imagens. Sua desvantagem é o grande tamanho dos arquivos em relação a outros formatos otimizados. Provém do ambiente Windows.

Nome: Bitmap

Extensão: .bmp

Desenvolvedor: Microsoft

Formatos: OS/2 e Windows BMP e de DIB

Compressão: OS/2, não possui compressão.

Windows BMP e de DIB, sem compressão ou para imagens de 4 e 8 bits: run length encoded, compressão de lossless (RLE codificado).

Propósito do desenvolvimento: Exibir imagens de bitmap

Descrição: BMPs são usados primariamente no sistema operacional Windows. Muitos aplicativos podem importar imagens BMP

  • DNG (Digital Negative):

O DNG não é um formato de arquivo de verdade, e sim um encapsulamento. Os formatos de arquivo raw estão ficando extremamente populares nos fluxos de trabalho de fotografia digital, pois oferecem maior controle criativo aos profissionais de fotografia. No entanto, como as câmeras podem usar diferentes formatos raw — e as especificações destes formatos não estão disponíveis publicamente — nem todo arquivo raw pode ser lido por uma variedade de aplicativos de software. Como resultado, o uso desses arquivos raw proprietários como solução de arquivamento de longo prazo implicam riscos, e compartilhar tais arquivos entre fluxos de trabalho complexos é algo ainda mais desafiador.

A solução para esse problema cada vez maior é o (DNG), um formato de arquivamento público para os arquivos brutos gerados pelas câmeras digitais. Ao utilizar um padrão aberto para os arquivos raw criados em modelos individuais de câmera, o DNG ajuda a garantir que os fotógrafos terão acesso aos seus arquivos no futuro.   Em um ano de lançamento, vários fabricantes de software, como Extensis, Canto, Apple e iView, desenvolveram suporte para o DNG. Além disso, respeitados fabricantes de câmeras (por exemplo, Hasselblad, Leica, Casio, Ricoh e Samsung) lançaram câmeras que oferecem compatibilidade direta com o DNG.

Adobe fornece o Adobe DNG Converter gratuito (Windows | Mac) , que converte com facilidade os arquivos brutos de muitas câmeras populares de hoje
Nome: Digital Negative(DNG)

Extensão: .dng????

Desenvolvedor: Adobe

Formatos: DNG????

Aplicações recomendadas: Arquivos fotográficos de câmeras digitais.

Propósito do desenvolvimento: Dirigindo-se à falta de um padrão aberto para os arquivos

criados por modelos individuais da câmera.

Descrição: Criar maior compatibilidade entre as câmeras digitais e os aplicativos gráficos, sendo adotado brevemente, como padrão, pelos os fabricantes de câmeras digitais.

  • PDF (Portable Document Format):

Formato de arquivo desenvolvido pela empresa Adobe cuja função é manter, em meio digital e o mais fiel possível, o formato de apresentação de um documento concebido para impressão.

O PDF é um tipo de arquivo que representa na tela do computador páginas de documentos eletrônicos. É possível converter para PDF vários tipos de arquivos, desde os baseados em texto até documentos com tabelas, gráficos, imagens, etc.

A tecnologia PDF se tornou um padrão para a distribuição de documentos, principalmente por permitir a integridade dos arquivos e uma compactação eficiente.

Vale frisar que os arquivos em PDF podem ser gerados e lidos em qualquer plataforma (Linux, Mac, Windows, etc).

Quando um arquivo é convertido em PDF, todo seu conteúdo é disponibilizado como se fosse uma imagem. Assim, o formato não permite que os textos sejam alterados, figuras sejam tiradas ou até mesmo que o arquivo seja impresso

Um documento PDF tem a mesma aparência, cor, tipo de imprensa, gráficos e formato que um documento impresso.

Os arquivos PDF podem ser vistos utilizando o navegador mesmo ou podem ser armazenados no computador para uso ou impressão posterior.

O programa Lector Acrobat (Acrobat Reader) se pode obter grátis para a maioria dos sistemas operacionais.

Se bem que o programa Acrobat Reader não se pode usar para editar (modificar) um documento PDF, permite copiar texto do documento a outro arquivo, e também efetuar buscas para localizar uma palavra ou texto.

Podem se distribuir por toda a Web, ou mediante e-mails, ou estar em CDs; porém, este tipo de arquivos é muito utilizado na hora de compartilhar informação gráfica ou de texto, como por exemplo, contratos, manuais, e até e-books.

  • PSD (Photoshop Document):

PSD é uma extenção de imagem Exclusiva do Adobe Photoshop, com essa extensão que só pode ser aberta pelo seu programa de origem ou seja um documento editável em formato nativo para Photshop.

A principal diferença entre os arquivos PSD e os salvos em formatos de intercâmbio de imagens (.jpg, .bmp, .tif, etc.) é que nele você pode salvar o arquivo em alta resolução com layers (camadas) totalmente editáveis ou seja você consegue ter acesso as camadas, filtros, ajustes, configurações e etc. da imagem que foi, está ou vai ser trabalhada, Informações como textos/fontes ainda podem ficar editáveis mesmo em outra sessão, enquanto em outros formatos estas informações são transformadas em imagens. Para poder visualizar só iniciando o programa mesmo, a não ser que use um aplicativo que faz essa visualização rápida da imagem, mais apenas a imagem, não terá acesso a camadas, filtros, ajustes, configurações e etc.

Vetor X Bitmap

Vetor X Bitmap

Vetores:

São artes matematicamente escaláveis, ou seja, independentes de resolução. Ele trabalha por coordenadas, ou seja, diferente dos bitmaps os vetores

não são compostos por pixels.

Os principais programas de criação e edição de vetores são: CorelDraw e Ilustrator. Aplicamos imagens em vetor para: animação, arte em 2D, logomarcas etc.

Bitmaps

= Mapa de Bits

  • Termo Bit é proveninente das palavras dígito binário, ou Binary digiT, é a menor unidade de medida de transmissão de dados usadas da computação e informática.
  • Um conjunto de 8 bits reunidos em um única unidade chamaos de BYTE.

Bitmaps são imagens formada por pixels.

Mas o que é um PIXEL ??

Um pixel nada mais é do que um ponto em seu monitor, pequenos com cor e brilho variados.

Todas as imagens que vemos na internet são Bitmaps.

Para redução, pixels são descartados. Uma imagempode ser reduzida repetidas vezes e manter a qualidade até o ponto em que não haverá mais espaço suficiente para os pixels exibirem a imagem corretamente.

As dimensões em pixels medem o número total de pixels ao longo de largura e da altura de uma imagem.

A resolução é a nitidez de detalhes em uma imagem bitmap e é medida em pixels por polegada (ppi). Quanto mais pixels por polegada, maior a resolução. Geralmente, uma imagem com uma resolução maior produz uma imagem impressa de melhor qualidade.A resolução de uma imagem é calculada em DPI (pontos por polegada ou “Dots Per Inch” em inglês) e PPI (pixels por polegada ou “Pixels Per Inch“. Existem diferenças entre estes dois – DPI se refere a documentos impressos e quantia e espaçamento entre pontos cianos, magentas, amarelos e pretos, enquanto PPI se refere a pixels na tela.

Eles não são a mesma coisa, mas designers e profissionais gráficos tendem a usar os termos alternadamente. Muitas vezes, por exemplo, quando se fala de uma imagem de 72 dpi que está na tela, a pessoa está se querendo dizer “72 ppi”.

Qualquer imagem capturada do mundo real, seja por câmera fotográfica, scanner, será um BITMAP. Ou seja, é uma imagem formada por quadrados coloridos, também conhecidos como pixels (Picture elements), arranjados em forma de grade.

 

Imagem Digital

A IMAGEM DIGITAL

a fotografia digital captura a imagem através de um sensor, um chip coberto com filtros e fotossensores (pequenas células que tem a capacidade de gerar energia quando atingidas pela luz).

CCD ou CMOS

– CCD (Charge Coupled Device) inventado nos anos 70 por Boyle e Smith.
–  Foi desenvolvido para ser um chip de memória e não de imagem.

– O CCD é composto por milhares de pontos sensíveis à luz. Cada um destes pontos é uma miniatura de foto-célula utilizada por calculadoras que funcionam com luz solar. Nestas calculadoras, a eletricidade é gerada pelas foto-células, que convertem luz em energia (um efeito descoberto por Albert Einstein e que lhe valeu o prêmio Nobel de 1905).

A foto-célula presente na calculadora não consegue distinguir cores, apenas reage à luminosidade como um todo, maior ou menor. Por isto diz-se que o CCD não ‘enxerga’ cores, e sim preto e branco (apenas variações dessa luminosidade).

– Bryce Bayer, anos 80. Padrão Bayer.

O circuito eletrônico analisa a intensidade de luminosidade lida nos pixels do CCD colocado logo abaixo das microlentes e faz a combinação das janelas para determinar a cor existente no local. (INTERPOLAÇÃO)

CMOS    X  CCD

Características do CMOS:
– Custo de produção mais baixo
– Um sensor CMOS permite que seja produzida uma câmera com menos componentes e com tamanho reduzido. Ex: celulares, web cams..
– Baixa sensibilidade de iluminação: Para operar corretametne, o sensor CMOS requer um ambiente bem iluminado.
– Maior relação de ruído do que CCDs.

Características do CCD:
– Maior custo de produção
– Maior custo e complexidade de incorporação: É mais complexa a construção de uma câmera baseada em sensor CCD, assim como são necessários componentes adicionais
– Baixo nível de ruído de fundo: Um CCD produz muito menos ruído de fundo do que um sensor CMOS.
– Nível de qualidade alto e padronizado
– Melhores cores e imagem mais nítida
– Melhor sensibilidade: Os CCDs podem produzir imagens de boa qualidade mesmo em condições de baixa iluminação

Tipos de SENSOR:

– Fullframe: é o sensor com tamanho similar a um filme 35mm (24x36mm). É como se a imagem fosse captada sem cortes, o que não acontece nos outros sensores. Ele só funciona com sucesso se a exposição a luz for limitada mecanicamente por um obturador. Quando o obturador de fecha todos os dados são transferidos  imediatamente. O que leva alguns segundos.
Os sensores da Nikon têm dois tamanhos diferentes: full frame (FX) e 1.5x (DX). Sensores Canon têm três dimensões: full frame, 1.3x e 1.6x.

– Interline: São sensores com componentes adicionais em que os dados são transferidos a qualquer momento, registrando a quantidade de luz assim que ela cair sobre ele. Isso permite atualizações mais rápidas, porém o sensor fica comprimido em menos que a metade do espaço a ele alocado, limitando a qualidade da imagem.

– Lineares: são os chips utilizados em scanners, capturando pequenas quantidades de dados e movendo-se depressa.  de CCD linear, o que expande as possibilidades. São milhares de pixels em linha, ao contrário dos CCDs de câmaras digitais convencionais, que têm milhões de pixels formando um retângulo. O CCD nesses equipamentos têm de 2 a 4cm de comprimento e podem ser monocromáticos, tendo uma fila única de pixels com filtro verde, ou coloridos, com três filas de pixels (uma vermelha, uma verde e uma azul).

Dimensões e espaços de Cor

DIMENSÕES DA COR

O comprimento de onda da luz é apenas uma das maneiras de conseguirmos diferenciar as cores. Outros fatores são: matiz, saturação e brilho. Essas qualidades são independentes e para descrever uma cor é preciso descrever as três.

[Modelo HSB/ HSL]

MATIZ: É a propriedade mais difícil de se descrever e está associada ao comprimento da onda. É fácil estabelecer um consentimento quanto às diferenciações entre vermelho e verde, por exemplo. Mas um consenso a respeito do verdadeiro tom de vermelho ou verde puro é mais complicado.

Matiz é a cor em sua máxima intensidade; é a própria cor. É também a variação de tonalidade obtido pela mistura de duas cores em sua máxima intensidade, sem mistura de pigmentos pretos ou brancos, formando novas cores. No círculo cromático e na estrela das cores podemos ver todas as matizes entre as cores primárias e secundárias que sejam vizinhas (cores análogas).É na mistura da matiz de uma cor primária com uma secundária que aparecem as cores terciárias, mesmo que as duas cores não sejam vizinhas no círculo cromático.

SATURAÇÃO: Variações no valor do matiz conferem luz, sombra e profundidade. O uso de claro e escuro é para criar idéias de sombra, de tridimensionalidade. As cores mais saturadas podem ser descritas como as mais claras, mais fortes, como por exemplo, os matizes puros. Para cores não saturadas é utilizado o acréscimo de branco ou preto. A saturação representa a intensidade de cinza na proporção da matiz, medida como uma porcentagem de 0% (cinza) a 100% (totalmente saturado).

LUMINOSIDADE/BRILHO: Referente a ele, um pigmento de cada nuance pode ser clareado ou escurecido adicionando branco ou preto a um matiz. A luminosidade ou escurecimento relativo da cor, geralmente medido como a porcentagem de 0% (preto) a 100% (branco).

A diferença entre Brilho e Luminosidade, para a maioria das aplicações, pode ser desconsiderada, pois ambos fazem referência à percepção humana da intensidade. Por definição, luminosidade é o brilho relativo, ou seja, luminosidade é o brilho de um determinado objeto tendo o branco absoluto como referência. O brilho varia de escuro a claro tendo como limites definidos o preto e o branco; enquanto a luminosidade varia de escuro (turvo) a claro. É importante distingui-los, pois se medir o brilho e associar um valor numérico a ela, enquanto a luminosidade é uma sensação subjetiva na mente do ser humano.

ÁRVORE DE MUNSELL

O modelo de cor mais versátil até hoje foi criado por Albert Munsell que adotou o vermelho, azul e verde como cores primárias e partindo de variações de matiz e contraste simultâneo, também desenvolveu a idéia do modelo tridimensional com matizes puros em torno do equador, tintas mais vivas na parte de cima e tonalidades escuras na parte de baixo.

O plano da árvore de Munsell pode ser representado por um círculo, dividido em cinco cores primárias (matizes principais) com mais cinco intermediárias.

Verticalmente a árvore está dividida em 10 graus. 0 (preto-puro / embaixo) 10 (branco puro / no alto). Os ramos estão divididos em graus iguais, começando em zero no centro, para cores neutras (cinzas) e radiando para números tão altos quanto 20.

o eixo circular Hue (tom) define o nome da cor em si, alternando entre amarelo, laranja, vermelho, etc. O eixo radial Chroma (saturação) define a maior ou menor quantidade do pigmento que forma a cor em questão, ou seja, a “pureza da cor”. Quanto mais longe do eixo central, maior a concentração do pigmento, e mais “viva” é a cor. O eixo vertical Value (luminosidade) variando a cor de mais claro para cima e mais escura para baixo.

 

CIE  / XYZ

Os primeiros modelos matemáticos para especificação numérica de cores surgiram em 1931, e, a partir deles, a Comissão Internacional de Iluminação, CIE (Commission International de I’Eclairage) criou o Índice de Reprodução de Cores (IRC). A finalidade desse índice é classificar as fontes iluminantes de acordo com sua capacidade de reproduzir com fidelidade as cores quando comparadas com um iluminante padrão CIE.

A CIE é um grupo internacional de pesquisadores autônomos com objetivo de promover um fórum para troca de idéias e informações e para padronizarem todos os termos relativos à iluminação. Como parte da sua missão, a CIE tem um comitê técnico para estudar o sistema visual e as cores, resultando numa diretriz para a colorimetria. Os elementos-chave do modelo CIE  são as definições dos iluminantes padrões e as especificações para o observador padrão.

Os iluminantes padrões são fontes de luz com curvas espectrais determinadas. O iluminante D é o mais utilizado no gerenciamento de cores, sendo o D50 correspondente a temperatura de cor de 5000 K e o D65 a 6500 K.

É importante entender, entretanto, a diferença entre fonte e iluminante de acordo com a terminologia adotada pela CIE. Fonte é uma luz que depende de uma fonte energética para gerar a iluminação, ou seja, uma fonte física. Iluminante, por sua vez, é uma luz definida por sua energia espectral, porém, pode originar de uma fonte física ou natural.

A luz de uma lâmpada em seu ambiente de trabalho ou casa, origina então de uma fonte iluminante, manipulável, que pode ter sua energia espectral medida com equipamento adequado. O CIE estabelece o padrão dessa energia espectral que cada modelo de iluminante deve ter para sua comercialização. Um iluminante natural porém, nem sempre pode ter sua energia espectral medida.

O observador padrão é resultante ao tri-estímulo  (vermelho, verde e azul) por um grupo de pessoas (de 15 a 20), visualizando uma amostra de cor com ângulo de visão definido e com uma separação no meio do furo, sendo uma metade iluminada por fonte de luz de cor conhecida e outra pela adição sobreposta das três cores primarias aditivas. Ajustando as intensidade das três luzes, o objetivo é igualar as cores das duas partes da imagem.

Classificação dos iluminantes:

A Incandescente
C Luz do dia Filtrada (sem UV)
D50 Luz do dia (9horas)
D65 Luz do dia (12 horas)
D75 Luz do dia (Linha do Equador)
F2 Fluorescente Cool White (Branca Fria)
F7 Fluorescente Broad Band White
F11 Fluorescente TL84 (Comercial)
F12 Fluorescente Ultralume 3000

Agora que já havia sido definido  as possíveis variáveis de iluminantes e observador, foi criado um sistema de codificação para descrição dos espectros refletidos.

As luzes medidas pelo observador-padrão foram divididas pelo comprimento de onda em três zonas: a vermelha (ondas longas), a verde (ondas médias) e a azul (ondas curtas). Esse sistema foi chamado de XYZ, medindo a quantidade de luz existente em cada fatia do espectro percebido pelo observador-padrao. Ele representa todo espectro visível.

O primeiro padrão aprovado pelo CIE foi o RGB. Em seguida, no mesmo ano, foi definido o CIE-XYZ, onde as letras representam a mesmas 3 cores primárias. Este segundo modelo foi definido pois o primeiro tinha dois problemas principais: representação de valores negativos dificultando o cálculo da cor dentro de um sistema de coordenadas e não era possível representar as cores num sistema de coordenadas de 3 dimensões. Então, no modelo XYZ, pode-se definir um gráfico de representação para que as grandezas fotométricas fossem encontradas mais facilmente, porém representando cores que não estão definidas dentro do espectro visível. A partir dos valores definidos pelas letras X, Y e Z, são definidas as coordenadas dentro do sistema RGB, ou seja, as letras XYZ definem uma equação matemática associada às letras. O espaço de cor XYZ foi baseado no trabalho de Munsell.

CIE LAB

O espaço cromático CIE LAB é uma transformação do espaço CIE-XYZ: no lugar das três cores primárias, as cores foram definidas por L, a e b . O canal L representa a luminosidade da cor, entre 0 e 100, ou seja, do preto ao branco.

O A, representa a informação cromática entre -50 e 50, variando entre a oposição do vermelho / verde. Nesse canal, 0 representa a neutralidade, números positivos indicam o vermelho e números negativos indicam o verde.

O B, tem o mesmo papel do A, apenas alterando a representação pela oposição entre o amarelo e o azul. Números positivos indicam tendência ao amarelo e números negativos tendem ao azul.

Com esse jogo de oposições é possível representar todas as cores existentes sendo possível atribuir a elas uma coordenada no espaço XYZ.  Traduzindo a informação do modelo XYZ para o LAB, é possível obtermos uma posição exata da cor dentro do espaço de cor que conseguimos enxergar.

As cores em LAB se refere diretamente a forma como percebemos as cores. Ele não está sujeito a variações em colorantes, ou desgastes de canhão de luz. Sabendo as coordenadas da cor (por exemplo: L 45, 0A, 50B) independente do dispositivo ela não vai variar.

O modelo CIELAB funciona como um tradutor universal de línguas entre os dispositivos, permitindo controlar as cores que passam de um para o outro, correlacionando os valores em RGB ou CMYK com os valores em LAB.

 

Adobe RGB 1998

É um dos mais utilizados pelos fotógrafos, Com uma gama de cores relavivamente grande, engloba cores de impressão offset e grande parte de cores possíveis em inkjet.

sRGB

É o segundo espaço de cor mais utilizado. Foi desenvolvido para representar a capacidade de reprodução de um monitor típico, mas acabou também se mostrando muito útil para impressão em minilabs (que usam laser no lugar de tinta).  Tem um gamut menor que o Adobe e uma de suas características é a adequação para visualização em sites, multimídias, impressos de minilabs

ProPhoto RGB

É o maior espaço de cor. Foi criado pela KODAK e engloba a mesma quantidade de cor que um cromo E6.  Possibilita a captura e tratamento completos, sem perda de cor.

 

Sendo U2410 espaço de cor referente ao monitor DELL U2410. Lembrando que um monitor típico tem espaço de cor sRGB

Como os iluminantes afetam as cores?

A luz emitida pelas fontes luminosas, portanto, possuem cor, e influenciam diretamente na cor do objeto de observação sob este. Muitas cores podem ter em comum um fenômeno de cores conhecido como METAMERISMO, quando vistos sob diferentes fontes de luz. Duas cores podem parecer idênticas sob uma fonte, mas parecer completamente diferente sob outra fonte.

Os Objetos metaméricos apresentam as seguintes características:

  • Elas tem duas curvas espectral diferentes .
  • Elas sempre combinam sob um mesmo iluminante e observador.
  • Mas sobre outras condições de iluminantes e observador elas são completamente diferentes.

Esse pode ser potencialmente um grande problema se a cor do produto muda quando chega na prateleira. Por isso as cabines de luz de aprovação, geralmente possuem vários iluminantes diferentes, a fim de comparar amostra e padrão sob vários iluminantes, ajudando a evitar assim, o metamerismo.

Mas não é somente a cor do iluminante que influencia na cor do objeto. A cor do ambiente, no nosso caso, da cabine, também deve ser a mais neutra possível. As superfícies devem ser foscas, pois o brilho do ambiente sob o objeto deve ser evitado, para um resultado mais neutro. A cor da roupa também pode ser refletida sobre o objeto, e apesar de parecer perfeccionismo, também faz parte do ambiente. A cor padrão utilizada no mercado a fim de se atingir essa neutralidade é o cinza Munsell N8 Fosco. A iluminação pode ser direta, através do uso de difusores para evitar que o brilho sobre a amostra reflita diretamente nos olhos e atrapalhe a visão do observador, ou com os iluminantes posicionados à um angulo maior que 30º em relação ao objeto.

 

MEDIÇÃO DA COR

Os objeto coloridos podem ser analisados de acordo com as cores primárias ou pelo comprimento de onda. No colorímetro, são utilizadas as três cores primárias, vermelho, verde e azul, resultando num valor numérico dentro de um modelo de cor CIE. O espectrofotômetro fornece uma análise da intensidade da luz em diversos comprimentos de onda da amostra da cor em termos de reflexão ou transmissão espectral.

A colorimetria é a ciência do estudo da cor de acordo com a percepção humana padrão. O objetivo é construir um modelo numérico com capacidade de prever a ocorrência do metamerismo. Para ser bem sucedido o modelo colorimétrico precisa fazer duas coisas: representar duas amostras de cor compatível com o mesmo valor numérico e quando as amostras forem diferentes, representar as diferenças numericamente para o modelo de cor como também apresentará esta diferença ao observador.

O colorímetro é um dispositivo utilizado também para media a luz, mas o princípio de ação é separar as componentes RGB da Liz (similar à maneira do sistema visual humano, dos monitores, ou dos escâneres e câmeras digitais etc.). Ele utiliza filtros que imitam a resposta dos cones do sistema visual humano e produz resultado numérico em um dos modelos de cores CIE.

A espectrofotometria é a ciência que estuda a relação entre a intensidade de luz sobre uma superfície e a curva espectral resultante da mesma luz refletida de volta ao detector no instrumento. O espectofotômetro é mais recomendado que o colorímetro devido a sua versatilidade em poder realizar a tarefa de medição de todos os instrumentos.

Cores – sistema aditivo e substrativo

Teoria Tricromática

Thomas Young quando afirmava que a luz era composta por ondas, também desenvolveu estudos de como essas ondas eram absorvidas pela visão humana. Para poder cobrir todo o espectro de cores, seria necessário um infinito número de partículas, sendo quase impossível. Então ele desenvolveu um estudo que os receptores deveriam, na verdade, serem limitados a certo número de partículas e partir delas surgirem as demais. Esse estudo foi denominado Teoria Tricromática. Inicialmente ele identificou como fazendo parte dessas ondas as cores: vermelho, amarelo e azul e posteriormente trocou o amarelo pelo verde.

Nos anos 60, os cientistas confirmaram a existência dos receptores descritos por Young. A visão humana é composta da seguinte forma:

A córnea é a parte frontal do olho que faz o contato com o externo, seu formato abaloado age convergindo a luz, assim como uma lente fotográfica. Após a córnea está o humor aquoso e logo depois a íris, que é responsável pela cor dos olhos da pessoa. Ao centro da íris está a pupila.  A luz atravessa a pupila, que funciona como um diafragma dilatando ou encolhendo para controlar a passagem da luz, até o cristalino que é a lente do olho humano. É dele a capacidade de focalizar as imagens. Chegando à retina que é composta de células sensíveis a luz: os bastonetes e os cones.

Os bastonetes se concentram ao redor da retina e não são sensíveis a diferenças de cores, e sim as informações monocromáticas do claro ao escuro. Cabe a eles a detecção dos níveis de luminosidade.

Os cones se localizam ao centro da retina e são sensíveis as cores. Eles podem ser divididos em: cones vermelhos (sensíveis aos comprimentos de ondas longas), cones verdes (sensíveis aos comprimentos de ondas médias) e cones azuis (sensíveis aos comprimentos de ondas curtas).

A combinação dessas três cores primárias da luz é chamada de MISTURA ADITIVA (RGB).  É possível observar esse efeito na televisão, tela de computador e em iluminação teatral. Começando pela ausência de luz (escuridão), adicionando progressivamente cada cor da luz primária vai-se obtendo tons mais leves, variando a proporção para criar cores diferentes. Por exemplo, o vermelho e o verde, em proporções iguais, produzem o amarelo. Misturando igualmente a quantidade de cada uma das cores primárias, obteremos a luz “branca”.

 

As cores secundárias, como podemos observar, são formadas pelo somatório proporcional das cores primárias.

As cores-pigmentos ou subtrativas possuem dois conjuntos de cores primárias: o tradicional e o CMY. No tradicional as cores primárias são o vermelho, o amarelo e o azul (RYB – Red/Yellow/Blue) e esse sistema é usado principalmente em arte e pintura. Inicialmente, para os pintores do renascimento, as cores primárias era o azul, vermelho e amarelo. Partindo dessa premissa, a mistura substrativa resultava em laranja, roxo e verde como cores secundárias.

Na MISTURA SUBSTRATIVA (CMYK) as cores secundárias de luz são as primárias de pigmento.

Devido ao fato das combinações de cores-pigmento tradicionais não proporcionarem uma gama de cores muito grande, outro sistema foi inventado: o CMY – ciano (um azul-esverdeado), o magenta (um vermelho-azulado) e o amarelo. Esse sistema geralmente vem acompanhado também da letra K representando o preto (CMYK – Cian/Ciano, Magenta, Yellow/Amarelo e Key-black/Preto). Nas cores subtrativas a soma dos pigmentos produzem o preto e a ausência delas é considerada a cor branca.É utilizado para impressões e artes gráficas.

Quando vamos falar de pigmento, tudo se inverte.  A forma mais simples de observarmos isso é misturando um pigmento de uma coloração com outra diferente. Por exemplo, se misturássemos tinta vermelha com tinta verde não obteríamos o amarelo, e sim uma cor mais escura.

Isso ocorre por que o sistema RGB é um sistema de luz emitida. Esses canais de cor partem de um iluminante. Já o sistema CMYK reflete a luz. Todo corpo na natureza tem cor, o que ocorre é que quando a luz bate em uma superfície pigmentada, alguns comprimentos de onda são absorvidos e outros são refletidos. Assim, aquilo que chamamos de tinta vermelha é a tinta que absorve a luz verde e azul, enquanto a luz verde absorve a luz vermelha e azul.

 

RESUMINHO BÁSICO

SISTEMA ADITIVO

Cores primárias : RGB

Cores secundárias: CMY

Luz emitida

SISTEMA SUBSTRATIVO

Cores primárias: CMY

Cores secundárias: RGB

Luz refletida

Luz e fontes de luz

LUZ

Luz é um fenômeno que intriga cientistas há muito tempo, e mesmo hoje em dia não há um consenso sobre sua verdadeira natureza. Aristóteles (384 a.C. – 322 a.C.), por exemplo, pregava que a luz, ao bater nos objetos, retirava deles uma microscópica camada superficial de átomos que, ao serem projetados, acabavam atingindo nossos olhos permitindo assim que víssemos o mesmo. Ponto um: E o desgaste que os objetos sofreriam ao serem iluminados?  Ponto dois: As imagens embaralhadas que deveríamos formar devido às colisões de átomos de dois objetos. Sobre o segundo problema, Aristóteles até tentou se defender alegando que, o que ocorria fora do corpo, era exatamente o que sua hipótese sugeria e que tais imagens irreais não eram percebidas pelas pessoas, pois, quando a luz entrava por nossos olhos, a “alma humana” a recebia e só repassava ao cérebro as imagens corretas.

Os gregos indagaram a respeito, chegando a duas conclusões, por vezes conflitantes, que dividiam as opiniões dos estudiosos: uns acreditavam que todo objeto visível emitia uma corrente constante de partículas luminosas, que eram captadas por nossos olhos. Outros ainda acreditavam sair dos nossos olhos uma onda vibratória que atingia os objetos e tornava-os visíveis.

Apesar das teorias pareceram estranhas e ingênuas, elas foram especuladas praticamente sem nenhum conhecimento científico, apenas com base filosófica, e foi a partir delas que surgiram idéias sobre a luz que mantiveram os cientistas ocupados por muito tempo pois, é da concepção grega que decorrem as duas principais teorias sobre a luz durante a história da humanidade, a teoria corpuscular da luz (partículas) e a teoria ondulatória da luz (ondas).

A primeira descoberta importante surgiu ainda na Grécia com Heron, de Alexandria, que, fazendo experiências com espelhos, descobriu que a luz caminha em linha reta, o que levou à seguinte lei: o ângulo de incidência é igual ao ângulo de reflexão.

Daí até o séc. XVII, o progresso foi lento.

O que mais intrigava os cientistas da época era saber se, afinal, a luz era uma partícula (parte muito pequena, menor que um átomo) ou uma onda (é qualquer perturbação (pulso) que se propaga em um meio).

Foi somente em 1621 que o matemático Wilbord Snell explicou o fenômeno, dizendo que ao penetrar num novo meio, os raios mudam de direção em função da variação de velocidade da luz nos diferentes meios por onde passa. Mas isso não contradiz a lei formulada por Heron? Snell contorna o aparente paradoxo, explicando que a luz continua em linha reta depois de atravessar o novo meio. Snell mediu então o desvio em vários meios como água, ar, vidro, e constatou que o desvio variava de acordo com o meio. A esse fenômeno ele chamou REFRAÇÃO.

René Descartes, em 1637 aprimorou os estudos de Snell publicou o ensaio Dióptica, que apresentava um sistema ótico e tratava da reflexão e da refração, com os quais ele tentava compreender como o olho humano forma as imagens. Desde a Antiguidade sabia-se a propriedade refratora dos vários corpos transparentes, mas, erroneamente, acreditava-se que o surgimento da cor era fruto da propriedade do corpo refrator, que alterava a cor da luz.

Foi quando o físico inglês, Isaac Newton (1642-1727) realizou vários experimentos ao longo dos anos e revolucionou os conhecimentos sobre a luz. Em 1666, na feira de Woolsthorpe, comprou um prisma de vidro (vidro triangular – um peso de papel) e observou em seu quarto, como um raio de sol da janela se decompunha ao atravessar o prisma, sua atenção foi atraída pelas cores do espectro, onde um papel no caminho da luz que emergia do prisma aparecia às sete cores do espectro, em raios sucessivos: vermelho, alaranjado, amarelo, verde, azul anil e o violeta. Desta maneira ele produziu seu pequeno arco-íris artificial

Em 1675 Isaac Newton, num de seus artigos, considerou a luz constituída por um conjunto de corpúsculos materiais em movimento, cujas trajetórias seriam retas. Huygens sugeriu que os fenômenos de propagação da luz seriam mais bem explicados se a luz  fosse considerada uma onda.
O que Newton defendia:

Já que a luz do sol é uma mistura de todas as cores, e essas cores podem ser separadas quando um raio de luz do sol passa por um prisma de vidro. Isso é fácil de entender. Cada cor corresponde a um tipo de partícula. No ar, todas as partículas têm a mesma velocidade e as cores se misturam. Mas, no vidro, cada tipo de partícula tem uma velocidade diferente e isso faz as cores se separarem. E tem mais: dentro do vidro as partículas andam mais depressa que no ar. Para começar, a luz é feita de partículas. E o grande filósofo grego Demócrito ensinou que os sólidos, como o vidro desse prisma, também são feitos de partículas, que ele chamou de átomos.

Imagine a seguinte cena: uma sala dividida onde um lado encontra-se vazia e o outro com cadeiras, sendo essas cadeiras os átomos do vidro. Uma partícula de ar vinda pela luz com certa velocidade, ao chegar perto do vidro, ela atraída pelos átomos do vidro (aponta as cadeiras) e essa atração faz aumentar a minha velocidade! É só uma questão de atração da gravidade.

A refração das cores se dava graças a INÉRCIA – “quanto mais pesado um objeto, mas difícil desviá-lo”. As partículas de luz vermelha eram mais pesadas, tinham mais inércia que as partículas de luz azul. Por isso, seriam menos desviadas. As partículas da luz azul são mais desviadas, porque são mais leves!
O que Huygens defendia:

Uma onda de luz e venho pelo ar, se aproximando do vidro. No ar, encontra pouca resistência, portanto, anda ligeiro. Mas, quando entra no vidro, a resistência aumenta, pois os átomos do vidro atrapalham o deslocamento. Por isso, dentro do vidro anda mais devagar. É o mesmo que acontece quando uma formação de soldados sai do piso duro e entra na areia. A velocidade da marcha diminui. É só uma questão de resistência ao deslocamento. As ondas de luz vermelha seriam menos desviadas porque seriam menores em comprimento e passavam com mais facilidade entre os átomos de vidro.

Para poder acabar com esse impasse, seria necessário medir a velocidade da luz dentro do prisma para saber se a velocidade aumenta ou diminui.

No início do século XIX a teoria de Newton foi definitivamente abandonada, passando-se a considerar a luz como uma propagação ondulatória, graças ao trabalho do inglês Young (Experimento de Young).

 

Descobrindo que a luz branca era formada por todas as cores do espectro, e que cada cor correspondia a uma freqüência, começou a estudar a cor como uma onda. Então, experimentou cruzar feixes de luz com cores diferentes e, apesar de feixes de luz apresentar uma resultante, o feixe após o cruzamento mantinha-se como o raio original. Esse fenômeno não poderia ser explicado se a luz fosse uma onda.

Portanto, Newton foi o primeiro a postular que a luz poderia ser de uma natureza dupla, partículas e ondas. A teoria corpuscular dele conseguia explicar os efeitos de reflexão e refração da luz e o aparecimento da sombra, mas não explicava o porquê das bordas da sombra não serem definidas (difração), como explicava a teoria das ondas. Para a época o pensamento de Newton, parecia uma idéia muito absurda e apenas anos depois Einstein percebeu que ele quase havia chegado à verdade.

Foi somente em 1905, com Albert Einstein, que o fenômeno foi explicado. Ele propôs que a teoria ondulatória era incompleta, e que a luz poderia ter características de partículas também. Matematicamente, demonstrou que um elétron liberado podia absorver uma partícula radiante, e ela então daria energia a ele, chamando essa energia de fóton ou quantum de energia. Então, quanto menor o comprimento de onda, mais energia ela poderia liberar. Em 1923, Arthur Compton demonstrou que os fótons tinham energia cinética, e, portanto, massa.

Foi a partir da Teoria da Relatividade de Einstein, com os estudos de Fizeau, e ele verificou que a luz anda mais devagar no vidro que no ar. E que a teoria de Huygens estava errada porque a onda de luz vermelha tem comprimento maior que a onda de luz azul. A luz tem dupla personalidade. Hora é onda, hora é partícula, dependendo de como a gente observa. A teoria chamada de Teoria Quântica consegue provar isso.

A luz, portanto é ondulatória e corpuscular, predominando por vezes uma, por vezes outra, mas sua constituição é de ambas características.

O estudo físico da luz pode ser dividido em:

  Óptica Geométrica que estuda o comportamento e a trajetória da luz e usa como ferramenta o estudo da geometria.

Princípios da óptica geométrica:

1)     Princípio da propagação retilínea da luz: em meios homogêneos a luz se propaga em linha reta. A formação de sombras é uma evidência de que a luz se propaga em linha reta.

2)      Princípio da reversibilidade dos raios de luz: a trajetória dos raios não depende do sentido de propagação. A trajetória dos fótons (e portanto, da luz) for percorrida num certo sentido, o sentido oposto é também possível

3)      Princípio da independência dos raios de luz: cada raio de luz se propaga independentemente de outro.

Fenômenos da Óptica Geométrica

  1. Reflexão Regular: Ocorre quando a luz incide em uma superfície bem polida e reflete-se regularmente. Exemplo: o reflexo de um espelho
  2. Reflexão Difusa (Difusão da Luz): Quando a luz incide em uma superfície irregular (microscopicamente) e se espalha (difunde-se) em todas as direções. É por causa dessa difusão que conseguimos enxergar os objetos a nossa volta.
  3. Refração: (Re fracus=quebra/desvio) É a passagem da luz de um meio para outro com características diferentes. A luz é desviada quando sofre refração.
  4. Absorção: Ocorre quando a luz é absorvida por uma superfície. Um acúmulo na matéria de parte da energia proveniente de radiações luminosas

Óptica Física que estuda a natureza da luz e fenômenos como: interferência, polarização, difração, dispersão entre outros.

 

FONTES DE LUZ

A Luz pode ser proveniente de várias fontes e a cor depende da luz pelo objeto, então a natureza da fonte de luz é de grande importância.
Denominamos fontes de Luz todo corpo capaz de emitir luz, ou seja, todo corpo visível. Aos corpos que emitem luz própria damos o nome de fonte primária ou corpos luminosos, por exemplos: o sol, lâmpada elétrica ou monitor de computador;

aos corpos difundem luz de uma fonte primária damos o nome de fonte secundária ou corpos iluminados, como por exemplo, a lua.
Os tipos mais comuns são:

– Luz do dia:  é a mais importante de todas as fontes de luz que o sistema visual humano conhece.  A composição exata do comprimento de onda da luz do dia depende da hora, das condições atmosféricas e da latitude.

– Incandescente: resultante do aquecimento de um sólido ou líquido em intensidade suficiente para emitir luz. Exemplo: vela, lâmpada de tungstênio.

– Lâmpada de descarga elétrica: Baseia-se na condução de corrente elétrica em um meio gasoso, quando em seus eletrodos se forma uma tensão elevada capaz de vencer a rigidez dielétrica do meio. Os meios gasosos mais utilizados são o vapor de mercúrio ou o argônio.

Ementa e horário

Pessoal,

Apenas para reforçar, nossos horários de aula são:

Quintas: M/NO – Nossa aula não presencial do horário (M) será mantida. Eu estarei a disposição online pelo batepapo do Gmail (gereciamentodecor@gmail.com), e no laboratório 001 das 17h30 as 18h20.

Sábado: AB

Logo abaixo encaminho a ementa da disciplina onde vocês podem pegar a bibliografia.

Beijos e até nosso próximo encontro.

Captura de tela 2016-02-10 23.50.23

Bem vindos

Olá!

Sejam bem-vindos ao blog da disciplina de Gerenciamento de Cor e Impressão do curso Superior de Tecnologia em Fotografia da UNICAP. Aqui estaremos expondo o conteúdo abordado em sala de aula e funcionará como suporte para dúvidas e revisão do conteúdo. Estejam todos bem a vontade para colaborar com indicações de texto e dicas de assuntos relacionados a nossa disciplina, assim como solicitar ajuda caso apareçam dúvidas.

Outra forma de contato, é pelo email: gerenciamentodecor@gmail.com