PELICULA.
Es una película interesante ya que es una manera de mostrara a la fotografía como algo profesional y no algo sencillo.
Cuando la gente ve una foto no sabe por todas las técnicas e instrumentos que tuvo que usar el fotógrafo para logra semejante trabajo, yo solo mencionare las tácticas más importantes.
Como ya había mencionado antes en otras lecturas lo mas importante que puede aprovechar el fotógrafo es la luz y su manipulación pero cuando se carece de esta luz natural y solo se tiene la artificial como un flash, se tiene que ser mucho más profesional.
Se muestran los aparatos para armar un flash y todas las herramientas con la que este cuenta así como el foco modelador que sirve solo para ver como se alumbra existen varias funciones que moderan la luz del flash.
Se tiene que acomodar al modelo en función de lo que el fotógrafo quiera expresar, sombras cubiertos etc., pero para saber la velocidad que se tiene que usar en la cámara así como el diafragma y la sensibilidad que es el ISO se tiene que usar una herramienta llamada exposímetro, que mide la fuerza de la luz donde esta nuestro objetivo.
El exposímetro se tiene que ubicar al lado del objetivo y dar un clic, esto reflejara unas cifras y es lo que se tiene que poner en la cámara para que la toma no salga des balanceada.
Esta son algunas de las técnicas para que así logremos una mejor toma sea cual sea nuestro objetivo.
viernes, 26 de febrero de 2010
APUNTE 5
Apunte 5
Usos del flash electrónico.
El flash electrónico, aparato tan revolucionario que ha ayudado tanto en la evolución del fotógrafo y su toma.
Para dar una mejor explicación del uso del flash primero se tiene que hacer mención de las temperaturas de la luz y los colores que tiene , para esto se tiene que visital la tabla de temperatura de la luz y sus tonalidades por ejemplo: una foto cuando el sol apenas se va a poner o a ocultar la temperatura es de 20002 grados kelvin, para poder controlar esto y las tonalidades no sean tan cambiantes se crea el flash , que tiene una temperatura controlada de 5,500 grados kelvin y la tonalidad es blanca a diferencia que la azul de los 20,000 kelvin.
Para un correcto uso del flash debe de existir un conocimiento amplio de lo que es el ISO, la velocidad del obturador y la apertura del diafragma o viceversa.
El flash debe tener la distancia correcta hacia su objetivo , si está muy lejos se va a perder con el espacio o si se tiene el obturador muy abierto y el ISO no está bien balanceado la película se quema y sale blanca o puede salir primero el flash y luego el disparo o al contario.
Existe una tabla de velocidad, diafragma e ISO para poder tener el perfecto balance junto con el flash a qué distancia se tiene que abrir el diafragma cuando se tenga que utilizar el flash.
Los últimos flash ya cuentan con una función llamada TTL, para evitar la contracción de la pupila y la luz no sea tan sorpresiva si no ya predecible, si no se cuenta con esta todavía se pueden usar filtro de todo tipo , desde un papel hasta materiales profesionales.
Usos del flash electrónico.
El flash electrónico, aparato tan revolucionario que ha ayudado tanto en la evolución del fotógrafo y su toma.
Para dar una mejor explicación del uso del flash primero se tiene que hacer mención de las temperaturas de la luz y los colores que tiene , para esto se tiene que visital la tabla de temperatura de la luz y sus tonalidades por ejemplo: una foto cuando el sol apenas se va a poner o a ocultar la temperatura es de 20002 grados kelvin, para poder controlar esto y las tonalidades no sean tan cambiantes se crea el flash , que tiene una temperatura controlada de 5,500 grados kelvin y la tonalidad es blanca a diferencia que la azul de los 20,000 kelvin.
Para un correcto uso del flash debe de existir un conocimiento amplio de lo que es el ISO, la velocidad del obturador y la apertura del diafragma o viceversa.
El flash debe tener la distancia correcta hacia su objetivo , si está muy lejos se va a perder con el espacio o si se tiene el obturador muy abierto y el ISO no está bien balanceado la película se quema y sale blanca o puede salir primero el flash y luego el disparo o al contario.
Existe una tabla de velocidad, diafragma e ISO para poder tener el perfecto balance junto con el flash a qué distancia se tiene que abrir el diafragma cuando se tenga que utilizar el flash.
Los últimos flash ya cuentan con una función llamada TTL, para evitar la contracción de la pupila y la luz no sea tan sorpresiva si no ya predecible, si no se cuenta con esta todavía se pueden usar filtro de todo tipo , desde un papel hasta materiales profesionales.
apunte 4
Apunte 4
Conocimientos básicos de la luz
La luz Es la energía radiante que un observador percibe a través de las sensaciones visuales. O bien es la radiación electromagnética visible y agente natural que excita el sentido de la vista.
Teniendo en cuenta este dato y entendiéndolo bien las cosas se pueden hacer más sencillas en la fotografía y su uso correcto.
Los mas importante que debe saber un fotógrafo es la manipulación correcta de la luz para lograr que su objetivo juegue el papel que quiere, la luz te puede ayudar o perjudicar, para esto hay que saber 2 cosas.
En medidas que ayudan a la mejora fotográfica la luz puede ser artificial o natural y esta a su vez tiene varios tipos; como ya sabemos diferenciar de lo natural y artificial.la luz natural viene de todo aquello que el hombre no crea, como la luz del sol, la de las estrellas, la luna , el reflejo que provoca la luz del cielo con el agua o algo como la nieve.
Lo artificial es lo que ya podemos manejar a nuestro antojo y va desde una simple bombilla de luz hasta un poderoso y complicado flash.
La luz se divide en tres factores
Origen: natural o artificial, continua o discontinua
Dirección: posicionarse aprovechando de la luz que está dando al objetivo y saber manipularla o manejarla
Numero: cuantas fuentes de iluminación se cuentan hacia el objetivo, y la dirección de la que estas de tu toma.
También es importante mencionar los tipos de difusión o calidad que se le puede dar a la luz en una toma como la luz suave o la luz fuerte.
Conocimientos básicos de la luz
La luz Es la energía radiante que un observador percibe a través de las sensaciones visuales. O bien es la radiación electromagnética visible y agente natural que excita el sentido de la vista.
Teniendo en cuenta este dato y entendiéndolo bien las cosas se pueden hacer más sencillas en la fotografía y su uso correcto.
Los mas importante que debe saber un fotógrafo es la manipulación correcta de la luz para lograr que su objetivo juegue el papel que quiere, la luz te puede ayudar o perjudicar, para esto hay que saber 2 cosas.
En medidas que ayudan a la mejora fotográfica la luz puede ser artificial o natural y esta a su vez tiene varios tipos; como ya sabemos diferenciar de lo natural y artificial.la luz natural viene de todo aquello que el hombre no crea, como la luz del sol, la de las estrellas, la luna , el reflejo que provoca la luz del cielo con el agua o algo como la nieve.
Lo artificial es lo que ya podemos manejar a nuestro antojo y va desde una simple bombilla de luz hasta un poderoso y complicado flash.
La luz se divide en tres factores
Origen: natural o artificial, continua o discontinua
Dirección: posicionarse aprovechando de la luz que está dando al objetivo y saber manipularla o manejarla
Numero: cuantas fuentes de iluminación se cuentan hacia el objetivo, y la dirección de la que estas de tu toma.
También es importante mencionar los tipos de difusión o calidad que se le puede dar a la luz en una toma como la luz suave o la luz fuerte.
miércoles, 17 de febrero de 2010
apunte 3 (montaje dee studio)
Luis Armando Muciño Ceballos
Apunte 3
Montaje de estudio
Antes de lo leer esta lectura no tenía un buen conocimiento acerca del correcto montaje del estudio para así lograr un trabajo profesional y sin errores.
En casos de emergencia y de falta de equipo un estudio se puede hacer donde sea haciendo uso de las técnicas adecuadas para degradar, controlar y manejar con la luz como mas convenga, ya que si se tiene el estudio con todas sus herramientas correctamente colocadas y se tiene l conocimiento adecuado de cómo hay que trabajar con ellas es como se logra de la fotografía un trabajo único y correcto.
En cuanto a la iluminación correcta , ya que se tiene total control sobre esta se tienen que cuidar los fondos y la distancia del fotógrafo hacia su objetivo , los fondos puede ser blanco y negro y la luz se puede contrastar en muchas direcciones y ser degradad al antojo del fotógrafo.
Dependiendo del espacio que se tenga hay que hacer buen uso y distribución dela electricidad reconociendo los espacios donde van objetos que requieran de mayor carga eléctrica, para esos existen diferentes herramientas que ayudan a su mejor uso.
Los tipos de tomas pueden llegar a ser muy variados por lo que se debe de tener un espacio extra para la correcta distribución de objetos necesarios que se puedan llegar a necesitar en el estudio para diferentes ocasiones desde unas escaleras hasta unas tijeras todos estos materiales se pueden usar cuando se decida jugar con los fondos que son muy importantes en las tomas ,se pueden construir fondos pequeños y fondos grandes con rollo de papel hasta con algunas bases mas elaboradas pero de materiales simples.
Apunte 3
Montaje de estudio
Antes de lo leer esta lectura no tenía un buen conocimiento acerca del correcto montaje del estudio para así lograr un trabajo profesional y sin errores.
En casos de emergencia y de falta de equipo un estudio se puede hacer donde sea haciendo uso de las técnicas adecuadas para degradar, controlar y manejar con la luz como mas convenga, ya que si se tiene el estudio con todas sus herramientas correctamente colocadas y se tiene l conocimiento adecuado de cómo hay que trabajar con ellas es como se logra de la fotografía un trabajo único y correcto.
En cuanto a la iluminación correcta , ya que se tiene total control sobre esta se tienen que cuidar los fondos y la distancia del fotógrafo hacia su objetivo , los fondos puede ser blanco y negro y la luz se puede contrastar en muchas direcciones y ser degradad al antojo del fotógrafo.
Dependiendo del espacio que se tenga hay que hacer buen uso y distribución dela electricidad reconociendo los espacios donde van objetos que requieran de mayor carga eléctrica, para esos existen diferentes herramientas que ayudan a su mejor uso.
Los tipos de tomas pueden llegar a ser muy variados por lo que se debe de tener un espacio extra para la correcta distribución de objetos necesarios que se puedan llegar a necesitar en el estudio para diferentes ocasiones desde unas escaleras hasta unas tijeras todos estos materiales se pueden usar cuando se decida jugar con los fondos que son muy importantes en las tomas ,se pueden construir fondos pequeños y fondos grandes con rollo de papel hasta con algunas bases mas elaboradas pero de materiales simples.
investigacion bibliografica clase 17/02
Luis Armando Muciño Ceballos
Definiciones
Sistema binario
El sistema binario, en matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, pues trabajan internamente con dos niveles de voltaje, por lo que su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).
Bit
El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).
Byte
Byte es una voz inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente B mientras que en los francófonos es o (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bit).
Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocol
Kilobyte
Un kilobyte (pronunciado /kilobáit/) es una unidad de almacenamiento de información cuyo símbolo es el kB (a veces se utiliza KB), y equivale a 210 bytes (valor aplicando la definición de prefijo binario, aceptado por todo sistema operativo que se haya creado hasta la fecha) o a 103 bytes (valor aplicando la definición del Sistema Internacional de Unidades).
Los Ordenadores de 8 bits tienen una capacidad máxima (sin paginación de memoria) de 64 K, o 65536 bytes (o a 216 bytes). El IBM PC original soportaba un máximo de 256 Kilobytes y los compatible IBM PC, tenían una capacidad máxima de 640 KB en el sentido binario, o 655.360 caracteres de datos.
Megabyte
El megabyte (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del octeto, que equivale a 106 (1.000.000 octetos) ó 220 (1.048.576 octetos), según el contexto. La primera definición es más acorde al prefijo mega-, mientras que la segunda es una cantidad más práctica desde el punto de vista informático. Para ésta es más acorde emplear el mebibyte, ya que los dos números están relativamente cercanos, y confundir uno con otro ha llevado ocasionalmente a problemas.
Se representa por MB y no por Mb (que correspondería a megabit) y coloquialmente se les denomina megas. Es la unidad más típica actualmente, usándose para especificar la capacidad de la memoria RAM, de las memorias de tarjetas gráficas, de los CD-ROM, o el tamaño de los programas, de los archivos grandes, etc. La capacidad de almacenamiento se mide habitualmente en gigabytes, es decir, en miles de megabytes. Los múltiplos de byte se convierten, bien en el sentido binario:
Gigabyte
Un gigabyte es una unidad de medida informática cuyo símbolo es el GB, y puede equivalerse a 230 bytes o a 109 bytes, según el uso.
Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un sólo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre los usos binario y decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos.
Un Terabyte puede equivalerse a 1024 GB ó 1000 GB.
Tabla de comparación.
1.024 byte = 1 kilobyte
1.024 kilobyte = 1 megabyte
1.024 megabyte = 1 gigabyte
1.024 gigabyte = 1 terabyte
1.024 terabyte = 1 petabyte
1.024 petabyte = 1 exabyte
1.024 exabyte = 1 zettabyte
1.024 zettabyte = 1 yottabyte
Sistema TIFF
La denominación en inglés "Tagged Image File Format" es un formato de archivo de imágenes con etiquetas. Esto se debe a que los ficheros TIFF contienen, además de los datos de la imagen propiamente dicha, "etiquetas" en las que se archiva información sobre las características de la imagen, que sirve para su tratamiento posterior.
Sistema JPEG
JPEG significa "Joint Photographic Experts Group" (Grupo conjunto de expertos en fotografía), nombre de la comisión que creó la norma, la cual fue integrada desde sus inicios por la fusion de varias agrupaciones en un intento de compartir y desarrollar su experiencia en la digitalización de imágenes. La ISO, tres años antes (abril de 1983), había iniciado sus investigaciones en el área.
JPEG además de ser un metodo de compresión, es a menudo considerado como un formato de archivo. JPEG/Exif es el formato de imagen más común utilizado por las cámaras fotográficas digitales y otros dispositivos de captura de imagen, junto con JPEG/JFIF, que también es otro formato para el almacenamiento y la transmisión de imágenes fotográficas en la World Wide Web. JPEG/JFIF es el formato más utilizado para almacenar y transmitir archivos de fotos en Internet. Estas variaciones de formatos a menudo no se distinguen, y se llaman JPEG.
Sistema GIF
GIF (Compuserve GIF) es un formato gráfico utilizado ampliamente en la World Wide Web, tanto para imágenes como para animaciones.
El formato fue creado por CompuServe en 1987 para dotar de un formato de imagen a color para sus áreas de descarga de ficheros, sustituyendo su temprano formato RLE en blanco y negro. GIF llegó a ser muy popular porque podía usar el algoritmo de compresión LZW (Lempel Ziv Welch) para realizar la compresión de la imagen, que era más eficiente que el algoritmo Run-Lenght Encoding (RLE) usado por los formatos PCX y MacPaint. Por lo tanto, imágenes de gran tamaño podían ser descargadas en un razonable periodo de tiempo, incluso con modems muy lentos.
GIF es un formato sin pérdida de calidad para imágenes con hasta 256 colores, limitados por una paleta restringida a este número de colores. Por ese motivo, con imágenes con más de 256 colores (profundidad de color superior a 8), la imagen debe adaptarse reduciendo sus colores, produciendo la consecuente pérdida de calidad.
Sistema RAW.
Las cámaras que soportan archivos RAW normalmente vienen con su propio software para la conversión de RAW a otros formatos como TIFF o JPEG. Otros programas de conversión y complementos están disponibles en los vendedores que han licenciado la tecnología de la cámara fabricante, aunque también, mediante el uso de ingeniería inversa se han creado conversores para visualizar imágenes en algunos formatos RAW específicos. Un programa de código abierto portable es dcraw que soporta el formato RAW y puede funcionar en varios sistemas operativos pero que no recibió el apoyo de los fabricantes de cámaras.
El formato RAW es software privativo, y difiere mucho entre cámaras de distintos fabricantes y en ocasiones, hasta entre cámaras del mismo fabricante. En 2004, Adobe Systems publicó el Digital Negative Specification (DNG), que tiene la intención de ser un formato unificado de RAW. Adobe Photoshop CS2 y CS3 contienen un amplio soporte para RAW en el software Adobe Photoshop Lightroom. A partir de 2006, varios fabricantes de cámaras han comenzado a anunciar el apoyo a DNG en nuevos modelos de cámaras, incluidas las Leica, Samsung, Ricoh, Pentax y Hasselblad. El Leica Digital-Modul-R (DMR) fue el primero en utilizar su DNG como formato nativo.
Para Windows XP, hay disponible una descarga gratuita que integra la visualización y la impresión de fotografías incluidas en otros programas, pero no es apoyado por Microsoft.1 Además, la galería de fotos de Windows y de Windows Live pueden ver cualquier formato de imagen en bruto si los códecs WIC están instalados. Fabricantes de cámaras como Canon, Nikon, Sony, Olympus y Pentax han publicado codecs WIC. Los códecs comerciales DNG también están disponibles en Ardfry Imaging.2
En 2005, Apple Computer presentó varios productos que ofrecen soporte de archivos RAW, como el iPhoto 5, que ofreció soporte básico para la visualización y edición de archivos RAW. La nueva versión de su sistema operativo, Mac OS X 10.4, añadió soporte de RAW directamente al sistema operativo, como parte del entorno ImageIO, que agrega automáticamente soporte RAW a la mayoría de las aplicaciones de Mac OS X, ambos de Apple (como la vista previa, el Mac OS X es PDF y aplicación de visualización de imágenes y de apertura, una foto posterior a la producción de paquetes de software para profesionales), así como todas las aplicaciones de terceros que hagan uso de los marcos ImageIO. Semi-actualizaciones periódicas para OS X generalmente incluyen soporte para los nuevos formatos de archivo RAW introducidos por los fabricantes de cámaras.
Procesamiento del RAW o revelado [editar]
Hay muchas otras aplicaciones para "revelado RAW" o "flujo de trabajo en RAW" diseñadas para proporcionar procesamiento y post-producción de imágenes RAW, antes de ser exportadas en otro formato como TIF o JPG: por ejemplo: Helicon Filter, Phase One Capture One y Bibble Labs' Bibble Pro. Al igual que Aperture de Apple, Adobe Photoshop, Adobe Photoshop Lightroom y PhotoLine, estos programas proporcionan sofisticados controles para el procesamiento de la información almacenada en el archivo Raw y para convertir archivos RAW a formato JPEG o TIFF. También Picasa, el programa de edición de imágenes y catalogación de Google, puede leer y mostrar muchos formatos RAW, pero al igual que iPhoto, ofrece sólo herramientas limitadas para el procesamiento de archivos RAW.
En 2006, Adobe Systems Inc adquirió los derechos de Pixmantec ApS. RawShooter Essentials no se actualizará (la última actualización añade soporte para la Canon 5D y la Nikon D200). Puede aún ser descargado de forma gratuita hasta la versión 1.0 de Adobe Photoshop Lightroom que fue liberada en marzo de 2007. El software se ofrece completo, de manera que incluya el soporte a diversos formatos RAW, conversión a otros formatos, y procesamiento por lotes. LightZone es un programa de edición de imágenes que ofrece la posibilidad de editar RAW nativamente. La mayoría de herramientas convierten RAW antes de poder procesarlo, pero LightZone permite a los usuarios editar RAW como si se tratara de TIFF o JPEG.
Definiciones
Sistema binario
El sistema binario, en matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, pues trabajan internamente con dos niveles de voltaje, por lo que su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).
Bit
El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).
Byte
Byte es una voz inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente B mientras que en los francófonos es o (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bit).
Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocol
Kilobyte
Un kilobyte (pronunciado /kilobáit/) es una unidad de almacenamiento de información cuyo símbolo es el kB (a veces se utiliza KB), y equivale a 210 bytes (valor aplicando la definición de prefijo binario, aceptado por todo sistema operativo que se haya creado hasta la fecha) o a 103 bytes (valor aplicando la definición del Sistema Internacional de Unidades).
Los Ordenadores de 8 bits tienen una capacidad máxima (sin paginación de memoria) de 64 K, o 65536 bytes (o a 216 bytes). El IBM PC original soportaba un máximo de 256 Kilobytes y los compatible IBM PC, tenían una capacidad máxima de 640 KB en el sentido binario, o 655.360 caracteres de datos.
Megabyte
El megabyte (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del octeto, que equivale a 106 (1.000.000 octetos) ó 220 (1.048.576 octetos), según el contexto. La primera definición es más acorde al prefijo mega-, mientras que la segunda es una cantidad más práctica desde el punto de vista informático. Para ésta es más acorde emplear el mebibyte, ya que los dos números están relativamente cercanos, y confundir uno con otro ha llevado ocasionalmente a problemas.
Se representa por MB y no por Mb (que correspondería a megabit) y coloquialmente se les denomina megas. Es la unidad más típica actualmente, usándose para especificar la capacidad de la memoria RAM, de las memorias de tarjetas gráficas, de los CD-ROM, o el tamaño de los programas, de los archivos grandes, etc. La capacidad de almacenamiento se mide habitualmente en gigabytes, es decir, en miles de megabytes. Los múltiplos de byte se convierten, bien en el sentido binario:
Gigabyte
Un gigabyte es una unidad de medida informática cuyo símbolo es el GB, y puede equivalerse a 230 bytes o a 109 bytes, según el uso.
Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un sólo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre los usos binario y decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos.
Un Terabyte puede equivalerse a 1024 GB ó 1000 GB.
Tabla de comparación.
1.024 byte = 1 kilobyte
1.024 kilobyte = 1 megabyte
1.024 megabyte = 1 gigabyte
1.024 gigabyte = 1 terabyte
1.024 terabyte = 1 petabyte
1.024 petabyte = 1 exabyte
1.024 exabyte = 1 zettabyte
1.024 zettabyte = 1 yottabyte
Sistema TIFF
La denominación en inglés "Tagged Image File Format" es un formato de archivo de imágenes con etiquetas. Esto se debe a que los ficheros TIFF contienen, además de los datos de la imagen propiamente dicha, "etiquetas" en las que se archiva información sobre las características de la imagen, que sirve para su tratamiento posterior.
Sistema JPEG
JPEG significa "Joint Photographic Experts Group" (Grupo conjunto de expertos en fotografía), nombre de la comisión que creó la norma, la cual fue integrada desde sus inicios por la fusion de varias agrupaciones en un intento de compartir y desarrollar su experiencia en la digitalización de imágenes. La ISO, tres años antes (abril de 1983), había iniciado sus investigaciones en el área.
JPEG además de ser un metodo de compresión, es a menudo considerado como un formato de archivo. JPEG/Exif es el formato de imagen más común utilizado por las cámaras fotográficas digitales y otros dispositivos de captura de imagen, junto con JPEG/JFIF, que también es otro formato para el almacenamiento y la transmisión de imágenes fotográficas en la World Wide Web. JPEG/JFIF es el formato más utilizado para almacenar y transmitir archivos de fotos en Internet. Estas variaciones de formatos a menudo no se distinguen, y se llaman JPEG.
Sistema GIF
GIF (Compuserve GIF) es un formato gráfico utilizado ampliamente en la World Wide Web, tanto para imágenes como para animaciones.
El formato fue creado por CompuServe en 1987 para dotar de un formato de imagen a color para sus áreas de descarga de ficheros, sustituyendo su temprano formato RLE en blanco y negro. GIF llegó a ser muy popular porque podía usar el algoritmo de compresión LZW (Lempel Ziv Welch) para realizar la compresión de la imagen, que era más eficiente que el algoritmo Run-Lenght Encoding (RLE) usado por los formatos PCX y MacPaint. Por lo tanto, imágenes de gran tamaño podían ser descargadas en un razonable periodo de tiempo, incluso con modems muy lentos.
GIF es un formato sin pérdida de calidad para imágenes con hasta 256 colores, limitados por una paleta restringida a este número de colores. Por ese motivo, con imágenes con más de 256 colores (profundidad de color superior a 8), la imagen debe adaptarse reduciendo sus colores, produciendo la consecuente pérdida de calidad.
Sistema RAW.
Las cámaras que soportan archivos RAW normalmente vienen con su propio software para la conversión de RAW a otros formatos como TIFF o JPEG. Otros programas de conversión y complementos están disponibles en los vendedores que han licenciado la tecnología de la cámara fabricante, aunque también, mediante el uso de ingeniería inversa se han creado conversores para visualizar imágenes en algunos formatos RAW específicos. Un programa de código abierto portable es dcraw que soporta el formato RAW y puede funcionar en varios sistemas operativos pero que no recibió el apoyo de los fabricantes de cámaras.
El formato RAW es software privativo, y difiere mucho entre cámaras de distintos fabricantes y en ocasiones, hasta entre cámaras del mismo fabricante. En 2004, Adobe Systems publicó el Digital Negative Specification (DNG), que tiene la intención de ser un formato unificado de RAW. Adobe Photoshop CS2 y CS3 contienen un amplio soporte para RAW en el software Adobe Photoshop Lightroom. A partir de 2006, varios fabricantes de cámaras han comenzado a anunciar el apoyo a DNG en nuevos modelos de cámaras, incluidas las Leica, Samsung, Ricoh, Pentax y Hasselblad. El Leica Digital-Modul-R (DMR) fue el primero en utilizar su DNG como formato nativo.
Para Windows XP, hay disponible una descarga gratuita que integra la visualización y la impresión de fotografías incluidas en otros programas, pero no es apoyado por Microsoft.1 Además, la galería de fotos de Windows y de Windows Live pueden ver cualquier formato de imagen en bruto si los códecs WIC están instalados. Fabricantes de cámaras como Canon, Nikon, Sony, Olympus y Pentax han publicado codecs WIC. Los códecs comerciales DNG también están disponibles en Ardfry Imaging.2
En 2005, Apple Computer presentó varios productos que ofrecen soporte de archivos RAW, como el iPhoto 5, que ofreció soporte básico para la visualización y edición de archivos RAW. La nueva versión de su sistema operativo, Mac OS X 10.4, añadió soporte de RAW directamente al sistema operativo, como parte del entorno ImageIO, que agrega automáticamente soporte RAW a la mayoría de las aplicaciones de Mac OS X, ambos de Apple (como la vista previa, el Mac OS X es PDF y aplicación de visualización de imágenes y de apertura, una foto posterior a la producción de paquetes de software para profesionales), así como todas las aplicaciones de terceros que hagan uso de los marcos ImageIO. Semi-actualizaciones periódicas para OS X generalmente incluyen soporte para los nuevos formatos de archivo RAW introducidos por los fabricantes de cámaras.
Procesamiento del RAW o revelado [editar]
Hay muchas otras aplicaciones para "revelado RAW" o "flujo de trabajo en RAW" diseñadas para proporcionar procesamiento y post-producción de imágenes RAW, antes de ser exportadas en otro formato como TIF o JPG: por ejemplo: Helicon Filter, Phase One Capture One y Bibble Labs' Bibble Pro. Al igual que Aperture de Apple, Adobe Photoshop, Adobe Photoshop Lightroom y PhotoLine, estos programas proporcionan sofisticados controles para el procesamiento de la información almacenada en el archivo Raw y para convertir archivos RAW a formato JPEG o TIFF. También Picasa, el programa de edición de imágenes y catalogación de Google, puede leer y mostrar muchos formatos RAW, pero al igual que iPhoto, ofrece sólo herramientas limitadas para el procesamiento de archivos RAW.
En 2006, Adobe Systems Inc adquirió los derechos de Pixmantec ApS. RawShooter Essentials no se actualizará (la última actualización añade soporte para la Canon 5D y la Nikon D200). Puede aún ser descargado de forma gratuita hasta la versión 1.0 de Adobe Photoshop Lightroom que fue liberada en marzo de 2007. El software se ofrece completo, de manera que incluya el soporte a diversos formatos RAW, conversión a otros formatos, y procesamiento por lotes. LightZone es un programa de edición de imágenes que ofrece la posibilidad de editar RAW nativamente. La mayoría de herramientas convierten RAW antes de poder procesarlo, pero LightZone permite a los usuarios editar RAW como si se tratara de TIFF o JPEG.
miércoles, 10 de febrero de 2010
definiciones
Tarea
Definiciones
Fotografía digital;
La fotografía digital consiste en la grabación de imágenes mediante una cámara, de forma análoga a la fotografía clásica. Sin embargo, así como en esta última las imágenes quedan grabadas sobre una película y se revelan posteriormente mediante un proceso químico, en la fotografía digital las imágenes son capturadas por un sensor electrónico que dispone de múltiples unidades fotosensibles y desde allí se archivan en otro elemento electrónico que constituye la memoria.
Pixel:
Un píxel o pixel (acrónimo del inglés picture element, "elemento de imagen") es la menor unidad homogénea en color que forma parte de una imagen digital, ya sea esta una fotografía, un fotograma de vídeo o un gráfico.
Ampliando lo suficiente una imagen digital (zoom), por ejemplo en la pantalla de un ordenador, pueden observarse los píxeles que componen la imagen. Los píxeles aparecen como pequeños cuadrados o rectángulos en color, en blanco o en negro, o en matices de gris. Las imágenes se forman como una matriz rectangular de píxeles, donde cada píxel forma un área relativamente pequeña respecto a la imagen total.
En las imágenes de mapa de bits o en los dispositivos gráficos cada píxel se codifica mediante un conjunto de bits de longitud determinada (la llamada profundidad de color); por ejemplo, puede codificarse un píxel con un byte (8 bits), de manera que cada píxel admite 256 variaciones (28 variaciones con repetición de 2 valores posibles en un bit tomados de 8 en 8). En las imágenes de color verdadero, se suelen usar tres bytes para definir un color; es decir, en total podemos representar un total de 224 colores, que suman 16.777.216 opciones de color (32 bits son los mismos colores que 24 bits, pero tiene 8 bits más para transparencia).
Bitmap:
Una imagen rasterizada, también llamada mapa de bits, imagen matricial o bitmap, es una estructura o fichero de datos que representa una rejilla rectangular de píxeles o puntos de color, denominada raster, que se puede visualizar en un monitor de ordenador, papel u otro dispositivo de representación.
A las imágenes rasterizadas se las suele caracterizar por su altura y anchura (en pixels) y por su profundidad de color (en bits por pixel), que determina el número de colores distintos que se pueden almacenar en cada pixel, y por lo tanto, en gran medida, la calidad del color de la imagen.
Los gráficos rasterizados se distinguen de los gráficos vectoriales en que estos últimos representan una imagen a través del uso de objetos geométricos como curvas de Bézier y polígonos, no del simple almacenamiento del color de cada pixel. El formato de imagen matricial está ampliamente extendido y es el que se suele emplear para tomar fotografías digitales y realizar capturas de vídeo. Para su obtención se usan dispositivos de conversión analógica-digital, tales como escáneres y cámaras digitales.
Puntos por pulgada.
Los puntos por pulgada (ppp) del inglés dots per inch (DPI) es una unidad de medida para resoluciones de impresión, concretamente, el número de puntos individuales de tinta que una impresora o tóner puede producir en un espacio lineal de una pulgada.
Generalmente, las impresoras de mayor definición (un alto ppp) producen impresiones más nítidas y detalladas. El valor de los ppp de una impresora depende de diversos factores, incluidos el método con el que se aplica la tinta, la calidad de los componentes del dispositivo, y la calidad de la tinta y el papel usado. Una impresora matricial, por ejemplo, aplica la tinta con diminutas varillas que golpean una cinta impregnada de tinta, y tiene una relativamente baja resolución, habitualmente entre 60 y 90ppp. Una impresora de inyección pulveriza tinta a través de minúsculas cánulas, y suele ser capaz de producir 300ppp. Una impresora láser aplica el tóner a través de una carga electrostática controlada, y puede estar entre los 600 a los 1200ppp.
El número de los puntos de tinta por pulgada que una impresora necesita imprimir sobre el papel será mayor que el número de píxeles que pretende representar. Esto se debe a la limitación de colores de tinta disponibles en una impresora: muchas impresoras a color utilizan sólo 4 tintas, mientras que un monitor de vídeo puede generar millones de colores. Cada punto de la impresora sólo podría ser de uno de esos 4 colores pero mezclando dichas tintas por parejas para imprimir un punto conseguimos más, hasta llegar a 8 colores posibles; mientras que un pixel de la pantalla de un ordenador puede iluminarse con un abanico de millones de colores distintos. El truco de las impresoras para ofrecer mayor variedad cromática es tratar de representar un pixel con 4 o 6 puntos de tinta, cada uno de ellos de un solo color pero que en conjunto consiguen imitar el valor cromático que la pantalla del ordenador representa con un solo pixel. Entonces, si para un pixel necesitamos 6 puntos de tinta tendremos que para un cuadrado de 10 x 10 píxeles ( = 100 píxeles) la impresora marcará sobre el papel 600 puntos de tinta.
Imágenes Pixelares
Como ya hemos venido desarrollando en todas las demas entradas del blog, sabemos que la imagen pixelar esta formada por un grupo ordenado de puntos llamados pixeles. Este tipo de imagenes juega un papel fundamental en la era digital, sobre todo en lo que respecta a lo que es la fotografia. Sabemos que cuanto mayor sea el numero de filas y columnas en la imagen mayor va a ser el detalle y la calidad digital en esta pero ¿como funciona una imagen en realidad?Habiamos mencionado que cada pixel almacena informacion acerca de la imagen, que va a denotar en lo que se llama la profundidad de color, lo que vendria a ser todo lo referido al tono y a la luminosidad de la imagen. Esta informacion esta contenida en numeros, siendo el tono negro el valor 0 y el blanco el valor mas alto, lo que normalmente es 255, pero en Formato Binario, que es una notacion numerica similar a la notacion cientifica usada en los decimales, pero especifica para el sistema digital. Cualquier cifra en sistema decimal requiere tantos numeros como tenga la cifra para ser expresado, pero en el formato binario un numero de dos cifras requiere de mas numeros para ser expresado, pero todas estas varian entre el 1 y el 0, que son los numeros en los cuales se expresan todas las cifras, dado a la forma que tienen las computadoras de almacenar la informacion a base de microinterruptores; podemos decir que el 0 y el 1 son interruptores, pero es solo porque estos encienden en una posicion y apagan en otra; bueno el uno significa una posicion para el sistema binario y el 0 significa otra posicion. Estos numeros por lo general, en conjunto, forman totales que son potencias de 2: 8, 16, 32. Estos 1 y 0 se llaman bits, y a cada conjunto de 8 bits se le llama Byte. Un numero en Formato binario no puede tener menos de 8 bits, por lo cual se le completa hasta alcanzar 1 byte, que seria la cifra minima de bits para los ordenadores.
Definiciones
Fotografía digital;
La fotografía digital consiste en la grabación de imágenes mediante una cámara, de forma análoga a la fotografía clásica. Sin embargo, así como en esta última las imágenes quedan grabadas sobre una película y se revelan posteriormente mediante un proceso químico, en la fotografía digital las imágenes son capturadas por un sensor electrónico que dispone de múltiples unidades fotosensibles y desde allí se archivan en otro elemento electrónico que constituye la memoria.
Pixel:
Un píxel o pixel (acrónimo del inglés picture element, "elemento de imagen") es la menor unidad homogénea en color que forma parte de una imagen digital, ya sea esta una fotografía, un fotograma de vídeo o un gráfico.
Ampliando lo suficiente una imagen digital (zoom), por ejemplo en la pantalla de un ordenador, pueden observarse los píxeles que componen la imagen. Los píxeles aparecen como pequeños cuadrados o rectángulos en color, en blanco o en negro, o en matices de gris. Las imágenes se forman como una matriz rectangular de píxeles, donde cada píxel forma un área relativamente pequeña respecto a la imagen total.
En las imágenes de mapa de bits o en los dispositivos gráficos cada píxel se codifica mediante un conjunto de bits de longitud determinada (la llamada profundidad de color); por ejemplo, puede codificarse un píxel con un byte (8 bits), de manera que cada píxel admite 256 variaciones (28 variaciones con repetición de 2 valores posibles en un bit tomados de 8 en 8). En las imágenes de color verdadero, se suelen usar tres bytes para definir un color; es decir, en total podemos representar un total de 224 colores, que suman 16.777.216 opciones de color (32 bits son los mismos colores que 24 bits, pero tiene 8 bits más para transparencia).
Bitmap:
Una imagen rasterizada, también llamada mapa de bits, imagen matricial o bitmap, es una estructura o fichero de datos que representa una rejilla rectangular de píxeles o puntos de color, denominada raster, que se puede visualizar en un monitor de ordenador, papel u otro dispositivo de representación.
A las imágenes rasterizadas se las suele caracterizar por su altura y anchura (en pixels) y por su profundidad de color (en bits por pixel), que determina el número de colores distintos que se pueden almacenar en cada pixel, y por lo tanto, en gran medida, la calidad del color de la imagen.
Los gráficos rasterizados se distinguen de los gráficos vectoriales en que estos últimos representan una imagen a través del uso de objetos geométricos como curvas de Bézier y polígonos, no del simple almacenamiento del color de cada pixel. El formato de imagen matricial está ampliamente extendido y es el que se suele emplear para tomar fotografías digitales y realizar capturas de vídeo. Para su obtención se usan dispositivos de conversión analógica-digital, tales como escáneres y cámaras digitales.
Puntos por pulgada.
Los puntos por pulgada (ppp) del inglés dots per inch (DPI) es una unidad de medida para resoluciones de impresión, concretamente, el número de puntos individuales de tinta que una impresora o tóner puede producir en un espacio lineal de una pulgada.
Generalmente, las impresoras de mayor definición (un alto ppp) producen impresiones más nítidas y detalladas. El valor de los ppp de una impresora depende de diversos factores, incluidos el método con el que se aplica la tinta, la calidad de los componentes del dispositivo, y la calidad de la tinta y el papel usado. Una impresora matricial, por ejemplo, aplica la tinta con diminutas varillas que golpean una cinta impregnada de tinta, y tiene una relativamente baja resolución, habitualmente entre 60 y 90ppp. Una impresora de inyección pulveriza tinta a través de minúsculas cánulas, y suele ser capaz de producir 300ppp. Una impresora láser aplica el tóner a través de una carga electrostática controlada, y puede estar entre los 600 a los 1200ppp.
El número de los puntos de tinta por pulgada que una impresora necesita imprimir sobre el papel será mayor que el número de píxeles que pretende representar. Esto se debe a la limitación de colores de tinta disponibles en una impresora: muchas impresoras a color utilizan sólo 4 tintas, mientras que un monitor de vídeo puede generar millones de colores. Cada punto de la impresora sólo podría ser de uno de esos 4 colores pero mezclando dichas tintas por parejas para imprimir un punto conseguimos más, hasta llegar a 8 colores posibles; mientras que un pixel de la pantalla de un ordenador puede iluminarse con un abanico de millones de colores distintos. El truco de las impresoras para ofrecer mayor variedad cromática es tratar de representar un pixel con 4 o 6 puntos de tinta, cada uno de ellos de un solo color pero que en conjunto consiguen imitar el valor cromático que la pantalla del ordenador representa con un solo pixel. Entonces, si para un pixel necesitamos 6 puntos de tinta tendremos que para un cuadrado de 10 x 10 píxeles ( = 100 píxeles) la impresora marcará sobre el papel 600 puntos de tinta.
Imágenes Pixelares
Como ya hemos venido desarrollando en todas las demas entradas del blog, sabemos que la imagen pixelar esta formada por un grupo ordenado de puntos llamados pixeles. Este tipo de imagenes juega un papel fundamental en la era digital, sobre todo en lo que respecta a lo que es la fotografia. Sabemos que cuanto mayor sea el numero de filas y columnas en la imagen mayor va a ser el detalle y la calidad digital en esta pero ¿como funciona una imagen en realidad?Habiamos mencionado que cada pixel almacena informacion acerca de la imagen, que va a denotar en lo que se llama la profundidad de color, lo que vendria a ser todo lo referido al tono y a la luminosidad de la imagen. Esta informacion esta contenida en numeros, siendo el tono negro el valor 0 y el blanco el valor mas alto, lo que normalmente es 255, pero en Formato Binario, que es una notacion numerica similar a la notacion cientifica usada en los decimales, pero especifica para el sistema digital. Cualquier cifra en sistema decimal requiere tantos numeros como tenga la cifra para ser expresado, pero en el formato binario un numero de dos cifras requiere de mas numeros para ser expresado, pero todas estas varian entre el 1 y el 0, que son los numeros en los cuales se expresan todas las cifras, dado a la forma que tienen las computadoras de almacenar la informacion a base de microinterruptores; podemos decir que el 0 y el 1 son interruptores, pero es solo porque estos encienden en una posicion y apagan en otra; bueno el uno significa una posicion para el sistema binario y el 0 significa otra posicion. Estos numeros por lo general, en conjunto, forman totales que son potencias de 2: 8, 16, 32. Estos 1 y 0 se llaman bits, y a cada conjunto de 8 bits se le llama Byte. Un numero en Formato binario no puede tener menos de 8 bits, por lo cual se le completa hasta alcanzar 1 byte, que seria la cifra minima de bits para los ordenadores.
Luis armando muciño
Apunte 2
“Remplazar la película”
Tomando en cuenta todos los datos científicos de esta lectura, me parece muy interesante y notorio es tomar en cuenta la brevedad en el que la película convencional y la cámara de y la cámara clásica ya tiene el un fin.
La cámara de tecnología digital está creciendo a pasos agigantados y su único fin es el de tener mayor calidad en cuanto a color, sus pixeles , buena resolución a la hora de tomar una foto en movimiento y lo más importante su velocidad para procesarla.
Parece que ya está quedando atrás las cámaras en las que tenias que comprar un rollo y luego llevarla para esperar 2 o 3 días para que solo 36 fotos las pudieras ver y eso si quedaban bien, a no ser por un apasionado de la fotografía clásica la cámara digital ofrece mucho mas opciones hoy en día gracias a la creación del CCD y años después el CMOS.
Su tecnología que ha ido evolucionando gracias a los pioneros de la fotografía, las tres gamas reinas del color en el mundo digital que son rojo azul y verde sean autónomos así logrando una mayor calidad de imagen, lo que se está tratando es que los pixeles suban hasta alcanzar al ojo humano o sobrepasarlo.
La idea se trata de crear una necesidad para que así el consumidor se de cuenta que tanto mas puede tener y aquí es cuando llega la memoria , en el pasado solo podías obtener 36 fotos por rollo ahora son miles de fotos las que puedes obtener dependiendo de la memoria que puedas obtener manejándolas en instantes y si quieres imprimirlas; el mundo digital ofrece un sin de opciones y lo mejor es que nos e detiene y crece cada vez con mas rapidez aunque la ligera desventaja es que en el mundo veloz de los consumidores una cámara a los 2 años se vuelve vieja y necesitas una con mayores pixeles o mayores funciones.
Apunte 2
“Remplazar la película”
Tomando en cuenta todos los datos científicos de esta lectura, me parece muy interesante y notorio es tomar en cuenta la brevedad en el que la película convencional y la cámara de y la cámara clásica ya tiene el un fin.
La cámara de tecnología digital está creciendo a pasos agigantados y su único fin es el de tener mayor calidad en cuanto a color, sus pixeles , buena resolución a la hora de tomar una foto en movimiento y lo más importante su velocidad para procesarla.
Parece que ya está quedando atrás las cámaras en las que tenias que comprar un rollo y luego llevarla para esperar 2 o 3 días para que solo 36 fotos las pudieras ver y eso si quedaban bien, a no ser por un apasionado de la fotografía clásica la cámara digital ofrece mucho mas opciones hoy en día gracias a la creación del CCD y años después el CMOS.
Su tecnología que ha ido evolucionando gracias a los pioneros de la fotografía, las tres gamas reinas del color en el mundo digital que son rojo azul y verde sean autónomos así logrando una mayor calidad de imagen, lo que se está tratando es que los pixeles suban hasta alcanzar al ojo humano o sobrepasarlo.
La idea se trata de crear una necesidad para que así el consumidor se de cuenta que tanto mas puede tener y aquí es cuando llega la memoria , en el pasado solo podías obtener 36 fotos por rollo ahora son miles de fotos las que puedes obtener dependiendo de la memoria que puedas obtener manejándolas en instantes y si quieres imprimirlas; el mundo digital ofrece un sin de opciones y lo mejor es que nos e detiene y crece cada vez con mas rapidez aunque la ligera desventaja es que en el mundo veloz de los consumidores una cámara a los 2 años se vuelve vieja y necesitas una con mayores pixeles o mayores funciones.
Suscribirse a:
Comentarios (Atom)
