UT3 Plataformas y sistemas de edición
y postproducción de imagen y sonido.
1. Características técnicas de los formatos de vídeo, cine, fotografía y sonido en
relación con el montaje y la postproducción de audiovisuales.
2. Técnicas de digitalización de imagen y sonido y su relación con el montaje y la
postproducción: compresión de vídeo, y códecs.
3. Técnicas de multigeneración de imagen y sonido.
4. Transferencia de archivos media entre diferentes aplicaciones: formatos intermedios
y formatos finales. La exportación de vídeo en función de los requerimientos de
difusión y distribución.
5. Características técnicas de los formatos de vídeo, cine, fotografía y sonido en
relación con el montaje y la postproducción de audiovisuales.
1. Vídeo:
• Resolución: Determina la calidad de la imagen. Hablamos de SD (Standard
Definition), HD (High Definition), Full HD, 4K y hasta 8K. Cuanto más alta la
resolución, más detalles, pero también más espacio de almacenamiento y
procesamiento.
Imagina que cada píxel es un pequeño lienzo y que cuantos más tengamos, más detalles
podremos plasmar. Pero, claro, a más lienzos, más espacio necesitamos en nuestra
galería. Así que, ¡luces, cámara, acción!
1. SD (Standard Definition):
• Píxeles: Generalmente, 720x480 (para NTSC) o 720x576 (para PAL).
• Uso: Era el estándar para las transmisiones de televisión antes de la era digital.
Piensa en esos viejos televisores de tubo.
• Detalles: Aunque puede parecer limitada hoy en día, esta resolución fue un gran
paso adelante en su momento.
2. HD (High Definition):
• Píxeles: 1280x720.
• Uso: Es el estándar mínimo para muchas transmisiones televisivas y plataformas de
streaming en la actualidad.
• Detalles: Aporta una claridad considerablemente mayor que el SD, permitiendo
visualizar detalles más finos.
3. Full HD:
• Píxeles: 1920x1080.
• Uso: Es una de las resoluciones más populares para televisores, monitores y
contenido de streaming. ¡El cine en casa!
• Detalles: Ofrece el doble de píxeles que el HD, lo que significa una imagen más
nítida y detallada.
4. 4K (Ultra High Definition):
• Píxeles: 3840x2160.
• Uso: Es la estrella emergente en el mundo del cine y la televisión, con muchos
directores optando por esta resolución para sus producciones.
• Detalles: Con cuatro veces más píxeles que el Full HD, el 4K permite una
postproducción más versátil, como recortes y estabilización, sin perder calidad.
5. 8K:
• Píxeles: 7680x4320.
• Uso: Aunque todavía no es el estándar, se está adoptando en producciones de
vanguardia y en eventos de gran envergadura, como los Juegos Olímpicos.
• Detalles: Ofrece una asombrosa cantidad de detalle, con 16 veces más píxeles que
el Full HD. Pero, claro, necesita una gran potencia de procesamiento y
almacenamiento.
Ahora, un detalle importante: mayor resolución no siempre significa "mejor". Hay que
considerar la relación entre la resolución y el tamaño de la pantalla o la distancia de
visualización. No notarás mucha diferencia entre 4K y 8K en un televisor pequeño.
Además, el almacenamiento y el procesamiento, como bien apuntaste, son factores
cruciales. Un archivo 8K es gigantesco y requiere equipos potentes para su edición.
• Frame Rate (FPS): Número de fotogramas por segundo. Un FPS más alto da una
imagen más fluida. En cine, se utiliza 24 FPS; en TV, 30 o 60 FPS. VER ANEXO
“NUESTRO AMIGO EL FRAME RATE”
Es como el latido del corazón de una película o vídeo. Es la cantidad de imágenes
individuales (fotogramas) que se muestran en un segundo.
1. 24 FPS (Fotogramas por segundo):
• Historia: Originalmente, el cine mudo se filmaba a velocidades de entre 16 a 23
FPS. Con la llegada del sonido, se estandarizó a 24 FPS para sincronizar el audio.
• Uso: Es el estándar para la mayoría de las películas y muchas series de televisión.
Tiene un "look" cinematográfico que muchos consideran más "natural" o "artístico".
• Características: El movimiento puede parecer un poco "saltón" comparado con
tasas más altas, pero esto es lo que le da ese toque mágico y distintivo al cine.
2. 30 FPS:
• Historia: Con la llegada de la televisión, en especial en sistemas NTSC, se
adoptaron los 30 FPS (bueno, técnicamente 29.97 FPS por cuestiones técnicas).
• Uso: Común en transmisiones de televisión, especialmente en EE.UU. También es
una tasa popular para grabaciones de vídeo.
• Características: Ofrece un movimiento ligeramente más fluido que 24 FPS. Es un
buen equilibrio entre la naturalidad y la fluidez.
3. 60 FPS:
• Historia: Con la tecnología moderna y la llegada de las pantallas de alta definición,
60 FPS se hizo posible y popular.
• Uso: Se usa en deportes, videojuegos y algunas producciones de alta definición
porque muestra un movimiento muy fluido.
• Características: Las imágenes son extremadamente suaves, y es especialmente
útil para capturar detalles rápidos, como un balón en movimiento o un coche de
carreras.
Ahora, una reflexión técnica pero vital: no todo necesita ser filmado a la tasa más alta
posible. Mientras que 60 FPS es genial para un partido de fútbol, podría hacer que una
película dramática parezca demasiado "real" y pierda ese aire cinematográfico.
• Bitrate: Es la cantidad de datos que se procesa en un tiempo específico. Un bitrate
mayor significa mayor calidad de vídeo, pero también mayor tamaño de archivo.
Imagina que estás en una carretera. El bitrate sería el número de coches que pueden
pasar por un punto específico en un tiempo determinado. Cuantos más coches (datos),
más información transportada, pero también más congestión (tamaño del archivo).
¡Vamos a desgranar esto!
Bitrate: Es la velocidad a la que se transmiten los datos de un archivo multimedia. Se
mide en kilobits por segundo (kbps) o megabits por segundo (Mbps).
• Calidad del vídeo y bitrate:
• Bajo bitrate: Produce una imagen más pixelada o borrosa, especialmente en
escenas con mucho movimiento. Es como si en nuestra carretera tuviéramos
pocos coches pero con espacios enormes entre ellos.
• Alto bitrate: Proporciona una imagen más nítida y detallada. En nuestra
metáfora, sería una carretera llena de coches, cada uno transportando mucha
información.
• Tamaño del archivo y bitrate:
• Bajo bitrate: Da como resultado archivos más pequeños, pero con una
calidad inferior. Es una opción si necesitamos ahorrar espacio o ancho de
banda, pero hay que ser cautelosos para no sacrificar demasiado la calidad.
• Alto bitrate: Los archivos serán más grandes, consumirán más espacio de
almacenamiento y requerirán más ancho de banda para la transmisión. Pero,
a cambio, obtenemos una calidad superior.
• Bitrate variable vs. constante:
• Bitrate Constante (CBR): Mantiene el mismo bitrate durante toda la
reproducción. Esto puede ser ineficiente porque no todas las escenas
requieren la misma cantidad de datos.
• Bitrate Variable (VBR): Ajusta el bitrate según la complejidad de cada
escena. Por ejemplo, una escena estática (como una entrevista) podría tener
un bitrate más bajo, mientras que una con mucho movimiento (como una
persecución de coches) tendría un bitrate más alto.
En el mundo del cine, la televisión y el streaming, elegir el bitrate adecuado es crucial. Es
un equilibrio entre calidad y eficiencia. Siempre hay que tener en mente el medio de
distribución. Por ejemplo, un Blu-ray permite bitrates muy altos, mientras que un
streaming en vivo por Internet podría requerir algo más moderado para garantizar una
reproducción fluida.
• Codec: Es la combinación de dos palabras: "COmpresor" y "DECompresor". Como
su nombre indica, su función es comprimir datos para hacerlos más pequeños y
luego descomprimirlos para su reproducción. Un Codec es una pieza de software
capaz de convertir una señal analógica a una digital para transmitirla sobre una red
de datos. Existen códecs de video y audio. Algunos de ellos son con pérdida y otros
sin pérdida.
Tipo
de
Formato de Compr
Códec Exportación esión Uso Características Compatibilidad
H.264 .mp4, .mkv, . Con Ampliamente Excelente Ampliamente
(AVC - mov pérdida utilizado en calidad de vídeo soportado por la
Advanced Blu-rays, con archivos mayoría de
Video streaming, pequeños. dispositivos y
Coding) cámaras, Buena calidad plataformas.
etc. incluso a
bitrates bajos.
H.265 .mp4, .mkv, . Con Ideal para Misma calidad Adopción en
(HEVC - mov pérdida 4K y 8K. que H.264 con crecimiento,
High Sucesor del un tamaño de especialmente en
Efficiency H.264. archivo hasta un dispositivos y
Video 50% menor. servicios
Coding) modernos.
AV1 .webm, .mkv Con Desarrollado Compresión En etapas
pérdida por la similar o mejor tempranas de
Alliance for que HEVC sin adopción, pero
Open Media tarifas de respaldado por
como licencia. grandes
alternativa a empresas como
HEVC. Google, Netflix y
Mozilla.
CÓDEC:
• ¿QUÉ ES? UN CÓDEC ES LA ABREVIATURA DE "CODIFICADOR-DECODIFICADOR". ES UNA
TECNOLOGÍA/SOFTWARE UTILIZADO PARA COMPRIMIR Y DESCOMPRIMIR ARCHIVOS
MULTIMEDIA.
• FUNCIÓN PRINCIPAL: SU TAREA ES REDUCIR EL TAMAÑO DEL ARCHIVO (COMPRESIÓN)
PARA SU ALMACENAMIENTO O TRANSMISIÓN, Y LUEGO RECUPERAR LA INFORMACIÓN
(DESCOMPRESIÓN) PARA SU REPRODUCCIÓN.
• EJEMPLOS: H.264, H.265, AV1, ETC.
• DESGLOSE VISUAL: IMAGINA UN CÓDEC COMO UN TRADUCTOR. TOMA LA INFORMACIÓN
CRUDA Y LA "TRADUCE" A UN LENGUAJE MÁS EFICIENTE PARA EL ALMACENAMIENTO O
LA TRANSMISIÓN. LUEGO, CUANDO NECESITAS VER O ESCUCHAR ESE ARCHIVO, EL
CÓDEC "TRADUCE" NUEVAMENTE ESA INFORMACIÓN PARA QUE PUEDAS ENTENDERLA
(ES DECIR, VERLA O ESCUCHARLA).
FORMATO (O CONTENEDOR):
• ¿QUÉ ES? ES EL ENVASE O "CAJA" QUE CONTIENE DIFERENTES TIPOS DE DATOS
MULTIMEDIA: VÍDEO, AUDIO, METADATOS, SUBTÍTULOS, ETC.
E
• FUNCIÓN PRINCIPAL: ORGANIZAR Y ALMACENAR LA INFORMACIÓN CODIFICADA POR EL
CÓDEC. ADEMÁS, PUEDE CONTENER VARIOS TIPOS DE CÓDECS EN SU INTERIOR. ES
DECIR, PUEDES TENER UN FORMATO QUE CONTENGA AUDIO CODIFICADO CON UN CÓDEC
Y VÍDEO CON OTRO DIFERENTE.
• EJEMPLOS: .MP4, .MKV, .AVI, .MOV, ETC.
• DESGLOSE VISUAL: PIENSA EN EL FORMATO COMO UNA MOCHILA (¡ESA MOCHILA QUE
LLEVAS A TUS CLASES!). DENTRO DE ESTA MOCHILA, PUEDES TENER LIBROS (VÍDEO),
CUADERNOS (AUDIO), LÁPICES (SUBTÍTULOS) Y MUCHO MÁS. CADA UNO DE ESTOS
ELEMENTOS PUEDE ESTAR ORGANIZADO DE UNA MANERA PARTICULAR (CODIFICADO CON
UN CÓDEC ESPECÍFICO), PERO TODOS ESTÁN DENTRO DE LA MISMA MOCHILA.
CONCLUSIÓN: EL CÓDEC ES EL PROCESO O HERRAMIENTA QUE CODIFICA Y DECODIFICA LA
INFORMACIÓN, MIENTRAS QUE EL FORMATO ES EL "ENVASE" QUE ALMACENA Y ORGANIZA ESA
INFORMACIÓN CODIFICADA. ES COMO SI PREPARARAS UNA RECETA DE COCINA (CÓDEC) Y
LUEGO LA SIRVIERAS EN UN PLATO ESPECÍFICO (FORMATO). AMBOS SON ESENCIALES PARA
ENTENDER, ALMACENAR Y TRANSMITIR INFORMACIÓN MULTIMEDIA DE MANERA EFICIENTE.
2. Cine:
• Film Stock: Es la película física. Hay diferentes tipos, como 35mm o 70mm, cada
uno con características únicas de grano y color.
• Aspect Ratio: Es la proporción entre el ancho y alto de la imagen. Hay varios, como
4:3 (clásico), 16:9 (moderno) y 2.35:1 (panorámico).
• Color Grading: Es el proceso de postproducción de ajustar y modificar los colores
y tonos de una imagen en movimiento para lograr un "look" o estilo visual específico
que refuerce la narrativa y emociones de la historia.
Corrección de Color vs. Grading:
• Corrección de Color: Es el primer paso, donde se ajustan las imágenes para
que tengan un aspecto natural y coherente. Aquí se corrigen problemas como
el balance de blancos, exposición y contraste.
• Color Grading: Una vez corregido el color, entra en juego el grading, que es
más artístico y subjetivo. Aquí se define el "look" final, que puede variar
desde tonos cálidos y románticos hasta estilos fríos y sombríos.
• Herramientas y Técnicas:
• Rueda de Color: Permite ajustar los tonos de las sombras, medios tonos y
luces de manera independiente.
• LUTs (Look-Up Tables): Son como "filtros" preestablecidos que se aplican
para lograr ciertos estilos. Por ejemplo, un LUT puede darle a tu vídeo un
estilo vintage o cinemático.
• Máscaras y Tracking: Permiten ajustar áreas específicas de la imagen, como
iluminar un rostro o cambiar el color del cielo.
• Importancia Narrativa:
• El grading no es solo estético. Puede reforzar la narrativa y las emociones.
Por ejemplo, un tono azulado puede transmitir frialdad o tristeza, mientras
que tonos dorados pueden evocar nostalgia o felicidad.
• Es esencial para establecer épocas, lugares y atmósferas. Piensa en una
escena de un western con tonos tierra, o en una película futurista con tonos
metálicos y neones.
3. Fotografía:
• RAW vs. JPEG: RAW es un formato sin compresión que permite más flexibilidad en
postproducción. JPEG es comprimido y pierde ciertos detalles.
• Profundidad de Color: Es el número de bits usados para cada color. Una
profundidad de 8 bits da 256 tonos por color, mientras que 16 bits da 65,536 tonos.
• Balance de Blancos: En postproducción, se ajusta para que los colores se vean
naturales.
4. Sonido:
• Frecuencia de Muestreo: Es la cantidad de veces que una señal de sonido es
muestreada por segundo. 44.1kHz es común para música; 48kHz para cine y TV.
• Bit Depth: Determina el rango dinámico. 16 bits es estándar para CDs, mientras que
24 bits es usado en producciones profesionales.
• Dolby Atmos, DTS, etc.: Son sistemas de codificación de audio multicanal.
Cuando hablamos de montaje y postproducción, es esencial entender estos conceptos.
Por ejemplo, un vídeo grabado en 4K permitirá cortes más precisos y zoom sin pérdida
de calidad. Un archivo de sonido con mayor bit depth ofrecerá más rango para ajustar
niveles sin distorsión.
La acústica es la parte de la física que estudia la producción, transmisión y percepción
del sonido tanto en el intervalo de la audición humana como en las frecuencias
ultrasónicas e infrasónicas.
El sonido es una onda mecánica longitudinal que se propaga a través de medios
elásticos materiales como pueden ser el aire, el agua, etc. Lo produce un objeto vibrante
que cede parte de su movimiento vibratorio a las partículas del medio que lo rodean, y se
desplaza a través de éste transportando energía a una determinada velocidad.
Las cualidades del sonido son:
• - Intensidad: cualidad que permite identificar y clasificar un sonido como fuerte y
otro como débil. Se mide en decibelios que es la medida de comparación o
relación, por lo que la intensidad carece de dimensiones y se calcula por la
comparación de la presión acústica de cualquier sonido con su referente.
El vúmetro es un instrumento que mide el nivel de una señal de audio. En tu cámara (o
software) concretamente mostrará el nivel de entrada.
Si observas bien te darás cuenta de que las unidades son -dB, negativas, con
valores de casi -40 a 0. El valor 0dB se refiere a la señal máxima, el punto en que la señal
saturaría. Los valores - dB lo que hacen es ahorrar unidades de voltaje, niveles y similares
para resumirlo diciendo “esta señal está -X veces por debajo del nivel máximo (0dB)”.
• - Tono: se refiere al tipo de frecuencias: graves, agudos, medios. El margen de
frecuencia del oído humano oscila entre 16 Hz-16000 Hz.
o - Frecuencias bajas: 16 a 200 Hz (tonos graves)
o - Frecuencias medias-bajas: 200 Hz a 1,6 Khz (tonos medios- graves)
o - Frecuencias medias-altas: 1,6 KHz a 6,1 KHz (tonos medios agudos)
o - Frecuencias altas: desde 6 Khz (tonos agudos)
- Timbre: cualidad que permite distinguir entre instrumentos distintos pero que tienen un
tono (frecuencia) de la misma altura (misma amplitud), es decir, que nos permite
identificar la fuente sonora.
El número de desplazamientos o ciclos producidos en un segundo en una onda que
representa un sonido, se conoce con el nombre de frecuencia que se mide en ciclos por
segundo o en hertzios. El término amplitud se refiere a la máxima variación del
movimiento. Una longitud de onda es la distancia recorrida por el sonido durante un
periodo de oscilación. El tiempo necesario para que se forme una onda completa, o el
tiempo transcurrido para que el movimiento se desplace una longitud de onda se
denominan periodo.
Las leyes de propagación de la onda sonora. Pueden comportarse de muchas maneras:
• - Reflexión: fenómeno ondulatorio que produce cuando la onda sonora al
propagarse colisiona con la superficie de separación de dos medios distintos.
• - Refracción: Es el cambio de dirección que sufre una onda sonora al pasar de un
medio a otro de distinta densidad como consecuencia de la diferencia de velocidad
de propagación.
• - Difracción: Cuando una onda sonora es interceptada por un obstáculo, todos los
puntos de ésta afectados por la perturbación sonora se convierten, en centros
emisores de ondas esféricas coherentes elementales.
• - Absorción: fenómeno por el cual una parte de la energía sonora que incide sobre
una superficie determinada es absorbida, transformándose en otra forma de
energía.
• - Reverberación: persistencia del sonido dentro de un recinto, después de que el
sonido original haya cesado.
- Resonancia: Para comprobar este fenómeno se toman dos diapasones ya que son
capaces de emitir dos sonidos a la misma frecuencia al colocarlos próximamente uno
al lado del otro. Cuando se golpea uno de los diapasones emite vibraciones
espontáneas que hacen resonar al otro sin necesidad de ser golpeado.
2. Técnicas de digitalización de imagen y sonido y su relación con el montaje y la
postproducción: compresión de vídeo y códecs.
1. Digitalización de Imagen y Sonido:
• Es el proceso de convertir información analógica (como una película o una
grabación de vinilo) en datos digitales que pueden ser procesados, almacenados y
transmitidos por dispositivos electrónicos.
• ¿Por qué digitalizar?
• Accesibilidad: Una vez que algo está digitalizado, se puede acceder desde
cualquier lugar y compartir fácilmente.
• Conservación: Los medios analógicos, como las películas y los vinilos, se
degradan con el tiempo. Digitalizarlos preserva su calidad original para
futuras generaciones.
• Manipulación: La edición y postproducción en formatos digitales es más
versátil y potente.
• Proceso de Digitalización:
• Escaneo o Captura: Se utiliza un dispositivo, como un escáner o un
convertidor, para "leer" la información analógica y convertirla en una serie de
datos digitales. Para el sonido, esto podría ser un convertidor analógico a
digital que transforma las ondas sonoras en datos digitales.
• Muestreo: Se toman "muestras" o "instantáneas" de la información a
intervalos regulares. Cuanto mayor sea la tasa de muestreo, más precisa será
la digitalización.
• Cuantificación: Se asigna un valor numérico a cada muestra basado en su
amplitud.
• Codificación: Los valores numéricos se convierten en código binario (ceros y
unos) para ser procesados y almacenados por dispositivos electrónicos.
• Formatos y Archivos:
• Una vez digitalizada, la información se almacena en formatos específicos. Por
ejemplo, las imágenes pueden guardarse como JPEG o PNG, y el sonido
puede almacenarse como MP3 o WAV.
• Estos formatos tienen diferentes características, como compresión y calidad.
• Desafíos y Consideraciones:
• Calidad vs. Tamaño: La digitalización puede implicar un equilibrio entre la
calidad y el tamaño del archivo. Una mayor calidad a menudo resulta en
archivos más grandes.
• Derechos de Autor: Al digitalizar, hay que considerar los derechos de autor,
especialmente si se planea compartir o distribuir el contenido.
• Tecnología Obsoleta: Con la rápida evolución de la tecnología, los formatos
y dispositivos pueden quedar obsoletos. Es importante mantenerse
actualizado y, a veces, redigitalizar el contenido.
2. Compresión de Vídeo:
• Es esencial para manejar y transmitir grandes cantidades de datos de vídeo. La
compresión reduce el tamaño del archivo, lo que facilita su almacenamiento y
transmisión.
• Tipos:
•Con pérdida (Lossy): Reduce el tamaño del archivo eliminando cierta información.
Ejemplos incluyen JPEG para imágenes y MP3 para audio.
•Sin pérdida (Lossless): Conserva toda la información original, pero el tamaño del
archivo sigue siendo relativamente grande. Ejemplos son PNG para imágenes y FLAC
para audio.
La tecnología utilizada varía según el tipo de medio que se esté digitalizando. Veamos las
principales herramientas y dispositivos que nos permiten realizar esta magia:
• Para Películas y Videos:
• Telecine: Convierte películas, especialmente aquellas en formatos como
8mm, 16mm y 35mm, a vídeo. El proceso implica proyectar la película y
capturar la proyección con una cámara de vídeo.
• Escáneres de Película: Dispositivos más modernos que escanean
directamente cada fotograma de la película para obtener una digitalización de
alta calidad.
• Convertidores de Vídeo Analógico a Digital: Para cintas de vídeo, como
VHS, Betamax o Hi8, se utilizan dispositivos que capturan el contenido de la
cinta mientras se reproduce y lo convierten en un archivo digital.
• Para Audio:
• Convertidores Analógico a Digital (ADC): Estos dispositivos toman la señal
analógica de una fuente, como un tocadiscos o una cinta de cassette, y la
convierten en una señal digital.
• Tocadiscos USB: Permiten conectar directamente un tocadiscos a una
computadora para digitalizar discos de vinilo.
• Cassette a MP3 Converters: Dispositivos diseñados para convertir cintas de
cassette directamente a archivos MP3.
• Para Fotografías y Diapositivas:
• Escáneres de Fotos: Permiten digitalizar fotografías impresas. Algunos
ofrecen alta resolución y la capacidad de escanear varios tamaños de fotos.
• Escáneres de Diapositivas y Negativos: Están diseñados específicamente
para escanear diapositivas y negativos, capturando cada detalle y color.
2. Técnicas de multigeneración de imagen y sonido.
Imagina que estás contando una historia y, con cada nuevo oyente, la historia se va
transformando un poco, perdiendo o ganando ciertos detalles. Algo similar ocurre cuando
trabajamos con múltiples generaciones de medios audiovisuales.
• Concepto Básico:
• La multigeneración se refiere al proceso de copiar o transferir contenido de un
medio a otro varias veces. Cada copia o transferencia se considera una nueva
“generación".
• Desafíos y Problemas:
• Degradación: Con cada nueva generación, especialmente en medios analógicos,
hay una pérdida de calidad. Esto puede manifestarse en la imagen como granulado,
pérdida de detalle o cambios de color, y en el sonido como ruido, distorsión o
pérdida de claridad.
• Errores Acumulativos: Los errores o problemas presentes en una generación se
transferirán y, a menudo, se amplificarán en las siguientes generaciones:
• Errores de Imagen:
• Granulado o Ruido: Especie de "puntos" o "manchas" aleatorios que aparecen en
la imagen. En cada generación, el ruido puede aumentar, haciendo que la imagen
sea menos clara.
• Desvanecimiento de Color: Los colores pueden comenzar a perder su vivacidad o
cambiar de tono. Por ejemplo, una imagen puede adquirir un tono más amarillo o
rojo con el tiempo.
• Pérdida de Detalle: Los detalles finos de una imagen, como las texturas o las
características faciales, pueden comenzar a difuminarse o desaparecer.
• Artefactos de Compresión: En medios digitales, la compresión excesiva puede
generar "bloques" o "anillos" visibles, especialmente en áreas de transición de color.
• Errores de Sonido:
• Ruido de Fondo: Un zumbido, chisporroteo o crujido que no estaba en la grabación
original puede volverse más prominente.
• Distorsión: Los sonidos pueden volverse más "metálicos" o "saturados",
especialmente en los picos de volumen.
• Pérdida de Claridad: Las frecuencias altas y bajas pueden degradarse, haciendo
que las voces y los instrumentos pierdan definición.
• Desincronización: En casos donde el video y el audio se manejan por separado,
pueden surgir problemas de sincronización, donde el audio no coincide con la
imagen.
• Errores Físicos en Medios Analógicos:
• Rayaduras o Daños: Las cintas de película o las grabaciones de vinilo pueden sufrir
daños físicos, como rayaduras, que se reflejarán en las copias.
• Desgaste: El simple acto de reproducir un medio analógico puede causar un
desgaste que afecta la calidad.
•
• Errores de Transferencia:
• Interferencias: Durante la transferencia o copia, las interferencias electrónicas o
magnéticas pueden introducir errores.
• Problemas de Velocidad: Si hay discrepancias en la velocidad de reproducción y
grabación, puede resultar en un contenido acelerado o ralentizado.
• Aplicaciones y Contexto:
• Edición Analógica: En los días previos a la edición digital, los cineastas y editores a
menudo trabajaban con múltiples copias y cortes de una película. Cada edición
podía resultar en una nueva generación, con la consiguiente pérdida de calidad.
• Cintas Maestras: En la producción de música, las grabaciones originales se
conocen como "cintas maestras". Copiar estas cintas para producción y distribución
crea nuevas generaciones.
• Digital vs. Analógico:
• Analógico: Como mencionamos, los medios analógicos sufren una degradación
notable con cada generación. Las cintas de vídeo o audio pueden perder calidad
rápidamente después de solo unas pocas generaciones.
• Digital: Una de las ventajas de lo digital es que, en teoría, puedes hacer copias
infinitas sin pérdida de calidad. Sin embargo, si trabajas con archivos comprimidos
(como MP3 o JPEG), cada vez que descomprimes y recomprimes durante la edición,
puedes experimentar pérdidas.
• Minimizando Problemas en la Multigeneración:
• Trabajar con Originales: Siempre que sea posible, es recomendable trabajar
directamente con la fuente original o la generación más baja disponible.
• Uso de Formatos de Alta Calidad: En el ámbito digital, trabajar con formatos sin
pérdida o con baja compresión puede ayudar a minimizar la degradación a lo largo
de múltiples ediciones.
• Restauración: Las tecnologías modernas permiten restaurar y mejorar medios
degradados, aunque es un proceso que puede ser laborioso y costoso.
3. Transferencia de archivos media entre diferentes aplicaciones: formatos
intermedios y formatos finales. La exportación de vídeo en función de los
requerimientos de difusión y distribución.
1. Transferencia de Archivos Media entre Diferentes Aplicaciones:
a. Formatos Intermedios:
• Características Principales:
• Alta Calidad: Estos formatos mantienen la mayor calidad posible para
asegurar que no haya pérdida de información durante las etapas de edición y
postproducción.
• Menos Compresión: Aunque están ligeramente comprimidos para
manejarlos de manera eficiente, la compresión es mínima para evitar la
pérdida de datos.
• Flexibilidad: Diseñados para ser compatibles con una variedad de software y
hardware, facilitando la transferencia entre diferentes aplicaciones.
• Ejemplos Detallados:
• Apple ProRes: Desarrollado por Apple, ProRes es un códec ampliamente
utilizado en la industria. Tiene diferentes variantes, desde ProRes 422 LT
(menos datos, más compresión) hasta ProRes 4444 XQ (máxima calidad, con
soporte para canales alfa).
• Avid DNxHD/DNxHR: Desarrollado por Avid, DNxHD estaba originalmente
optimizado para HD, mientras que DNxHR es para resoluciones más altas
como 2K, 4K y 8K. Están diseñados para ser eficientes y mantener la calidad
a lo largo de complejos flujos de trabajo de postproducción.
• CineForm: Un códec de GoPro, CineForm es conocido por su eficiencia y
calidad. Es ideal para trabajos que requieren alta fidelidad y es ampliamente
utilizado en la industria del cine.
b. Formatos Finales (o de Entrega):
• Características Principales:
• Optimizados para Distribución: A diferencia de los formatos intermedios,
estos códecs están diseñados para que los archivos sean lo más pequeños
posible para facilitar su distribución y streaming.
• Balance Calidad-Tamaño: Aunque están comprimidos, buscan mantener
una alta calidad visual y auditiva.
• Ejemplos Detallados:
• H.264: Es el estándar de facto para la distribución en la web y el streaming.
Ofrece una excelente calidad con un tamaño de archivo razonable. Es el
códec más comúnmente utilizado para plataformas como YouTube, Vimeo y
muchos servicios de transmisión.
• H.265 (o HEVC): Es el sucesor del H.264 y ofrece una compresión aún más
eficiente. Es ideal para contenido 4K y 8K, ya que puede ofrecer la misma
calidad que H.264 con aproximadamente la mitad del tamaño del archivo.
• MPEG-2: Aunque es un poco más antiguo, todavía se utiliza ampliamente,
especialmente para la transmisión de televisión y DVDs. No es tan eficiente
como H.264 o H.265 en términos de compresión, pero sigue siendo un
estándar en ciertas áreas.
•
2. Exportación de Vídeo en Función de los Requerimientos de Difusión y Distribución:
Exportación de Vídeo en Función de los Requerimientos de Difusión y Distribución:
• Plataforma o Medio de Difusión:
• Televisión: Cada cadena o estación de televisión puede tener sus propias
especificaciones técnicas, incluyendo resolución, bitrate, códecs, formatos
de audio y más. Por ejemplo, muchas emisoras utilizan MPEG-2 para las
transmisiones.
• Cine: Para proyecciones cinematográficas, se pueden requerir formatos de
alta calidad como DCP (Digital Cinema Package). Estos son paquetes
digitales que mantienen la máxima calidad de imagen y sonido para
proyecciones en salas de cine. OpenDCP es un software gratuito con el que
se puede elaborar este paquete, aunque perfectamente se puede hacer
desde Premiere.
DCP (DIGITAL CINEMA PACKAGE):
EL DCP ES EL FORMATO ESTÁNDAR UTILIZADO PARA DISTRIBUIR Y PROYECTAR PELÍCULAS EN
CINES DIGITALES. ES UNA COLECCIÓN DE ARCHIVOS DIGITALES QUE CONTIENE TODA LA
INFORMACIÓN NECESARIA PARA PROYECTAR UNA PELÍCULA: EL VÍDEO, EL AUDIO, LOS
METADATOS, Y OPCIONALMENTE LOS SUBTÍTULOS. ESTOS ARCHIVOS ESTÁN ORGANIZADOS Y
COMPRIMIDOS DE UNA MANERA ESPECÍFICA PARA GARANTIZAR LA MÁXIMA CALIDAD Y
SEGURIDAD DURANTE LA PROYECCIÓN.
• COMPONENTES DE UN DCP:
• VÍDEO: POR LO GENERAL, CODIFICADO CON EL CÓDEC JPEG 2000, QUE PERMITE
UNA COMPRESIÓN SIN PÉRDIDA O CON PÉRDIDA MÍNIMA.
• AUDIO: USUALMENTE EN FORMATO PCM SIN COMPRESIÓN PARA GARANTIZAR LA
MÁXIMA CALIDAD.
• SUBTÍTULOS: EN FORMATOS XML QUE PERMITEN SUPERPONERLOS SOBRE EL
VÍDEO DURANTE LA PROYECCIÓN.
• METADATOS: INFORMACIÓN QUE GUÍA LA PROYECCIÓN, COMO LA RELACIÓN DE
ASPECTO, LA DURACIÓN, LA TASA DE FOTOGRAMAS, ENTRE OTROS.
• CALIDAD Y RESOLUCIÓN:
• LOS DCPS ESTÁN GENERALMENTE EN 2K O 4K, AUNQUE LA RESOLUCIÓN 2K HA
SIDO LA MÁS COMÚN EN LA MAYORÍA DE LOS CINES. SIN EMBARGO, CON LA
LLEGADA DE PROYECTORES DE CINE MÁS AVANZADOS, EL 4K ESTÁ GANANDO
TERRENO.
• SEGURIDAD:
• UNA DE LAS CARACTERÍSTICAS MÁS DESTACADAS DEL DCP ES SU ENFOQUE EN LA
SEGURIDAD. LOS DCPS PUEDEN SER ENCRIPTADOS PARA PREVENIR LA PIRATERÍA
Y SÓLO PUEDEN SER REPRODUCIDOS UTILIZANDO UNA "LLAVE" O KDM (KEY
DELIVERY MESSAGE) QUE ES ESPECÍFICA PARA CADA PROYECTOR Y PARA UN
PERÍODO DE TIEMPO DETERMINADO.
• CREACIÓN DE UN DCP:
• LA CREACIÓN DE UN DCP ES UN PROCESO TÉCNICO QUE GENERALMENTE SE
REALIZA UTILIZANDO SOFTWARE ESPECIALIZADO. ES CRUCIAL ASEGURARSE DE
QUE EL DCP SEA CREADO Y PROBADO CORRECTAMENTE PARA EVITAR PROBLEMAS
DURANTE LA PROYECCIÓN.
• DISTRIBUCIÓN:
• UNA VEZ CREADO, EL DCP SE ALMACENA GENERALMENTE EN DISCOS DUROS O
SERVIDORES Y SE ENVÍA A LOS CINES. EN EL CINE, EL DCP SE CARGA EN UN
SERVIDOR DE CINE DIGITAL, QUE ESTÁ CONECTADO AL PROYECTOR.
• VENTAJAS SOBRE FORMATOS TRADICIONALES:
• A DIFERENCIA DE LAS PELÍCULAS EN CELULOIDE, LOS DCPS NO SE DEGRADAN
CON EL TIEMPO O CON MÚLTIPLES PROYECCIONES. ADEMÁS, OFRECEN
FLEXIBILIDAD EN TÉRMINOS DE PROGRAMACIÓN Y DISTRIBUCIÓN, Y LA
CAPACIDAD DE INCLUIR CONTENIDOS ADICIONALES COMO TRAILERS O ANUNCIOS.
• Web/Streaming: Plataformas como YouTube, Vimeo, y servicios de
streaming como Netflix o Hulu tienen sus propias especificaciones. Por lo
general, H.264 es el códec preferido para la web debido a su equilibrio entre
calidad y tamaño de archivo.
• Dispositivos Móviles: Aquí, la eficiencia es clave. Es posible que necesites
una resolución más baja y una compresión más alta para asegurar tiempos
de carga rápidos y reproducción fluida.
• Resolución:
• Depende del medio de difusión. Mientras que la televisión HD utiliza 1080p o
720p, las plataformas de streaming ofrecen desde SD hasta 4K o incluso 8K.
Para el cine, 2K y 4K son estándares comunes.
• Bitrate:
• Esencialmente, es la cantidad de datos procesados por segundo en el vídeo.
Un bitrate más alto generalmente significa una mejor calidad, pero también
un archivo más grande. Las plataformas de streaming suelen tener
recomendaciones de bitrate para garantizar una reproducción fluida.
• Formato y Códec:
• Además de los mencionados anteriormente, también podrías considerar
formatos como AVI, MOV, MKV, y muchos otros, dependiendo de la
plataforma y el propósito.
• Audio:
• El formato, la tasa de bits y la configuración del canal (estéreo, 5.1, 7.1)
deben ser adecuados para el medio. Por ejemplo, para una película en un
cine, podrías optar por audio surround 7.1, mientras que para la web, el
estéreo podría ser suficiente.
• Subtítulos y Metadatos:
• Dependiendo de la plataforma o el país, podrías necesitar incluir subtítulos o
metadatos específicos. Los servicios de streaming como Netflix tienen
requisitos específicos para los subtítulos.
• Controles de Calidad:
• Antes de la distribución final, es crucial revisar el vídeo exportado para
asegurarse de que cumple con las especificaciones y que no hay errores o
problemas de calidad.
• Archivos Adjuntos y Materiales Adicionales:
• Para algunas formas de distribución, es posible que también necesites
proporcionar archivos adicionales, como trailers, imágenes promocionales, o
incluso documentos con especificaciones técnicas.
Bibliografía y recursos usados y/o recomendados:
• "In the Blink of an Eye" por Walter Murch.
• Un clásico en la edición de cine. Walter Murch, uno de los editores más
respetados de Hollywood, comparte sus reflexiones y experiencias sobre el
arte y la técnica de la edición.
• "The Filmmaker's Handbook: A Comprehensive Guide for the Digital Age" por
Steven Ascher y Edward Pincus.
• Una guía completa que cubre todos los aspectos de la producción
cinematográfica, desde la preproducción hasta la distribución.
• "Digital Filmmaking Handbook" por Sonja Schenk y Ben Long.
• Un recurso detallado sobre el proceso de realización de películas digitales,
cubriendo la cámara, la edición, y la postproducción.
• "Color Correction Handbook: Professional Techniques for Video and Cinema"
por Alexis Van Hurkman.
• Una guía detallada sobre corrección de color y grading, esencial para
cualquiera que quiera profundizar en la postproducción de color.
• "Digital Cinema: The Revolution in Cinematography, Post-Production, and
Distribution" por Brian McKernan.
• Un análisis profundo de cómo la tecnología digital ha transformado todos los
aspectos de la realización cinematográfica.
• "Compression for Great Video and Audio: Master Tips and Common Sense" por
Ben Waggoner.
• Un libro que se adentra en el mundo de la compresión de vídeo y audio,
cubriendo códecs, bitrates y más.
• "The Complete Guide to Film and Digital Production" por Lorene Wales.
• Cubre tanto la producción en film como en digital, ofreciendo una visión
general de todo el proceso de producción.
• Recursos Web y Blogs:
• No Film School: Un recurso en línea para cineastas independientes con
artículos, tutoriales y discusiones sobre diversos aspectos de la producción y
postproducción.
• RedShark News: Cubre noticias y artículos sobre tecnología de cine y vídeo,
incluyendo cámaras, software y técnicas.
• Publicaciones de Organizaciones y Asociaciones:
• Organizaciones como la Society of Motion Picture and Television
Engineers (SMPTE) o la American Society of Cinematographers (ASC)
publican regularmente investigaciones, artículos y estándares relacionados
con la industria.