1. EDICIÓN DE VIDEO
La edición de vídeo es un proceso en el cual un editor coloca
fragmentos de vídeo, fotografías, gráficos, efectos digitales o
cualquier otro material audiovisual en una cinta de vídeo o
un archivo informático llamado master, del que se generarán
después las distintas copias y así obtener un video final para
cualquier uso comercial, periodístico, documental, escolar,
etc. En la mayoría de los casos se incluye audio que puede
ser música o el diálogo de personajes.
2. ¿ EDICIÓN O MONTAJE ?
Edición: La edición se caracteriza por la necesidad imperativa de
seleccionar, entre los planos grabados, aquellos que realmente se
adapta a las necesidades expresivas suprimiendo todo aquello
que resulte innecesario para expresar la idea narrativa, tomando
en cuenta para ello:
1) Cambio de lugar
2) Cambio de ángulo de la toma
3) Cambio de objetivo
4) Cambio de plano
5) Introducción de un detalle como paréntesis de
confirmación, de puesta en duda.
3. 6) Evocación: a) de tiempo pasado, b) de tiempo futuro, c)
a distancia, en el mismo tiempo
7) Acciones paralelas, o sea la extensión del precedente
8) Contraste o antítesis
9) Asociación o metáfora, fenómeno inverso del contraste
10) Estribillo o leit motiv, en caso de la señal visual una
imagen retorna periódicamente
11) Rima o alusión plástica
12) Concentración, transición a un plano más cercano.
13) Ampliación, transición a un plano más largo
4. MONTAJE
El montaje es la ordenación narrativa y rítmica de todos los
elementos objetivos del relato (auditivos, gráficos y visuales, que,
de acuerdo a un guión). El proceso de escoger, ordenar y
empalmar todos los planos que se registraron pensando en la
coherencia secuencial del montaje para sintetizarse e integrarse
de manera articulada mediante el uso del lenguaje audiovisual
según una idea previa y un ritmo determinado.
5. El montaje secuencial que se realiza en la
edición con y sobre las imágenes es
homóloga al proceso de escritura, se trabaja
bajo una sintaxis visual y reglas de
coherencia. Es aquí cuando el realizador
articula los planos para estructurar una
nueva realidad.
7. El vídeo presentaba numerosas
ventajas. Podía grabar el sonido al
mismo tiempo que la imagen y en el
mismo soporte, no necesita ser
revelado ni crear una copia de trabajo
en positivo, se podía trabajar con él
directamente.
Uno de sus problemas era no poder ver
cada parte, por eso, en 1967 la
empresa EECO produjo las cintas con
código de tiempos para identificar la
hora, el minuto, el segundo y el cuadro
de una cinta.
8. Cinco años después, la SMPTEE
(Society of Motion Picture and
Television Engineers) y la UER (Unión
Europea de Radiodifusión) crearon el
estándar SMPTE. Esto, unido a la
mejora de la informática, permitió el
nacimiento de las mesas con dicho
código y un ahorro considerable de
tiempo a la hora de buscar y visionar el
fragmento deseado (Ohain, 1996,
p. 31).
9. Para realizar la edición con estas innovaciones
se necesitaban por lo menos
dos magnetoscopios, uno como fuente, lector o
reproductor (player) y otro el grabador
(recorder). El proceso de edición consiste en
grabar en el recorder la señal reproducida por
el player.
Hasta la entrada de los mezcladores de vídeo,
la transición entre secuencias se hacía por
corte. Este dispositivo permitía controlar más de
un magnetoscopio y así apareció la edición A/B
roll con capacidad para realizar encadenados y
otras cortinillas al mezclar las imágenes de dos
fuentes. La expresión "A/B roll" viene también
del cine y es una contracción de "A roll in B"
cuando una escena se veía superpuesta o
compartiendo pantalla con otra (Evans, 2006,
p. 252).
10. Había otro problema para la salas de
edición. Muchos de los trabajos
profesionales en vídeo debían
terminarse pensando en realizar
copias para el NTSC estadounidense
de 525 líneas de definición con una
frecuencia de 30 cuadros por segundo
o el PAL europeo de 625 líneas
refrescadas 25 veces por segundo,
además estaban los formatos de cine
con películas de 16 mm y 32 mm
principalmente y reproducido a 24
fotogramas por segundo.
11. Durante la década de 1970 las ediciones
profesionales se realizaban en cintas de
2".
Pero en 1978 salió la cinta de vídeo C
de 1" y bobina abierta que se convirtió
en el estándar profesional durante los
años 1980.
Posteriormente el formato Betacam de
Sony con 625 líneas de definición fue
imponiéndose dentro del ámbito
profesional, pero sin llegar a
monopolizarlo hasta la llegada del
12. Todos ellos requerían inversiones
inaccesibles para los aficionados e incluso
para televisiones locales, por eso fueron
aparecieron otros como el VHS del
consorcio liderado por JVC, el Betamax de
Sony,2000 alemán o 8mm japonés con algo
más de 200 líneas de definición en
cualquier caso.
Más calidad daban el S-VHS o Hi-8 con
unas 400 líneas empleados por
profesionales para trabajo sin calidad
broadcast. Esta variedad de formatos
conllevaba varios procesos de conversión
que a veces podían ser largos y caros por
necesitar incluso máquinas especiales para
realizar la conversión
13. Edición lineal
Utilizando un magnetoscopio con un monitor y
grabando la imagen en otro se resolvía el problema
de acercar con el punto exacto para el "corta y
pega". A esta edición se la denomina "lineal"
porque los aparatos reproductores solo podían
moverse hacia adelante o hacia atrás (Konigsberg,
2004, p. 183). Por tanto, para llegar a un momento
determinado, era necesario avanzar o rebobinar la
cinta, a una u otra velocidad.
14. 15 editores de vídeo para Windows gratuitos
VirtualDub
Windows Movie Maker 2.6
Cinefx Jashaka
AVIedit
VideoPad Video Editor
Moviestorm
VideoSpin
Xilisoft Video Editor
Apple iMovie for Mac
Wax
VideoThang
MPEG Streamclip
VideoSpirit Pro
OpenShot Video Editor
Magix Movie Edit Pro MX Plus
15. Otra limitación de la edición lineal aparecía
cuando se deseaba variar la duración de
una secuencia intermedia o sustituirla por
otra más corta o más larga. Entonces era
necesario volver a editar todas las
posteriores, debido a los problemas de
rotura (ver más adelante) . Pese a todo,
este tipo de edición sustituyó a la de corte y
empalmado físico y se llevó a cabo con
multitud de equipos y sistemas, caso de los
populares VHS, S-VHS, Hi8... pero también
de los profesionales Betacamde Sony y
el U-matic alta banda, los dos con calidad
de emisión (Broadcast).
16. EDICIÓN NO LINEAL
Consiste en manipular material audiovisual sin ningún orden. Se puede colocar
una secuencia, después otra, luego una tercera, ampliar la primera, cambiar la
segunda por otra. Es la edición de archivos digitalizados a través de programas
informáticos para manipular los archivos. Una vez realizado el montaje, se puede
exportar a un archivo para reproducirlo en la Web, CD, DVD o dispositivos
portátiles como un ipod, psp, mp3, etc.
La edición no lineal es la utilizada por la tecnología digital. Esta forma de edición
permite ordenar los cuadros en el orden en que se deseen. Se puede tratar
cualquier cuadro de imagen de forma directa sin necesidad de seguir toda la
secuencia, independiente de la forma y orden de como hemos grabado el video.
18. Estos equipos constaban de un
magnetoscopio grabador y varios
reproductores, hasta 27 en algunos casos.
El editor seleccionaba una primera
secuencia, después una según, luego una
tercera... por su parte, la máquina
colocaba uno de los magnetoscopios al
principio de la primera secuencia, el
segundo al principio de la segunda... Así el
visionado y la grabación eran continuos,
pese a saltar de una fuente a otra. Cuando
el número de fragmentos era superior al
de magnetoscopios, el primero libre que
tuviera la secuencia deseaba se
desplazaba hasta el primer cuadro de la
misma y la reproducía cuando llegara el
momento.
19. Los equipos basados en cinta de vídeo
aparecieron a principios de los ochenta,
poco después de nacer los aparatos
reproductores y grabadores domésticos
(Konigsberg, 2004). Según Ohanian (1996,
p. 88) el primero se denominabaMontage
Picture Processor y salió al mercado en
1984. ParaJacobson (2010, p. 423) tal
honor le corresponde al Ediflex,
comercializado en 1983. Touch Visión
lanzó por su parte el BHP Touch Vision de
1986. Todos empleaban cintas VHS
oBetamax y funcionaron hasta la llegada
de los equipos digitales. Estas máquinas
ofrecían, entre otros subproductos, una
EDL, una lista de corte de negativo y una
copia de visionado.
20. SEGUNDA GENERACIÓN (POR DISCO LÁSER)
Esta generación surgió casi al mismo tiempo que la basada en cinta
de vídeo. Empleaba varios lectores de discos láser del tipo Velocidad
angular constate (CAV en inglés), pero hubo excepciones. En
principio se necesitaban cuatro reproductores como mínimo, uno
para suministrar las imágenes A, otro con el sonido de las imágenes
A, un tercero con las imágenes B y un cuarto con el sonido de las
imágenes B; pero con la posterior entrada de discos láser de doble
cara y reproductores con doble cabezal el número de máquinas
mínimas se redujo a dos.
22. En 1988 apareció el primer editor no lineal basada en un
computador por entero, desde las fuentes hasta el resultado
final. Se llamó EMC2 fabricado por Editing Machines
Corporation y usaba como plataforma un IBM PC. Las
imágenes se comprimían siguiendo el algoritmo compresión
asistido por hardware JPEG empleando la resolución visible del
NTSC (720 columnas por 480 líneas). Respecto al audio sus
resoluciones podían variar entre 16 y 48 KHz. En total poseía
una capacidad máxima de 24 horas de material. A este
producto le siguieron otros como el Avid Media Composer o
elLightworks.
Sony había lanzado en 1986 la primera cinta digital, la D1, y
estaba trabajando en el sistema de registro Betacam Digital;
pero aún no era posible utilizar los archivos digitales como
brutos de cámara. Los equipos pertenecientes a esta
generación digitalizaban las imágenes de vídeo o el telecinado
en caso de ser película utilizando la compresión JPEG, por lo
tanto, sufrían pérdida de calidad entre generaciones, también
se requería tiempo para digitalizar el material
23. Pese a que algunas marcas vendieron
cientos o incluso miles de sistemas,
constituían una inversión considerable
porque incluían una tarjeta gráfica potente
para mostrar las imágenes en pantalla, un
procesador también potente para realizar
los primeros y primitivos efectos digitales,
una tarjeta compresora y descompresora
para tratar el algoritmo JPGE, mucha
memoria RAM para la época y varios discos
duros de gran capacidad. Por ejemplo, una
hora de material en sistema PAL requería
un disco duro de 8.2 GBytes,3 en un tiempo
que un GByte de almacenamiento podía
llegar a costar 1 000 dólares
24. La tercera generación trajo varias
novedades en comparación con las
anteriores. Entre otras cabe destacar:
Con los nuevos medios podía exportarse
un historial completo de acciones
realizadas en lugar de una simple EDL,
con lo cual todas las decisiones sobre
cortinillas o sonido iban incluidas.
El acceso a cualquier parte del material
era realmente aleatorio.
Varios efectos podían crearse con el
propio aparato, caso de la titulación o la
incorporación de imágenes.
25. CUARTA GENERACIÓN
Al contrario que las anteriores, la cuarta generación no se
basaba en nuevas tecnologías. Las ventajas aportadas por
la generación anterior hacían presagiar un momento
donde la sala off-line y la sala on-line se unieran en un
mismo equipo, es decir, que un sólo sistema pudiese
realizar las concatenaciones de planos, la titulación, los
efectos digitales, las capturas, la edición de audio
multipista, para producir un resultado en cinta o en
archivo informático con calidad suficiente para ser
emitido.
26. El Avid Media Composer 8000, aparecido en 1999, ya podía
producir anuncios y programas de televisión con calidad suficiente
como para sustituir a las dos salas. Esto se debió a varios factores
entre los que destacan el abaratamiento en los sistemas de
almacenamiento, tanto en memoria RAM como en disco y las
mejores prestaciones de los programas, con editores de sonido
multipistas o la posibilidad de crear nuevos efectos digitales.
28. La quinta generación de edición digital se diferencia de las demás por
poder trabajar con brutos de cámara digitales en su formato nativo, el
RAW. Esto se debió a la confluencia de varios factores. Por una parte, la
mejora de la tecnología Flash con una capacidad de almacenamiento
próxima a los cien GBytes por cada tarjeta, Por otra parte, al
nacimiento de cámaras como la Red One capaces de grabar en 4K y
hasta 30 fps una hora o más en tarjetas, por lo tanto con acceso
aleatorio y sin necesidad de digitalización.
También ayudó la implantación de los dos sistemas de Televisión Digital
Terrestreo TDT con el consiguiente "apagón" de las emisoras analógicas
y la entrada de la llamada Televisión de alta definición (Carrasco, 2010,
p. 268). Por último cabe mencionar la comercialización de
procesadores con varios núcleos y potencia suficiente para calcular 124
o más grupos de operaciones visuales por segundo, con lo cual un
mismo sistema informático podía realizar todo tipo de efectos
digitales,etalonado, incrustaciones... acompañados de memorias RAM
con varios GBytes de capacidad y tarjetas gráficas de medio GByte o
más, con lo cual, hasta los equipos domésticos eran capaces para
procesar televisión de alta definición, inicialmente HD Ready con 720
líneas y con algo más de potencia la Full HD con 1080.