0% encontró este documento útil (0 votos)
30 vistas62 páginas

Unidad 1

El documento analiza el lenguaje sonoro en el cine, destacando la interdependencia entre imagen y sonido, así como la clasificación de los elementos de la banda sonora, que incluye sonido directo, diálogos, efectos, ambientes y música. Se discuten las funciones narrativas y expresivas de estos elementos, así como la importancia del silencio y la diégesis en la narrativa cinematográfica. Además, se reflexiona sobre la predominancia de lo visual en el cine y cómo esto afecta la percepción y el análisis del sonido.

Cargado por

km
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
30 vistas62 páginas

Unidad 1

El documento analiza el lenguaje sonoro en el cine, destacando la interdependencia entre imagen y sonido, así como la clasificación de los elementos de la banda sonora, que incluye sonido directo, diálogos, efectos, ambientes y música. Se discuten las funciones narrativas y expresivas de estos elementos, así como la importancia del silencio y la diégesis en la narrativa cinematográfica. Además, se reflexiona sobre la predominancia de lo visual en el cine y cómo esto afecta la percepción y el análisis del sonido.

Cargado por

km
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Unidad Nº 1: El Sonido en el Relato

Audiovisual
Larson Guerra, Samuel (2012): Pensar el sonido.
Una introducción a la teoría y práctica del
lenguaje sonoro cinematográfico
El lenguaje sonoro cinematográfico
Elementos de la banda sonora cinematográfica
En el cine, imagen y sonido se perciben como una unidad integrada, aunque su
producción es fragmentada, especialmente en el cine industrial. A diferencia del video y la
televisión, donde sonido e imagen suelen grabarse juntos, el sonido cinematográfico se
registra, edita, procesa y mezcla de forma independiente a la imagen, pero siempre en
relación con ella. Solo en el proceso final, en la llamada copia compuesta, se unen ambos
elementos.
Para fines de análisis teórico, se propone una división de los elementos de la banda
sonora, con el objetivo de identificar sus características y funciones. Entre estos
elementos se incluyen: sonido directo, música incidental, efectos y ambientes. Más
adelante, se explorarán sus posibilidades narrativas y expresivas.
1. Sonido directo
El sonido directo se registra durante la filmación, también llamado sonido sincrónico o de
producción. Incluye los sonidos presentes en el set o locación de cada plano: diálogos,
ambiente, incidentales, efectos e incluso música.
Sin embargo, puede contener ruidos no deseados (como alarmas o instrucciones del
director) o carecer de sonidos necesarios (como un trueno, que en imagen aparece como
un destello). Por ello, la banda sonora suele combinar sonido directo con grabaciones
adicionales o de archivo. En la animación, el sonido directo solo es posible si se basa en
imágenes reales.
2. Diálogos
Los diálogos transmiten información de diversos tipos:
• Semántica: ideas y datos sobre la trama, personajes o temas.

• Prosódica: emociones e intenciones (alegría, tristeza, sarcasmo, etc.).

• Fisiológica: el timbre y respiración reflejan salud o estado físico.

• Espacial: indican las características del entorno donde resuenan.


Generalmente, los diálogos se registran como parte del sonido directo, aunque pueden
ser doblados en estudio parcial o totalmente. La voz en off, aunque técnicamente un
monólogo, también se considera dentro de los diálogos y se graba tras el rodaje.
3. Incidentales
Son sonidos generados por las acciones de los personajes, como pasos, roces de ropa, y
manejo de objetos (cubiertos, puertas, cajones, etc.), cuya función es aportar realismo y
corporalidad.
Aunque suelen registrarse en el sonido directo, a menudo se graban adicionales en
estudio para reforzar momentos específicos.
4. Efectos
Incluyen sonidos de artefactos, vehículos, criaturas reales o fantásticas, elementos
naturales y efectos no realistas que aportan dramatismo, espectacularidad o comicidad.
Comprenden disparos, explosiones, electrodomésticos, automóviles, truenos y otros
sonidos diseñados para géneros como terror, comedia o caricaturas. Su función principal
es añadir realismo, emoción o impacto a los eventos.
Algunos efectos, como los de automóviles o electrodomésticos, pueden formar parte del
sonido directo, aunque muchos se registran in situ, se crean mediante síntesis, o se
obtienen en estudio. La distinción entre efectos e incidentales a menudo es ambigua, pero
su clasificación importa menos que su efectividad narrativa y expresiva en la película.
5. Ambientes
Son sonidos que definen y ubican el entorno espacial, como los de ciudad, bosque, mar o
selva. Pueden ser grabados naturalmente o creados mediante la combinación de diversos
elementos (viento, pájaros, ladridos, tráfico, etc.), logrando una sensación unificada.
Los ambientes también pueden diseñarse digitalmente. Su función principal es aportar
realismo y profundidad, aunque también contribuyen a la narrativa y a las atmósferas
emocionales de la película.
6. Música
En el cine, la música puede dividirse en tres categorías:
1. Toda música existente, de cualquier época o cultura, susceptible de ser
utilizada.

2. Música original, compuesta específicamente para una película.

3. Uso musical de elementos no estrictamente musicales (efectos o


ambientes), conocidos como diseño sonoro, cuando adquieren funciones
expresivas o musicales.
Esta última categoría resalta cómo sonidos no musicales pueden transformarse en
elementos expresivos dentro de la narrativa.
La música en el cine principalmente apoya las emociones, pero también cumple otras
funciones como establecer el tono, apoyar el ritmo, modificar significados, ser parte de la
narrativa o incluso convertirse en un personaje. En el cine "comercial", la música es un
elemento común, aunque cineastas como Buñuel, Bresson y Tarkovski preferían un uso
más "orgánico" de la música, destacando el silencio como recurso emocional y
compositivo. Buñuel consideraba que la mejor música en cine era el silencio, y Bresson
adoptó esta idea para crear emociones a través del silencio.
7. Silencio
El silencio no es la ausencia total de sonidos, ya que siempre se percibe algo, aunque sea
leve. La ausencia absoluta solo existe en el vacío o en la muerte, por lo que el silencio es
una condición relativa. Se experimenta cuando un sonido cesa repentinamente o cuando
el nivel de ruido es tan bajo que podemos escuchar sonidos lejanos o nuestro propio
cuerpo. Además, el silencio también puede ser interno y subjetivo, cuando nuestra
conciencia activa decide ignorar ciertos estímulos sonoros, como cuando estamos tan
concentrados que no registramos lo que se nos dice.
En el cine, el silencio es relativo, no absoluto. Su función es enmarcar otros sucesos,
como preparar o dar descanso entre eventos importantes. También aumenta la tensión, ya
que los momentos de silencio en la banda sonora generan inquietud en el público.
Además, el silencio selectivo, donde se decide qué escuchar y qué no, refleja las
perspectivas auditivas subjetivas de los personajes.
El silencio puede verse como una atmósfera sonora, que se percibe de manera subliminal
y se destaca solo cuando se cambia de una a otra, a diferencia de los ambientes
específicos que son más concretos.
Los sonidos son altamente maleables y pueden transitar fluidamente entre categorías. Un
sonido de pasos, por ejemplo, puede comenzar como un incidental y transformarse en un
efecto musical, o una música puede convertirse en ambiente y luego en silencio. Esta
flexibilidad dificulta clasificar un sonido con precisión, ya que puede cumplir múltiples
funciones simultáneamente.

Reflexiones sobre el lenguaje sonoro cinematográfico


El cine ha transformado nuestra percepción de la realidad, vinculando la visión con el
conocimiento y la comprensión. Expresiones como "ver es entender" reflejan cómo
asociamos la vista con saber y prever, mientras que lo relacionado con la escucha, como
"a palabras necias, oídos sordos", está vinculado al juicio crítico y la creatividad, aunque a
menudo queda opacado por lo visual.
El principal desafío al discutir el lenguaje sonoro del cine es la predominancia de lo visual,
lo que limita nuestra percepción del sonido. Este enfoque, que subordina el sonido a la
imagen, refleja una ideología que apoya el sistema dominante, y el sonido, especialmente
la música, se usa como herramienta emocional para manipular al espectador. Sin
embargo, la crítica cinematográfica a menudo ignora o minimiza el aspecto sonoro.
El lenguaje para describir lo sonoro está lleno de términos visuales, reflejando la influencia
de lo visual en el sonido. No existe una teoría unificada del sonido cinematográfico, y las
terminologías varían según el país. A diferencia de la experiencia visual, que tiene un
metalenguaje bien desarrollado, la experiencia sónica carece de un vocabulario preciso,
siendo la mayoría de los términos abstractos o metafóricos.
El español tiene limitaciones para describir características sonoras, y las traducciones de
términos como "loud" y "quiet" no capturan completamente su significado en inglés.
Barthes sugiere que la lengua impone un orden, y superar la alienación del lenguaje
requiere un enfoque crítico que desafíe las convenciones. En el cine, el limitado
vocabulario distorsiona nuestra comprensión del sonido, como al referirse a una "voz en
off", un término erróneo, ya que el sonido siempre está presente dentro del cuadro.
Pascal Quignard reflexiona sobre cómo la música manipula nuestras emociones,
forzándonos a sentir de determinada manera, y compara este poder con el control del
lenguaje en el fascismo. Mientras que no podemos "cerrar" los oídos como los ojos, el
sonido sigue afectándonos, incluso cuando intentamos atenuarlo.

Diégesis
Término de origen griego utilizado desde Aristóteles para referirse a lo relatado por un
narrador, en contraste con la mímesis, que es lo mostrado. En el cine, la diégesis se
define como todo lo que pertenece al mundo creado por un relato, ya sea de ficción o no.
Es el continuo espacio-temporal donde ocurre la acción dramática, incluyendo los lugares,
tiempos y el universo interno de los personajes (sueños, pensamientos, fantasías), así
como los relatos que ellos mismos generan.
Cuando un personaje narra una historia que ocurre en otro tiempo o espacio, se crea una
diégesis dentro de otra. Aunque las combinaciones de diégesis dentro de una película
pueden ser múltiples, ejemplos destacados de filmes multidiegéticos incluyen El espejo
(1974) de Tarkovski y Mi tío de América (1980) de Resnais. Sin embargo, lo más habitual
es que las películas mantengan una única diégesis.
En el contexto de la banda sonora, el término diégesis se aplica principalmente a la
música. La música diegética forma parte del mundo narrativo de la película, es decir, es
escuchada por los personajes en escena, como ocurre con músicos tocando en vivo o
música proveniente de una radio. Por otro lado, la música extradiegética no pertenece a
ese mundo narrativo y solo es percibida por el espectador. En el cine industrial, el uso
predominante es el de la música extradiegética.
En términos teatrales, la música diegética sería la "música de la escena," mientras que la
extradiegética sería la "música para la escena." A esta última también se le llama
música incidental. En el teatro, la música de la escena proviene del texto original y suele
mantenerse constante en distintas producciones, mientras que la música incidental varía
según el director. En el cine, la música incidental se fija permanentemente con las
imágenes para las que fue creada, a diferencia del teatro, donde cambia con cada puesta
en escena.

Tabla comparativa de categorías musicales en el cine


Categoría Características Función principal Ejemplos típicos
Perteneciente a la Música que proviene
Música objetiva /
Música diegética diégesis; los personajes de una radio, músicos
de la escena.
la escuchan. en escena.
Música para el
Música Banda sonora
Fuera de la diégesis; sólo espectador /
extradiegética (o instrumental que
el espectador la oye. incidental (o
no diegética) resalta emociones.
accidental).
Música asociada a la
Surge del mundo interno
Música memoria o
de los personajes Música subjetiva.
metadiegética imaginación de un
(sueños, recuerdos, etc.).
personaje.
La música metadiegética se refiere a aquella que escucha un personaje de forma
subjetiva, es decir, dentro de su mente, como en sueños, recuerdos o imaginaciones. A
diferencia de la música diegética, que es objetiva y ocurre en la escena, la metadiegética
es subjetiva, pues pertenece al mundo interno del personaje. Este concepto fue
introducido por Claudia Gorbman en los años 70, ampliando la taxonomía tradicional que
solo distinguía entre música diegética y extradiegética.

Sonido sincrónico vs. asincrónico


En 1929, directores rusos reflexionaron sobre el cine sonoro tras el éxito de El cantante
de jazz (1927), cuando el sonido sincrónico se incorporó como elemento comercial y
estético. Inicialmente, el sonido sincrónico se refería al registrado simultáneamente con la
filmación, pero con el tiempo se amplió para incluir sonidos "naturales" dentro del universo
visual de la película, aunque no fueran directamente grabados. Hollywood priorizó la
claridad y sincronización, mientras que en Francia se prefería el sonido directo.
Mientras el cine global se desarrollaba como industria, el cine soviético, influenciado por la
Revolución, se centró en una teoría cinematográfica diferente, enfocada en el proletariado
y movimientos sociales, en lugar de historias individuales. Serguéi Eisenstein, figura
clave, veía el montaje como el corazón del cine, utilizando el montaje dialéctico para
generar significados a través de la relación entre planos opuestos. Esta visión intelectual
del cine contrastaba con el enfoque emocional.
En 1929, debido al atraso tecnológico, el cine soviético rechazó el cine sonoro. Eisenstein
y sus colaboradores publicaron un manifiesto en contra de las películas habladas,
argumentando que el sonido debía ser utilizado como contrapunto en el montaje, no como
un elemento realista. Para él, el sonido sincrónico representaba un obstáculo a su visión
de un lenguaje cinematográfico universal basado en el montaje conceptual. Mientras
tanto, Pudovkin, aunque compartía la crítica, exploraba el uso del sonido asincrónico
como recurso narrativo.
El manifiesto también señala la diferencia entre los ritmos del mundo objetivo y de la
percepción humana, y cómo el sonido puede reflejar estos ritmos fluctuantes, mientras
que la música extradiegética se usa para establecer este contrapunto entre imagen y
sonido.
Robert Bresson, en sus Notas sobre el cinematógrafo, plantea ideas sobre el uso del
sonido que se asemejan a las de los cineastas rusos, como:
• Lo que se destina al ojo no debe repetirse en el oído.
• Si el ojo está completamente ocupado, no debe haber mucho sonido, y viceversa.
• No se puede ser todo ojo y todo oído.
• Si sonido e imagen son complementarios, uno debe prevalecer sobre el otro.
• Si se solicita solo al ojo o solo al oído, se genera impaciencia en el otro sentido.
Bresson sugiere usar estas impaciencias para potenciar el cine, que se dirige a
ambos sentidos de manera equilibrada.

Acusmática, Síncresis, Audiovisión, Contrato Audiovisual,


Vococentrismo, Efecto Empático-Anempático
➔ Acusmática
Concepto de Pierre Schaeffer en su Tratado de los objetos sonoros, refiere a sonidos cuya
fuente no es visible. Inicialmente aplicado a la música concreta, Michel Chion lo adapta al
sonido cinematográfico, como en la voz en off (por ejemplo, cuando no se ve el rostro del
hablante). En narrativas, se resalta el valor dramático de "desacusmatizar" una voz,
revelando el rostro oculto, como en el caso de villanos o personajes misteriosos. Un
ejemplo notable es HAL, de 2001: Odisea del espacio, una voz permanentemente
acusmática al no tener rostro.
Dennis Smalley amplió el estudio de los sonidos acusmáticos en un contexto más amplio
que el cine, retomando ideas de Schaeffer sobre la escucha y lo sonoro. Aunque
"acusmática" es un término más preciso que "voz en off" en cine, es poco probable que
sustituya este último en la práctica cotidiana.

➔ Síncresis
Según Michel Chion, es un fenómeno psicofisiológico espontáneo donde percibimos como
un solo evento la simultaneidad de un acontecimiento sonoro y uno visual puntuales. Esto
ocurre reflejamente, siempre que ambos coincidan en el tiempo.
Este fenómeno es esencial en el cine sonoro, ya que nos permite aceptar como "reales"
los sonidos sincronizados con las acciones en pantalla, aunque no coincidan plenamente.
Por ejemplo, cualquier golpeteo sincronizado con los pasos de un personaje será
percibido como sus pasos. Incluso toleramos ciertas discrepancias en la sincronización
labial en películas dobladas, mientras no sean demasiado evidentes.

➔ Audiovisión
Es un término propuesto por Michel Chion en su estudio sobre sonido e imagen en el cine.
Plantea reconsiderar cómo nos referimos al acto de experimentar una película, ya que
solemos decir "ver una película", excluyendo la dimensión sonora. Esto refleja una
tendencia a dar por sentado el sonido, cuyos aportes expresivos y narrativos suelen
percibirse como parte de lo visual. Chion sugiere que deberíamos decir "audioví" o
"audiover" una película, destacando la integración entre lo sonoro y lo visual.

➔ Contrato Audiovisual
Es la aceptación implícita del espectador de que los sonidos provenientes de las bocinas
y las imágenes proyectadas en pantalla son reales y están sincronizados, suspendiendo
así su incredulidad.

➔ Vococentrismo
Es la jerarquía en la banda sonora de una película que prioriza la palabra hablada sobre
otros elementos sonoros. Los diálogos se destacan en un primer plano, asegurando su
claridad e inteligibilidad, mientras que el resto de los sonidos, como efectos y música,
quedan subordinados. Aunque la música puede desempeñar un papel importante,
generalmente actúa en apoyo de la voz, mientras que otros sonidos permanecen en un
segundo plano, salvo cuando son imprescindibles.

➔ Efecto empático y anempático


Se refieren al uso de la música en relación con la emoción de una escena. La música
empática refuerza y acompaña la carga emocional de la escena, fortaleciendo su impacto.
En contraste, la música anempática sigue una línea emocional independiente o contraria,
generando un efecto por contraste. Ambos enfoques son efectivos según el contexto.
Ejemplo empático: Gene Kelly cantando Singing in the Rain en Cantando bajo la lluvia
(1952). Ejemplo anempático: la misma canción usada en Naranja mecánica (1971)
mientras Alex perpetra actos violentos.
Pudovkin, al reflexionar sobre el contrapunto entre lo visual y lo sonoro, afirmó: «En el
cine sonoro, la música nunca debe ser solo acompañamiento; debe mantener su propia
línea». Esto sugiere su preferencia por un uso anempático de la música. Cualquier sonido
puede considerarse empático o anempático, dependiendo de si refuerza o contrasta con
el sentido dramático de una escena.

Sonido Corporalizado - Sonido Codificado


Walter Murch, renombrado editor y diseñador de sonido de filmes como La conversación
(1974) y Apocalipsis ahora (1979), propuso en su artículo «Dense Clarity, Clear Density»
un esquema para analizar las funciones y características del sonido cinematográfico. Su
objetivo era facilitar la mezcla de sonido en el cine industrial estadounidense, donde la
sobrecarga de elementos sonoros es común. En este contexto, cada departamento
asegura cubrir su área, dejando que la mezcla final decida qué sonidos permanecen. Esto
refleja la práctica de asignar un sonido a cada movimiento en pantalla, aunque no todos
lleguen al producto final.
En nuestras cinematografías, este enfoque es menos común, ya que las producciones
suelen ser más pequeñas, con pocas escenas de gran escala y un equipo reducido de
sonidistas. Estos suelen trabajar solo con los sonidos necesarios para la mezcla final. Así,
el artículo de Murch, aunque útil en contextos de gran producción, tiene menor aplicación
práctica en nuestras películas, pero ofrece valiosas derivaciones en términos de análisis
conceptual y creatividad.

Esquema de Murch
Lenguaje Efectos Sonoros Música
Sonido codificado Sonido corporalizado

Murch plantea que existen sonidos codificados (palabras) y sonidos corporalizados


(música), con los efectos sonoros ubicándose entre ambos. Aunque los efectos sonoros
son los más universales, tienen menos prestigio. Las palabras dominan en el aspecto
narrativo, mientras que la música lo hace en el aspecto emocional. Los efectos pueden
acercarse a la música o al lenguaje, y ambos pueden influir en el otro. La clave está en
organizar estos sonidos para evitar que se mezclen de forma confusa y lograr una mezcla
clara y densa.

Imagen y sonido: dialéctica de transformación mutua

La percepción de la imagen está influida por los sonidos que la acompañan, y viceversa.
Los sonidos en una película son valorados de manera distinta a si se escucharan solos. El
sonido guía la narrativa y refuerza la unidad espacio-temporal, pero lo que se hace con la
imagen también limita o amplía las posibilidades sonoras. En estilos realistas, el sonido
tiende a ajustarse al realismo visual; en estilos menos realistas, el sonido goza de mayor
libertad creativa.
Randy Thom, diseñador de sonido en películas como Forrest Gump (1994) y Ratatouille
(2007), señala en Diseñando una película para el sonido que una imagen completamente
explícita limita el papel del sonido, reduciéndolo a un reflejo de lo visual. Cuando la
narrativa visual muestra todo y se complementa con diálogos constantes y música
omnipresente, apenas queda espacio para que los demás elementos sonoros aporten
algo significativo.
Estrategias visuales para mayor libertad sonora (Randy Thom)
1. Planos extremos: Los planos muy cerrados (como detalles de un ojo o una gotera)
permiten que el sonido defina el espacio no visible. Los planos muy abiertos (como
panorámicas de paisajes lejanos) también dan espacio al sonido, ya que no hay
detalles visuales específicos que deban ser complementados.
2. Tipo de lente
El uso de lentes extremos (angulares o largos) deforma la perspectiva visual,
mostrando la realidad de manera distinta a como la perciben nuestros ojos. Estas
distorsiones favorecen un enfoque más subjetivo y menos realista, abriendo
posibilidades creativas para el sonido.
3. El tiempo
Alterar el flujo normal del tiempo (ralentizarlo o acelerarlo) desvincula la narrativa
del realismo, favoreciendo un uso más subjetivo y creativo del sonido.
4. Claroscuros
Imágenes con zonas oscuras y límites indefinidos generan misterio y sugieren lo no
visto, dando al sonido la oportunidad de potenciar la atmósfera y aumentar el
suspenso.
5. Blanco y negro
El blanco y negro, o tratamientos monocromáticos, eliminan distracciones del color,
facilitando la continuidad emocional y permitiendo un enfoque más subjetivo del
sonido.
6. Puntos de vista
Perspectivas inusuales, como planos a ras del suelo, inclinados (plano holandés) o
cenitales, favorecen una mayor libertad en el diseño sonoro.
7. Indefinición visual
Imágenes desenfocadas o poco definidas rompen el realismo, permitiendo un
enfoque más subjetivo en el diseño sonoro.

Funciones narrativas y expresivas de los elementos sonoros


Todos los elementos sonoros en una película tienen funciones narrativas y expresivas. Sin
embargo:
• Diálogos: Tienden a ser más narrativos.
• Música: Predomina como expresiva.
• Ambientes e incidentales: Suelen ser más neutros.
A continuación, analizaremos cada elemento en detalle, iniciando con los "sonidos
plebeyos": ambientes e incidentales, para romper con la jerarquía vococentrista.
Ambientes
Los ambientes proporcionan realismo y profundidad a los espacios visuales. En su función
más común, son redundantes narrativamente, como cuando vemos una tormenta y
escuchamos su sonido sin agregar valor a la narrativa. Sin embargo, un buen sonido
potencia el impacto expresivo del espacio, que puede variar según el género (una selva
puede sonar atractiva, misteriosa o cómica). Además, los ambientes unifican imágenes a
través de un espacio común, indican la magnitud del lugar y refuerzan el tono emocional
de una escena.
Si los ambientes son no realistas, pueden tener un valor expresivo mayor. Al modificarse
su intensidad, reverberación, ecualización o procesarse de otras maneras, pueden
volverse casi musicales, transformándose de informativos a atmosféricos. Por ejemplo, los
grillos que indican la noche pueden convertirse en un sonido "espacial" o "inquietante".
Además, cuando un ambiente diegético se escucha sin ver el espacio, adquiere funciones
narrativas. Como en el caso de un prisionero que escucha sonidos desde su celda, los
ambientes pueden dar información sobre la temporalidad y el espacio, aunque no estén
visualmente presentes.
Esquema de Ambientes

Ambientes
Diálogos Música
Diegéticos Realismo/Profundidad Tratamiento no realista
Fuera de cuadro Contextualización Intensidad
Narrativamente redundantes Ecualización
Reverberáción-Eco
Pitc-Reverse-Otros
Informativos Atmosféricos
Narrativos Expresivos
(Racional) (Emocional)

Incidentales
Los sonidos incidentales, cuando son realistas y no fuera de cuadro, simplemente
acompañan la acción, dando realismo y presencia física a los personajes (por ejemplo, los
pasos de alguien caminando). En este caso, son redundantes y neutrales en términos
narrativos y expresivos. Sin embargo, cuando suenan fuera de cuadro, proporcionan
información narrativa adicional (por ejemplo, pasos fuera de vista indican que alguien se
acerca). Si estos sonidos no son realistas, adquieren mayor valor expresivo,
convirtiéndose en efectos con características más amplias, como amenazantes o
cómicos.
Esquema de Incidentales

Incidentales
Diálogos Música
Diegéticos Realismo/Corporalidad Tratamiento no realista
Fuera de cuadro Presencia física Intensidad
Narrativamente redundantes Ecualización
Reverberáción-Eco
Pitc-Reverse-Otros
Informativos Efectos
Narrativos Expresivos
(Racional) (emocional)

Efectos
Los efectos sonoros incluyen los incidentales, que pueden transformarse en efectos con
diversos caracteres, como cómicos, espectaculares, subjetivos, hiperrealistas,
inquietantes, entre otros. Según el caso, un efecto puede ser realista o adoptar una
cualidad emocional específica, como tranquilizador o irritante.
Los ruidos incidentales de máquinas, artefactos y vehículos pueden ser realistas, como
el sonido de un motor que aporta al realismo sin destacar, o bien cómicos, como en
Herbie en Cupido motorizado (1968), o espectaculares, como el sonido del batimóvil en
las películas de Batman.
Los efectos sonoros de la violencia incluyen los sonidos de armas de todo tipo, desde
espadas y pistolas hasta armas futuristas como espadas láser o explosiones nucleares,
así como los efectos resultantes de golpes, choques, impactos, explosiones, derrumbes,
quiebres y cortes.
Los efectos sonoros se clasifican en grupos contextuales como guerra, industria, hogar,
ciudades, naturaleza (bosques, desiertos, mares, etc.), y también según géneros
específicos como ciencia ficción, terror, oeste o magia. Además, existen combinaciones
entre estos géneros que crean efectos sonoros únicos.
La naturaleza produce sonidos que a menudo se consideran efectos, aunque algunos
pueden ser clasificados como ambientes. Ejemplos incluyen truenos (puntuales y
espectaculares como efectos, o lejanos y atmosféricos como ambientes), grillos solitarios
(efecto) y múltiples grillos (ambiente). Otros efectos naturales incluyen ráfagas de viento,
olas, derrumbes y sonidos del reino animal.
Tanto los efectos como los incidentales pueden ser procesados para hacerlos más
expresivos o musicales. La frontera entre ellos es difusa, y algunos efectos, como el
rugido de una fiera, pueden ser modificados para lograr sonidos más amenazantes o
extraños, ya sea procesando el original o usando una guitarra eléctrica. Todo depende de
lo que se necesite para cada caso específico.

Música
La música en el cine cumple diversas funciones, siendo una de las principales la música
extradiegética, que tiene un rol emocional. Su función es apoyar y establecer el tono o
atmósfera emocional sin introducir asociaciones externas. Además, puede contextualizar,
aportando elementos estilísticos de época o cultura. Cuando una película utiliza mucha
música extradiegética, el éxito de la película depende en gran medida de la calidad de la
composición o la selección de la música, ya sea original o de archivo.
La música extradiegética puede o no respetar las restricciones diégéticas de la película.
Por ejemplo, en una película de época, se pueden evitar instrumentos que no existían en
esa época. Sin embargo, en muchas películas, la música se utiliza principalmente por su
impacto emocional, sin considerar la diégesis. Excepciones notables incluyen La última
tentación de Cristo (1988), donde Peter Gabriel usa música inspirada en tradiciones del
Medio Oriente y África, y Barry Lyndon (1975), donde casi toda la música es barroca,
respetando la época en la que se ambienta la película.
El término mickey mousing se refiere al uso de la música que acompaña de manera
sincrónica todos los movimientos en pantalla, originado en las primeras animaciones. En
la actualidad, se usa para describir situaciones en las que la música es exageradamente
explícita y redundante, convirtiéndose en un artificio que en lugar de ayudar, interrumpe la
acción.
La música diegética no solo tiene un impacto emocional, sino que generalmente cumple
funciones narrativas o contextualizadoras. Un ejemplo narrativo es en Naranja mecánica
(1971), donde la Novena de Beethoven acompaña el condicionamiento de Alex. En
Memorias del subdesarrollo (1968), la rumba contextualiza la historia en la cultura cubana.
También puede ser ambiental, como la música en un restaurante o bar, que establece una
atmósfera verosímil.
La música, ya sea original o de archivo, puede tener diversas connotaciones culturales,
históricas o generacionales. La música original puede reflejar épocas o estilos específicos,
mientras que la música de archivo puede estar asociada a eventos, movimientos o
lugares concretos. Cuanto más conocida sea una pieza, más connotaciones acumula,
como las asociadas a una generación, país o subcultura. Es crucial considerar estas
connotaciones al elegir música, ya que un uso inapropiado puede contradecir las
intenciones dramáticas, limitando su potencial en el cine.

Diálogos
Los diálogos en el cine son generalmente diegéticos y tienen la función básica de
transmitir información sobre la historia y los personajes. Sin embargo, su uso varía según
la película. En algunas, los diálogos sirven para contar la historia y profundizar en los
personajes, mientras que en otras, contribuyen más a la acción y al realismo,
enfocándose en los actos más que en las palabras. Además del contenido, la prosodia
(manera de decir las palabras) es crucial, reflejando emociones o intenciones como el
sarcasmo o la ironía. El vocabulario y la sintaxis también identifican a los personajes
según su clase social o región.
Los diálogos mantienen su carácter racional como lenguaje, pero su tratamiento sonoro
varía. La principal diferencia entre ellos es su tratamiento espacial: algunos respetan el
plano sonoro de la imagen, reflejando el espacio físico donde ocurre la acción. Por
ejemplo, en muchas películas italianas se doblan todos los diálogos en primer plano, sin
tratamiento espacial, mientras que otras, sin doblaje, registran naturalmente la
espacialidad de las voces con un buen sonido directo.
Las voces no inteligibles, como conversaciones lejanas o muchedumbres, se convierten
en ambientes. Las vocalizaciones no lingüísticas, como risas, gritos, lamentos y
respiraciones, funcionan como efectos, incidentales o incluso como música con un poco
de procesamiento.

Antecedentes Históricos de los Medios Audiovisuales


La experiencia humana del mundo es multisensorial, basada en los cinco sentidos
tradicionales, y aunque la falta de uno puede reducir la percepción, otros se agudizan.
Estos sentidos son producto de la evolución, y aunque compartimos capacidades
sensoriales con nuestros ancestros, la civilización nos ha diferenciado de ellos.
El espectador interno nació al disfrutar de la naturaleza, y los primeros grandes
espectáculos fueron fenómenos naturales. La conciencia de la muerte dio origen a las
religiones primitivas y a rituales teatrales, donde el chamán actuaba como guionista, actor,
músico y director.
La unidad entre lo espiritual y lo artístico se ha mantenido en muchas culturas, incluso en
la moderna, donde la racionalidad materialista ha promovido avances científicos pero
fragmentado la experiencia humana. A pesar de esto, persiste la continuidad desde los
relatos alrededor del fuego hasta los espectáculos modernos, como el cine y la música.
Hoy, los jóvenes urbanos buscan evasión en los medios electrónicos y digitales,
consumiendo música, cine, radio, televisión y videojuegos.
Para entender el desarrollo histórico del lenguaje audiovisual, podemos observar el papel
de la música en las artes escénicas europeas. En la antigua Grecia, la música era
fundamental en el teatro, siendo integrada en las obras de dramaturgos como Sófocles y
Eurípides. Tras la conquista romana, la cultura romana priorizó el circo, mientras que el
emperador Nerón utilizó música para manipular multitudes, anticipando técnicas de
control de masas.
En la Edad Media, la música se mantuvo en las representaciones litúrgicas, pero la Iglesia
limitó las artes escénicas. Con el Renacimiento, la música pasó de la polifonía a la ópera,
y figuras como Wagner influyeron en el cine con recursos como la música extradiegética.
En el siglo XIX, surgieron géneros populares como el music-hall y el vaudeville, que
influyeron en la creación de películas, especialmente con la integración de música
orquestal en las producciones. Este contexto ayudó a difundir el cine y facilitar la
contratación de músicos, mientras las primeras audiencias trabajadoras y de clase baja
impactaron el contenido y estilo de las películas.
La combinación de música y otras formas de arte comenzó a popularizarse después de la
Primera Guerra Mundial, con ejemplos como el "Poema de atmósfera" de Valentine de
Saint Pont y las sinfonías futuristas rusas, que mostraron la adaptación gradual de los
recursos narrativos y expresivos al nuevo medio cinematográfico.

El sonoro silencio del cine mudo


El cine mudo, aunque asociado con el silencio, estuvo generalmente acompañado de
música y, en algunos casos, voces en off. La música era esencial para dar sentido a las
imágenes y atraer al público, ya que las primeras salas de cine combinaban cine con otros
espectáculos. La música no solo acompañaba las imágenes, sino que también aportaba
emoción y clarificaba las intenciones, activando la participación del público.
La ausencia de sonido hablado en el cine mudo permitió explorar estilos no realistas,
como el expresionismo alemán y el surrealismo de Buñuel, lo que retrasó la llegada del
cine sonoro. En los años 20, muchos directores rechazaban el cine sonoro, mientras que
la industria apostaba por grandes cines con orquestas que ayudaban al éxito comercial.
Con el tiempo, las orquestas sinfónicas reemplazaron al piano, y los intertítulos
reemplazaron al narrador en escena, marcando una transición narrativa clave.
Fuera de Estados Unidos, surgieron experiencias innovadoras como los katsuben en
Japón, narradores en vivo que explicaban las películas. Estos narradores fueron
populares hasta los años 40 y llegaron a grabar discos y transmitir por radio. Además, en
Japón se desarrolló el "drama encadenado", una forma teatral que combinaba
actuaciones en vivo con escenas filmadas.
Algunos innovadores, como Lyman H. Howe, destacaron el uso de efectos sonoros para
crear realismo, utilizando sonidos no musicales para dar autenticidad a las proyecciones.
Con la llegada del cine sonoro en 1927, se consolidó un modelo narrativo con sonido
sincrónico, lo que marcó una transformación en la industria y el fin del cine mudo.

La llegada del sonido: Inteligibilidad vs. Fidelidad


El cine sonoro trajo un realismo que marcó el fin de la poesía visual y la diversidad
estilística del cine mudo, imponiendo una representación realista predominante, aunque
con diferentes enfoques según el país. En Hollywood, para 1932, se establecieron
estándares de bandas sonoras, priorizando la limpieza del sonido y la inteligibilidad del
diálogo. Los micrófonos se acercaban a los actores para asegurar diálogos claros,
sacrificando el realismo espacial. Además, se grababan sonidos incidentales por separado
para facilitar la postproducción.
En Francia, la fidelidad del sonido fue más importante que su limpieza, priorizando una
experiencia más cercana al público y a los actores, sin enfocarse tanto en los mercados
internacionales. La industria francesa, más fragmentada, favoreció el sonido directo sobre
las técnicas de posproducción usadas en Hollywood. Mientras en EE. UU. se usaba el
back projection, en Francia se filmaba en locaciones reales, lo que perfeccionó el sonido
directo, una práctica que persiste en el cine francés, resistiendo el doblaje en la mayoría
de sus producciones.

El modelo de representación institucional y la banda sonora


industrial
Desde la década de los treinta, las prácticas visuales y sonoras de la industria
cinematográfica estadounidense, junto con sus ideologías, se han consolidado y
reproducido dentro de su modelo de representación. Aunque inicialmente esto podría
considerarse un asunto interno de Estados Unidos, el problema radica en que su
influencia ha trascendido, imponiendo sus historias, géneros y concepciones del cine a
nivel global. Esto afecta especialmente a países como México, donde las películas
estadounidenses pueden llegar a ocupar el 90% o 95% de las pantallas, sin contar el
impacto en otros medios audiovisuales.
Las principales prácticas y convenciones sonoras en el cine hollywoodense pueden
resumirse en:
1. Inteligibilidad: Diálogos limpios y claros, con un enfoque en el primer plano de las
voces.
2. Vococentrismo: Predominio de los diálogos en la jerarquía sonora.
3. Excesiva musicalización: Uso de orquestaciones sinfónicas largas y melodías
románticas del siglo XIX.
4. Sonidos incidentales: Uso naturalista y funcional de sonidos ambientales.
5. Efectos sonoros: Principalmente para aumentar la espectacularidad o suspenso.
6. Ocultación del artificio: Evitar cortes sonoros y mantener la continuidad del
sonido.

Un caso peculiar: Dziga Vertov, sonidista de imágenes

Dziga Vertov, conocido por su labor como documentalista y fundador del movimiento Kinó-
Glaz (Cine-Ojo), también fue pionero en el uso del sonido en el cine. A pesar de que se le
asocia con el cine experimental, su enfoque hacia el sonido fue clave en su carrera. Su
inclinación hacia el sonido fue tal que, aunque inicialmente se dedicó al cine debido a las
limitaciones tecnológicas para trabajar con sonido, siempre mantuvo el sonido en mente,
incluso en sus películas silentes, usando tácticas de sonido implícito.
Vertov mostró un enfoque revolucionario hacia el sonido desde principios de 1916, cuando
planeó construir un "Laboratorio de la Escucha" con una grabadora Pathéphone. A
diferencia de otros cineastas vanguardistas, Vertov tenía experiencia práctica con el
sonido y su visión musical compartía puntos con los futuristas italianos. Su trabajo anticipó
las ideas de figuras como Pierre Schaefer y John Cage, especialmente en cuanto a la
manipulación de sonidos grabados. Por ello, no es sorprendente que Vertov no firmara el
Manifiesto contra el Cine Sonoro.
Vertov tenía una visión más profunda del sonido en el cine que sus contemporáneos,
quienes se centraban en debates teóricos sin una praxis sonora concreta. En El hombre
de la cámara (1929), la presencia implícita del sonido en lo visual es destacada,
especialmente en la musicalización por la Alloy Orchestra, que respetó las ideas de
Vertov. Esta versión incorpora elementos sonoros diegéticos y una composición rítmica y
tímbrica. Además, Vertov fue pionero en el registro sonoro documental, como se ve en
Entusiasmo (1930), donde usó equipo especialmente diseñado para capturar sonidos
industriales.

Acerca de la música en el cine


La idea de la música como lenguaje universal ha sido rechazada por muchos teóricos, ya
que cada manifestación musical está influenciada por contextos específicos, lo que hace
que cada persona perciba la música de manera única. Para tener una buena cultura
musical, se necesita vitalidad en la música popular, un sistema educativo musical
accesible y una política cultural que promueva el arte no comercial. En México, a
principios del siglo XXI, estas condiciones no se cumplen, lo que ha llevado a que la
música tradicional sea reemplazada por música comercial, y la educación musical sea
limitada, impactando negativamente el cine mexicano.
La música orquestal romántica del siglo XIX ha dominado el cine y la televisión,
estableciéndose como algo natural y universal, mientras que el otro extremo es el uso de
canciones populares. En el cine comercial, la música es fundamental tanto artísticamente
como comercialmente, siendo parte del paquete que incluye discos de banda sonora.
Desde la llegada del sonido, la banda sonora industrial se construyó utilizando música ya
escrita, lo que condicionó al público a asociar ciertas melodías con estados de ánimo
específicos.
La música incidental en el estilo sinfónico romántico sigue siendo clave en Hollywood
debido a su eficacia comercial. Compositores como John Williams demuestran cómo los
modelos mercantiles prevalecen sobre los artísticos, influyendo incluso fuera del cine,
como en eventos políticos. A pesar de la monotonía estilística, la música sigue siendo una
herramienta poderosa para imponer la visión del cineasta.
La música en el cine puede tener diversas funciones: emocional, descriptiva, ambiental,
decorativa, entre otras. Además, cada pieza musical tiene valores connotativos que varían
según el contexto, siendo entendidos de manera diferente por distintos públicos, desde
connotaciones universales hasta personales.

El sonido y la música en el cine de Tarkovski


En Esculpir el tiempo, Tarkovski reflexiona brevemente sobre el sonido y la música en el
cine, destacando dos ideas clave. Primero, plantea que la música en el cine debe ser
parte orgánica del mundo real, es decir, diegética, formando parte del entorno sonoro en
el que viven los personajes. En segundo lugar, desafía el uso convencional de la música
en el cine comercial, sugiriendo que los sonidos no musicales, desprovistos de
connotaciones previas, pueden ofrecer una riqueza expresiva y significativa más original.
Tarkovski cuestiona incluso la necesidad de la música, proponiendo que el cine podría
prescindir de ella para hacer que el sonido de la imagen sea más auténtico, ya que tanto
el cine como la música transforman la realidad de manera paralela. Cuando el sonido se
organiza adecuadamente en una película, se convierte en música en su propia esencia.
Respecto a la música instrumental, Tarkovski la distingue por su timbre único que separa
los instrumentos de otros sonidos. Aprecia la música electrónica por su capacidad de
generar sonidos no reconocibles, que carecen de asociaciones previas, y sugiere que, al
procesar instrumentos convencionales de manera no tradicional, pueden compartir esa
ambigüedad tímbrica que les permita fusionarse mejor con otros elementos de la banda
sonora.
El cine de Tarkovski se caracteriza por el uso monofónico del sonido, donde se emplea un
solo elemento sonoro a la vez: música sin diálogos, o diálogos sin música. Los ambientes
y efectos sonoros, a menudo sin música ni diálogos, permiten que objetos y elementos
naturales, como el agua o el fuego, ocupen un espacio para manifestar su "voz". Esto va
en contra del cine convencional que mezcla constantemente todos los elementos sonoros.
En La infancia de Iván (1962), la música es sutil y nunca se superpone a los diálogos,
mientras que los sonidos naturales, como el agua y el fuego, tienen un papel destacado.
En Andrey Rubliov (1966), la música coral y los efectos de la naturaleza continúan esta
tendencia. En Solaris (1972), Tarkovski colabora con Éduard Artiémiev, quien utiliza
música electrónica para crear atmósferas densas, aunque también emplea momentos de
música barroca como parte de la memoria del protagonista.
El espejo (1974) es la película más "tarkovskiana", con música barroca y electrónica, y
una integración natural de sonidos como el viento y el agua. Los sonidos son utilizados de
manera orgánica, como el rechinido del espejo que simboliza el paso a otra realidad. En
Stalker (1979), el agua sigue siendo un elemento clave, y Tarkovski utiliza música de
manera escasa, pero con significados simbólicos en piezas clásicas, como el Bolero de
Ravel.
Nostalgia (1983) es casi desprovista de música, aunque cuando aparece, lo hace de
forma subliminal y con Beethoven en momentos clave. Sacrificio (1986), su última
película, utiliza música extradiegética en los créditos, y música diegética en escenas
clave, como un canto islandés o una pieza de flauta japonesa, que se integra
directamente en la narrativa. En algunos momentos, Tarkovski utiliza sonidos ambientales
como las sirenas de barcos para crear una atmósfera sin mostrar visualmente la fuente
sonora.

La derrota del vococentrismo: el cine de Jacques Tati


Jacques Tati (1907-1982) es reconocido como uno de los grandes cómicos del cine,
heredero de la tradición de comedia física y gestual del cine mudo. Su cine se caracteriza
por una subversión del vococentrismo, donde los diálogos son breves, incidentales y a
menudo reemplazados por balbuceos o murmullos. Tati evita el uso de primeros planos
visuales y sonoros, enfocándose en planos más amplios que permiten una mayor
interacción entre los personajes y su entorno. En su cine, los sonidos incidentales y
ambientales adquieren una importancia que normalmente les es vedada, creando una
"democracia aural" en la que todos los sonidos, sean lingüísticos o no, tienen el mismo
valor.
La música en las películas de Tati es utilizada de manera esporádica y no sigue una lógica
convencional, con temas instrumentales recurrentes pero impredecibles. En Playtime
(1967), Tati explora el uso de la contaminación sonora urbana y los ambientes artificiales,
anticipándose a su tiempo en el tratamiento del sonido. En Traffic (1971), los vehículos y
sus ruidos son más protagónicos que los propios personajes, y el uso de varios idiomas
muestra cómo la carga semántica de los diálogos se reduce al mínimo, centrándose en lo
visual y lo sonoro para contar la historia.

La subversión del lenguaje: Jean-Luc Godard


Jean-Luc Godard, figura central de la Nueva Ola francesa, trasladó su reflexión teórica
desde Cahiers du Cinéma a su praxis cinematográfica, utilizando el cine como un medio
para criticar y subvertir el Modelo de Representación Institucional de Hollywood. En Made
in USA (1966), esta subversión se manifiesta en su tratamiento innovador del sonido y los
diálogos:
1. Diálogos absurdos en contextos realistas.
2. Escenas silenciosas donde los personajes hablan, pero no se escucha nada.
3. Voces en off no justificadas que interrumpen la narrativa.
4. Ruidos que enmascaran los diálogos.
5. Transiciones abruptas entre estilos sonoros.
Estos recursos evidencian el artificio de la relación entre imagen y sonido en el cine
tradicional. Godard evita el doblaje para priorizar el sonido directo, y cuando emplea
efectos o música, lo hace de forma deliberadamente artificial y disruptiva.
En cuanto a la música, su enfoque se opone al cine industrial. En Made in USA, combina
música diegética —interpretada por los personajes, como una joven tocando guitarra o
cantando— y extradiegética, utilizada para establecer contrapuntos o comentarios
irónicos. Por ejemplo, un piano alterna con los diálogos, o cuerdas breves acompañan un
plano cerrado, creando una parodia audiovisual del cine de espionaje. Godard usa el
lenguaje sonoro para politizar y cuestionar las convenciones cinematográficas, alejándose
del cine de entretenimiento.

El sonido desde el guión


Dos ejemplos destacados del uso narrativo del sonido y la música son Érase una vez en
el Oeste (1968) de Sergio Leone y Azul (1993) de Krzysztof Kieślowski. En ambas, sonido
y música fueron concebidos desde el guion como elementos esenciales de la narrativa.

Música como personaje


Ambas películas integran temas musicales breves y recurrentes ligados a la trama. En
Érase una vez en el Oeste, la música está asociada al trauma del protagonista y
evoluciona de diegética a metadiegética. En Azul, la música simboliza la memoria y el
dolor, alcanzando un rol dramático que estructura la historia.

Sonido incidental y ambiental


En Érase una vez en el Oeste, los sonidos incidentales enfatizan la atmósfera de espera y
tensión, como el rechinido de un molino o el goteo sobre un sombrero. Las cigarras
también juegan un rol narrativo crucial: su silencio anticipa eventos fatales.
En Azul, elementos como el goteo de frenos antes de un accidente o el cristal que se
rompe en el hospital transmiten el estado emocional de la protagonista. Además, la
destrucción de las partituras del esposo fallecido está acompañada por una degradación
de la música, simbolizando su pérdida.
Diferencias técnicas
Una diferencia significativa entre ambas es el uso del sonido directo en Azul, en contraste
con la banda sonora doblada de Érase una vez en el Oeste, reflejando los estilos de sus
respectivas industrias.
Ambas películas muestran cómo el diseño sonoro y musical, concebido desde el guion,
puede convertirse en una fuerza narrativa esencial.

La música en el cine de Stanley Kubrick


El análisis de la música en las películas de Stanley Kubrick revela su evolución hacia un
uso cada vez más integrado y significativo, en contraste con las convenciones del cine
industrial de Hollywood.
Esta película marca un punto de partida, aunque no se considera plenamente
"kubrickeana" debido a la limitada libertad creativa que tuvo Kubrick. La música,
compuesta por Alex North, es completamente original y ocupa un espacio preponderante,
pero a menudo se percibe como un elemento sobreimpuesto, típico de las producciones
industriales de la época.
En Lolita, Kubrick reduce significativamente la cantidad de música y adopta un enfoque
más orgánico. La mitad es música diegética, que forma parte del universo de los
personajes, como en el salón de baile o en momentos ambiguos como el duelo del
protagonista. Este cambio refleja una mayor confianza en la narrativa visual, sin depender
tanto del "apuntalamiento" musical típico de Hollywood.
A partir de Lolita, Kubrick muestra una preferencia por la música preexistente sobre la
original, alejándose de las normas industriales. La integración de la música a la narrativa y
su papel como elemento estilístico indisoluble se convierte en una constante en su obra
posterior. En películas como El resplandor o Barry Lyndon, la música adquiere una fuerza
expresiva que refuerza la atmósfera y la profundidad narrativa, contrastando con el
tratamiento más convencional en Espartaco.
Kubrick redefine el uso de la música en el cine, transformándola en un elemento narrativo
esencial, profundamente conectado con el estilo y la visión del director.
En Dr. Insólito o Cómo aprendí a no preocuparme y amar la bomba, la música es
notablemente más contenida, destacando por su mínima intervención. La mayor parte de
la música es una variación del tema antibélico When Johnny Comes Marching Home,
compuesta por Laurie Johnson, usada en las secuencias del bombardero B-52. Además,
la película incluye dos canciones para los créditos, una instrumental y otra cantada, y un
fragmento diegético de jazz en la radio de la base militar. Esta música, aunque
mayoritariamente extradiegética, está perfectamente integrada a la narrativa.
En 2001: Odisea del espacio, Kubrick optó por música preexistente, desechando la
partitura original de Alex North en favor de pistas temporales. La música es casi
completamente extradiegética, excepto por un breve fragmento diegético de una emisión
de la BBC. La selección de piezas clásicas, como Así habló Zarathustra de Strauss y El
Danubio Azul de Johann Strauss, se integra perfectamente al espíritu filosófico y visual de
la película, enfatizando lo épico y lo cósmico. Kubrick, al igual que en sus otras películas,
rompió con convenciones previas sobre el uso de la música en el cine, demostrando cómo
la música puede ser fundamental en la narrativa.
En Naranja mecánica, la música se funde indisolublemente con la trama, especialmente
en la relación entre el protagonista, Alex, y las piezas musicales, como Cantando bajo la
lluvia y la adaptación electrónica de La Novena de Beethoven. La música no solo
caracteriza al personaje, sino que también se convierte en un motor activo de los sucesos,
ejemplificado en las escenas de violencia y redención de Alex.
En Barry Lyndon, la música preexistente de compositores del período clásico y barroco
establece la atmósfera de la Europa del siglo XVIII, sirviendo como fondo que otorga
sustancia a los ambientes, pero sin destacar como un elemento que impulse la trama. La
música se convierte en el telón de fondo de la película, sin la conexión activa entre la
música y los personajes que se encuentra en sus otras obras.
En El resplandor, Kubrick vuelve a utilizar música preescrita de compositores del siglo XX,
incluidos Ligeti, Bartók y Penderecki, con una mayor cantidad de música que en sus
anteriores films. La música, predominantemente extradiegética, contribuye a la creación
de una atmósfera de suspenso, aunque se hace un uso mínimo de música diegética, con
una banda de jazz en un salón de baile que resalta por su contraste.
En Cara de guerra, Kubrick opta por una menor cantidad de música, destacando las
canciones pop de los años 60, los cantos de los marines y la música original de Abigail
Mead. La música contextualiza y ambienta, pero su función narrativa es secundaria, a
diferencia de otras películas de Kubrick. En el segundo acto, la música se intensifica,
reflejando la tensión emocional y el absurdo de la guerra.
Finalmente, en Ojos bien cerrados, Kubrick emplea una mayor proporción de música
diegética, aunque mantiene su predilección por la música preescrita, con Ligeti y
Shostakóvich en los créditos. La música original de Jocelyn Pook contribuye a la
atmósfera social de la película, mientras que la música extradiegética aparece en
momentos clave de la trama onírica.
En resumen, Kubrick nunca siguió una fórmula musical fija, adaptando la música a las
necesidades de cada película. Su uso de música preexistente y su colaboración con
compositores de vanguardia le permitió crear una integración orgánica entre lo visual, lo
narrativo y lo musical, consolidándose como un cineasta innovador, especialmente en su
tratamiento de la música en el cine.

El silencio diegético
En el cine, el silencio diegético absoluto es prácticamente inexistente, ya que los silencios
suelen ser relativos, representados por ambientes muy tenues. Sin embargo, 2001:
Odisea del espacio ofrece un caso excepcional al utilizar el silencio absoluto del vacío
sideral de manera dramática.
En una secuencia de dieciocho minutos, Kubrick emplea casi seis minutos de silencio.
Esto ocurre tras el "accidente" que provoca la muerte del primer astronauta, con un
montaje alternado entre escenas sonoras, donde predomina la respiración del único
sobreviviente, y escenas completamente silenciosas. Este silencio subraya la elocuencia
de la muerte, tanto en su dimensión cósmica como en la pérdida concreta de los
personajes.
En contraste, la mayoría de las películas ambientadas en el espacio optan por llenar el
vacío sideral con música.

El contraste en los ambientes sonoros


El contraste entre silencio y ruido es un recurso clave en el cine, donde lo silencioso
adquiere significado en relación con lo ruidoso. Jacques Tati lo exploró en Playtime
(1967), estudiando la contaminación sonora del tráfico y los silencios artificiales creados
por muros de sonido en edificios modernos. Este contraste resalta cómo el cerebro ignora
sonidos constantes, como el zumbido de una computadora, creando una ilusión de
silencio.
En El exorcista (1973), William Friedkin usa estos contrastes de manera eficaz. Al trabajar
fuera de las convenciones de Hollywood, Friedkin prescinde de música original y emplea
música preexistente con moderación, dando protagonismo a los sonidos ambientales. La
película alterna secuencias "silenciosas" con "ruidosas", lo que intensifica la tensión
dramática y sorprende al espectador, al tiempo que el sonido refuerza la narrativa y el
desarrollo de los personajes.

Silencio y música como gags


En El profesor chiflado (1963), Jerry Lewis utiliza el silencio y la música para generar gags
cómicos. En una escena, tras una explosión en clase, el profesor Julius Kelp (interpretado
por Lewis) es llamado a la oficina del director. Durante un minuto y veinte segundos, se
mantiene un silencio tenso, interrumpido solo por leves sonidos incidentales, como el
chirrido del sillón al sentarse. Este silencio acumula una risa contenida que finalmente
explota.

En la misma escena, el profesor abre dos veces su reloj de cadena, lo que desencadena
una música festiva y estridente sin explicación lógica, pero claramente asociada al reloj.
En ambos casos, el exceso y la sorpresa amplifican el efecto cómico.

El gag sonoro
En Demasiado miedo a la vida o Plaff (1988) de Juan Carlos Tabío, el sonido es clave
para la comedia. Algunos ejemplos:

1. El sonido de los huevazos: Recurrente y artificioso, su exageración lo hace


inverosímil y cómico. Funciona como un motivo sonoro que refuerza el gag cada
vez que aparece.
2. El auto de Ramón: Un viejo modelo con un motor cuyo sonido explosivo y
caricaturesco lo convierte en un gag recurrente, incluso cuando no está en pantalla.
3. Problemas técnicos como gags: La película convierte limitaciones reales en
humor, como interrupciones en el sonido directo, acompañadas de subtítulos que
explican la situación y completan los diálogos.
4. Música y doblaje: La música parodia clichés melodramáticos, y en escenas
específicas, usa piano al estilo del cine mudo para comentar la acción. El doblaje
también aporta humor, como en el caso de un actor masculino doblado con voz de
mujer al interpretar a una burócrata.

Cine sin palabras


El cine sin diálogos explora formas alternativas de narrativa a través del sonido, la música
y las imágenes. Ejemplos destacados incluyen:

• Documentales sin palabras:


• Microcosmos (1996) combina música y sonidos naturales para mostrar la
vida de los insectos, siguiendo un enfoque similar al de El territorio de los
otros (1970), que evita la palabra y usa una banda sonora diseñada por
Michel Farro para generar continuidad emocional y conceptual.
• Koyaanisqatsi (1982) y Baraka (1992) utilizan música como elemento
principal, prescindiendo de narraciones habladas.
• Cine de ficción minimalista en palabras:
• La isla desnuda (1960) de Kaneto Shindo retrata la vida rural sin diálogos,
apoyándose en acciones y música recurrente.
• Paul Leduc experimentó con una trilogía "muda" (Barroco, Latino bar, Dallar
mambo), desafiando convenciones cinematográficas.
• Tuvalú (1999) y Vera (2002) minimizan los diálogos, dando protagonismo a
lo sonoro. En Vera, los sonidos y la música crean un universo fantástico
donde se confunden con los ambientes.

Chion, Michael (1993): La audiovisión.


Introducción a un análisis conjunto de la imagen y
del sonido

● Proyecciones del sonido sobre la imagen


I. La ilusión audiovisual
El cine crea una ilusión única al combinar sonido e imagen, donde ambos elementos
interactúan para transformar la experiencia narrativa.
• En Persona de Bergman, la secuencia inicial ilustra cómo el sonido da
sentido y cohesión a las imágenes:
• Sin sonido, escenas impactantes como la mano clavada o el depósito
de cadáveres se perciben fragmentadas y abstractas.
• Con sonido, esos mismos planos adquieren unidad, ritmo y significado
emocional.
• En Las vacaciones de Monsieur Hulot de Tati, ocurre lo contrario:
• Eliminando las imágenes, el sonido revela un universo paralelo de
risas y juegos, invisible pero crucial para el humor de la escena.
Restaurando sonido e imagen en ambos ejemplos, todo recobra su sentido original, pero
con una percepción renovada. Esta interacción muestra que el cine no es solo imagen,
sino una construcción audiovisual, donde el sonido puede añadir valor y profundidad a la
narrativa visual. Este fenómeno, el "valor añadido", es central en la ilusión audiovisual que
explora el cine.

II. El valor añadido: Definición


El "valor añadido" es el efecto por el cual un sonido enriquece expresiva e
informativamente una imagen, creando la ilusión de que dicha información proviene
naturalmente de lo visual. Esto puede dar la impresión errónea de que el sonido es
redundante, cuando en realidad aporta significativamente al significado, incluso a través
de su diferencia con la imagen.
Este fenómeno opera principalmente mediante el sincronismo entre sonido e imagen,
sustentado en la síncresis (la fusión inmediata de lo que se ve y se oye). Ejemplos claros
son choques, caídas o explosiones en pantalla, que adquieren una materialidad
convincente gracias al sonido.
En su forma más básica, el valor añadido surge del texto, ya que el cine es
predominantemente verbocentrista, priorizando la palabra como eje narrativo.

III. Valor añadido por el texto


➔ Vococentrismo y verbocentrismo en el cine
El sonido en el cine prioriza la voz, destacándola sobre otros sonidos. En las grabaciones,
la toma de sonido se centra principalmente en capturar la voz como vehículo de expresión
verbal. Más allá de la fidelidad acústica, lo que se busca es la claridad de las palabras,
reflejando un enfoque vococentrista que, en la práctica, se convierte en verbocentrismo.
Este predominio de la voz responde también a nuestras conductas diarias: cuando oímos
voces entre otros ruidos, tendemos a priorizar su significado antes de notar los demás
sonidos.

➔ El texto estructura la visión


Un ejemplo ilustrativo de cómo el texto añade valor a la imagen proviene de una emisión
televisiva de 1984. Durante una exhibición aérea, el locutor Léon Zitrone describió una
escena diciendo: "Son tres pequeños aviones". Aunque parecía una redundancia
evidente, cualquier otra frase que hubiera dicho (por ejemplo, “El cielo está despejado” o
“Falta un cuarto avión”) habría moldeado la percepción de la imagen, destacando
elementos que de otro modo pasarían desapercibidos.
Chris Marker exploró este fenómeno en su documental Lettre de Sibérie, al superponer
comentarios de ideologías opuestas sobre una misma escena. Sin embargo, su ejemplo
extremo redujo la cuestión a un tema ideológico, dejando de lado que el texto no solo
influye en la opinión, sino que estructura por completo la percepción visual.
A diferencia de una pintura o una fotografía, que permiten una exploración personal, la
imagen cinematográfica nos impone su ritmo y se convierte en una "marioneta" animada
por el texto. Por tanto, el cine no muestra imágenes puras, sino imágenes acompañadas y
moldeadas por palabras que guían nuestra interpretación.

IV. Valor añadido por la música y los ruidos


➔ Efecto empático y anempático
La música en el cine puede generar emociones de dos maneras principales:
1. Música empática: Adapta su ritmo, tono y fraseo a la emoción de la escena,
reflejando y amplificando los sentimientos de los personajes y del espectador.
2. Música anempática: Muestra indiferencia hacia la escena, progresando de forma
impasible. Esta "indiferencia" intensifica las emociones al situarlas en un contexto
cósmico o universal, como las músicas de organillo o caja de música que
aparentan ignorar el drama.

El efecto anempático es inherente al cine, ya que expone la naturaleza mecánica de las


proyecciones, revelando un trasfondo robótico que contrasta con la emoción de la trama.

➔ Ruidos anempáticos
Aunque el efecto anempático suele asociarse con la música, también puede generarse
mediante ruidos. Por ejemplo, en escenas violentas o tras la muerte de un personaje,
sonidos como el zumbido de un ventilador o el flujo de una ducha (como en Psicosis de
Hitchcock) permanecen indiferentes, intensificando el impacto emocional al contradecir la
gravedad de la acción.

V. Influencias del sonido en las percepciones del movimiento y la


velocidad
➔ El sonido como movimiento
El sonido, a diferencia de la imagen, implica movimiento por naturaleza. Mientras en una
escena visual algunos elementos pueden permanecer inmóviles, el sonido siempre
sugiere agitación o desplazamiento. Aunque existen sonidos fijos (como el ruido de fondo
de un amplificador), suelen ser artificiales o extremadamente raros en la naturaleza. El
sonido, además, tiene una dinámica temporal propia, distinta de la percepción visual.

➔ Diferencias en la velocidad perceptiva


El oído procesa información más rápido que la vista. Por ejemplo, un trayecto sonoro
brusco puede ser percibido y memorizado con claridad, mientras que un movimiento
visual rápido queda más borroso. Esto ocurre porque el oído sigue un único punto en el
tiempo, mientras la vista debe combinar análisis espacial y temporal.
➔ Sonido y percepción del movimiento
En el cine, el sonido guía la percepción del movimiento visual. En películas de acción o
efectos especiales, ruidos puntuales (silbidos, choques, gritos) refuerzan la claridad de
movimientos rápidos, creando una impresión audiovisual coherente.
Un caso notable es el trabajo de Ben Burtt en La guerra de las galaxias. El sonido de una
puerta automática hizo creer al espectador que veía un movimiento que en realidad no
existía, transformando un simple encadenado de planos en una ilusión visual gracias al
sonido.

➔ La percepción temporal del oído


El oído no percibe el sonido de manera continua, sino en fragmentos de 2-3 segundos,
que el cerebro sintetiza como formas globales (Gestalt). Aunque esta percepción ocurre
rápidamente, hay un leve desfase entre el momento en que se produce el sonido y su
reconocimiento. Por ejemplo, un aplauso breve se escucha como un evento global algo
después de haberse producido.

[Link] del sonido sobre la percepción del tiempo en la imagen


Efectos de temporalización del sonido
El sonido puede influir significativamente en la percepción del tiempo en una imagen
mediante tres mecanismos:
• Animación temporal: Detalla o concreta la percepción del tiempo en la imagen, o
la hace más vaga y amplia.
• Linealización temporal: Introduce una secuencia lógica y sucesiva entre
imágenes que podrían no tener una conexión temporal en el cine mudo.
• Vectorización temporal: Da dirección y propósito al tiempo, creando expectativas
e inminencia hacia un objetivo.

Condiciones necesarias para la temporalización


La influencia del sonido depende de:
• Naturaleza de las imágenes: Las imágenes sin temporalidad propia (como
imágenes fijas) pueden adquirirla completamente por el sonido. En cambio, las
imágenes con movimiento ya poseen una temporalidad que el sonido puede
complementar o contradecir.
• Características del sonido:
• Ritmos irregulares generan mayor atención que los regulares.
• Texturas accidentadas o trémolos en el sonido aumentan la intensidad
perceptiva.
• Frecuencias agudas suelen mantener al espectador en tensión.

El cine sonoro como cronografía


El sonido sincronizado estabilizó el flujo temporal de las películas, convirtiendo al cine en
un arte del tiempo. Mientras que en el cine mudo la duración de los planos era flexible
según la velocidad de proyección, el cine sonoro establece un ritmo absoluto e inmutable.
Linealización del tiempo
El sonido realista y sincronizado alinea imágenes en un tiempo lineal y sucesivo,
imponiendo una narrativa que podría ser ambigua o simultánea en el cine mudo.

Vectorización del tiempo


Los sonidos, al contrario de muchas imágenes, son naturalmente vectorizados: tienen un
inicio, un desarrollo y un fin irreversibles (como el eco de campanillas o las gotas de
agua). Esto orienta el tiempo de la imagen, haciéndolo irrepetible o inmutable.

Influencias culturales y naturales


Aunque ciertos efectos sonoros (como trémolos o estridencias) tienen una base
psicofisiológica, su impacto está mediado por factores culturales y estéticos. Por ejemplo,
sonidos naturales y vibraciones auditivas sutiles pueden generar tensión o dramatismo, si
están integrados de manera coherente con la narrativa y la imagen.
En conjunto, el sonido no solo complementa la imagen, sino que redefine su temporalidad,
su estructura narrativa y su impacto emocional.

VII. Ejemplo de reciprocidad del valor añadido


El valor añadido entre sonido e imagen es recíproco: cada uno modifica la percepción del
otro. En el cine, el sonido puede intensificar lo que la imagen sugiere sin mostrar
directamente, y viceversa. Un ejemplo clásico es El beso mortal de Aldrich, donde los
gritos de una tortura no vista evocan horror más allá de lo que muestran las imágenes.

Otro caso es La piel de Cavani, donde el sonido creado para un tanque aplastando a un
joven (similar al de una fruta triturada) genera un impacto visceral que depende del
contexto visual y narrativo. Este mismo principio opera en sonidos icónicos de otras
películas, como Los ojos sin rostro de Franju, donde un ruido seco al caer un cadáver
intensifica la deshumanización de la escena, o en Andrei Rublev de Tarkovski, donde un
ruido espantoso tras una ejecución sugiere el daño físico y simbólico a la palabra humana.
Estos sonidos, creados con trucos de sonido y anclados en su contexto, adquieren
significado y fuerza a través de la sincronización y la verosimilitud narrativa más que por
su realismo acústico.

● LÍNEAS Y PUNTOS
La cuestión de lo horizontal y lo vertical
¿Armonía o contrapunto?
En el cine, la relación entre sonido e imagen se compara con la música, donde el
contrapunto implica voces individuales que se coordinan horizontalmente y la armonía se
centra en la relación vertical entre notas simultáneas. Sin embargo, en el cine, las
relaciones son más verticales (armonía) que horizontales (contrapunto). Ejemplos de
"contrapunto" audiovisual suelen ser disonancias momentáneas, y la metáfora musical es
limitada para describir el fenómeno audiovisual, donde los puntos de sincronización entre
sonido e imagen definen su estructura.
La disonancia audiovisual
El "contrapunto" en el cine se percibe solo si hay una oposición evidente entre significado
de sonido e imagen. Sin embargo, esto suele encasillar la interpretación en una lógica
binaria (redundancia/contradicción). Un ejemplo excepcional de contrapunto es Solaris de
Tarkovski, donde sonidos de tintineos de vidrio refuerzan la fragilidad y artificialidad de
una resurrección, trascendiendo la simple contradicción.

Predominio de las relaciones verticales


No existe una "banda sonora" como unidad autónoma; los sonidos interactúan más
intensamente con la imagen que entre sí. Cada sonido establece relaciones directas con
elementos narrativos y visuales, generando un sistema audiovisual único. Si se separan
imagen y sonido, la estructura se descompone, creando nuevas percepciones
independientes. Así, el cine no presenta bandas paralelas de imagen y sonido, sino un
espacio común donde ambos se integran profundamente.

El sonido y la imagen en relación con el montaje


El montaje sonoro carece de unidad específica
A diferencia de la imagen cinematográfica, cuyo montaje ha creado la unidad específica
del plano, el sonido en el cine no ha desarrollado una unidad de montaje similar. Los
cortes sonoros no son perceptibles de manera clara, y aunque el montaje de sonido existe
en medios como la radio o la música grabada, no se ha establecido un equivalente al
"plano visual". Esto se debe a varias razones, incluida la posibilidad de un montaje sonoro
imperceptible.

Montaje sonoro: audible e inaudible


La banda sonora de una película a menudo se construye a partir de múltiples capas
mezcladas. Esta superposición dificulta la identificación de cortes individuales, a
diferencia de los cortes visuales, que son evidentes. Aunque los cortes sonoros pueden
ser brutales y detectables, también pueden integrarse de manera que resulten inaudibles,
lo que limita la posibilidad de una unidad perceptible comparable al plano visual.
La dificultad de crear un "plano sonoro"
Incluso en cineastas como Godard, que enfatizan los cortes sonoros para resaltar
discontinuidades, no se perciben tramos sonoros como bloques autónomos. La
percepción sonora es secuencial y temporal, predominando sobre una posible dimensión
espacial. Los tramos sonoros no generan relaciones estructurales como las que
establecen los planos visuales.
Condiciones para la percepción del sonido
Para que las pistas sonoras se perciban como entidades separadas, estas deben provenir
de fuentes espaciales específicas y no estar sincronizadas con la imagen. Sin embargo,
en la práctica, el sonido queda subordinado a la percepción visual, dado el efecto de
"imantación espacial" que genera la imagen.
Unidades sonoras no específicas
Aunque distinguimos unidades sonoras (frases, ruidos, temas musicales), estas no son
específicas del cine y dependen de la experiencia cotidiana y del nivel de escucha. Así, el
plano visual sigue siendo la unidad dominante en el cine, mientras que la segmentación
sonora se ajusta a las necesidades del montaje visual.
Lógicas interna y externa en el flujo sonoro
El flujo sonoro puede ser continuo (lógica interna) o presentar rupturas y cortes abruptos
(lógica externa). La lógica interna busca un encadenamiento natural, mientras que la
externa enfatiza la discontinuidad, ya sea para crear tensión (como en Alien) o para
construir un estilo más fragmentado y reflexivo (como en El miedo del portero ante el
penalty). Ambos enfoques dependen de las intenciones estéticas del realizador y del
contexto narrativo.
En conclusión, mientras que el montaje visual ha desarrollado una unidad específica en el
cine, el sonido permanece como un flujo dominado por la percepción temporal y
subordinado a la lógica visual del montaje.

El sonido en la cadena audiovisual


Reunir: el agregado unificador
El sonido en el cine actúa como un elemento unificador al conectar las imágenes:

• Temporalmente, desbordando cortes visuales mediante el efecto de


encabalgamiento.
• Espacialmente, creando un entorno sonoro global (por ejemplo, ruidos
ambientales) que da cohesión a las imágenes.
• Musicalmente, deslizando las imágenes dentro de un flujo común, gracias a
partituras que trascienden tiempo y espacio.

Aunque esta función unificadora ha sido criticada por enfoques que abogan por la
diferenciación entre imagen y sonido, se argumenta que el principio unificador también
está presente en la continuidad visual, como en la iluminación y los colores.

Puntuar
El sonido funciona como elemento de puntuación, similar a la gramática en un texto,
modulando el ritmo y el sentido:

• En el cine mudo, la puntuación era visual, gestual y rítmica. Los rótulos añadían
cadencia con su diseño gráfico.
• Con el sonido sincronizado, se introducen elementos como ladridos o relojes que
subrayan diálogos o gestos.
• La música desempeña un papel esencial en la puntuación, destacando momentos
clave. En El delator de John Ford, la música de Max Steiner ejemplifica este
enfoque, apoyando la narrativa con leitmotivs que representan personajes o ideas.

Puntuación simbólica mediante la música: "El delator"

• El delator (1935) es relevante por su estilización sonora, donde la música no busca


imitar ruidos, sino interpretar simbólicamente las acciones y emociones.
• Max Steiner emplea leitmotivs (inspirados en Wagner) para personajes como Gypo
(energético) y Katie (expresivo). La música subraya lo simbólico, no lo literal.
• Una anécdota incorrecta sobre música imitando el gorgoteo de un trago refleja
cómo se crean leyendas sobre el uso del sonido en el cine.
• La película aplica sincronización entre música y acción, pero con fines expresivos y
no imitativos. Ejemplo: la música asociada con las monedas de la traición refleja la
gravedad simbólica del acto.
• La estilización en "El delator" busca alejarse del realismo puro, recuperando
elementos del cine mudo y la ópera. Aunque algunas técnicas han envejecido,
destacan por su audacia y contribución a la evolución del lenguaje cinematográfico.

Elementos del Decorado Sonoro (E.D.S): su uso como puntuación


Los Elementos del Decorado Sonoro (E.D.S.) son sonidos puntuales e intermitentes que
contribuyen a poblar y definir el espacio en una película, como un ladrido lejano, un timbre
o una sirena. Estos elementos, a diferencia de los sonidos continuos que definen el
espacio mismo (por ejemplo, olas o cantos de pájaros), sirven para ambientar y señalar
detalles del entorno. Además de su función narrativa para situar la acción, los E.D.S.
pueden desempeñar un papel puntuador a través del montaje, renovando su significado y
creando ritmos en las escenas. Esto subraya la complejidad del análisis sonoro, ya que un
mismo sonido puede operar en múltiples niveles simultáneamente.

Anticipación: Convergencias y Divergencias


Los sonidos e imágenes en una película no se suceden como elementos aislados, sino
que tienen dinámicas y direcciones que generan expectativas en el espectador. En
música, esto se asocia con curvas melódicas que preparan una cadencia; en el cine,
ocurre con movimientos de cámara, ritmos sonoros o gestos actorales. Estas
anticipaciones, confirmadas o frustradas, forman la base de la narrativa audiovisual.
Un ejemplo de convergencia emocional se da en Hijos de un dios menor: cuando la
música de fondo se desvanece mientras los protagonistas se reúnen, se produce una
sincronización perfecta entre el silencio emergente y el encuentro de los amantes,
generando una emoción intensa. Este proceso refleja cómo el deseo se construye a
través de la expectativa y su resolución.

El Silencio como Separador


El cine sonoro introdujo el silencio como un recurso significativo. Este no es meramente
ausencia de sonido, sino un elemento cargado de contraste. Cada espacio tiene su propio
"silencio", que puede grabarse para encadenar escenas o establecer un marco específico.
Sin embargo, el silencio impacta emocionalmente cuando se prepara mediante ruido
previo, creando un contraste que lo define.

Además, el silencio puede enfatizarse mediante sonidos tenues, como el tic-tac de un


reloj o ruidos lejanos, que se perciben solo al desaparecer otros ruidos dominantes. En
Alien, Ridley Scott utiliza un breve sonido tenue antes de un silencio absoluto, creando
una atmósfera inquietante. En Cara a cara, Bergman intensifica el sonido del reloj en un
contexto silencioso, provocando una sensación angustiosa de vacío.
Finalmente, el uso de reverberaciones suaves alrededor de sonidos aislados, como
pasos, puede reforzar la impresión de vacío y silencio, destacando la ausencia de ruido
ambiental. El silencio, así concebido, no es neutral, sino un recurso narrativo y emocional
profundamente trabajado.

El punto de sincronización y la síncresis


Definición
Un punto de sincronización es un momento destacado en el que un instante sonoro y
uno visual coinciden significativamente en una cadena audiovisual, intensificando el efecto
de síncresis (unión perceptiva). Su emergencia sigue principios guestálticos y puede
manifestarse en diversas formas:
• Ruptura simultánea: cortes sincronizados en sonido e imagen.
• Convergencia: coincidencia premeditada entre trayectorias divergentes de sonido
e imagen.
• Impacto físico: como un primer plano con efecto visual o sonoro marcado.
• Carga afectiva o semántica: por ejemplo, palabras que resuenan con fuerza en
un diálogo.
Estos puntos estructuran el ritmo audiovisual y su relación con la narrativa, a veces
evitando conscientemente su consumación para generar un impacto mayor.

Punto de sincronización evitado


Un punto de sincronización puede intuirse pero no realizarse, fomentando la participación
mental del espectador. Ejemplo: en La jungla del asfalto, el suicidio de un personaje se
insinúa mediante sonido fuera de campo. Este recurso genera un efecto más poderoso al
involucrar la imaginación del público. En Je vous salue Marie, sonidos como "pluf"
sincronizan parcialmente con ondas en un lago, dejando el impacto y su causa fuera de
campo, ampliando interpretaciones posibles.

El golpe como símbolo


El golpe audiovisual, una sincronización directa entre un impacto visual y sonoro, es un
punto de referencia privilegiado en el relato. Ejemplo: las escenas de lucha, donde el
sonido enfatiza lo que no se percibe completamente en la imagen. El sonido fija el
instante en la memoria, mientras que la imagen breve puede desvanecerse. Este recurso
estructura narrativamente el tiempo y se utiliza desde películas clásicas hasta
animaciones como Dragon Ball, donde el golpe permite elasticidad temporal.

Elasticidad temporal
Alrededor de un punto de sincronización como el golpe, el tiempo audiovisual puede
expandirse o comprimirse. Las animaciones japonesas y cineastas como Scorsese (en
Toro salvaje) utilizan ralentizaciones y repeticiones para explorar esta elasticidad.
Originalmente, esta flexibilidad era más común en el cine mudo, pero se ha reintroducido
en el cine sonoro mediante escenas de acción.

La síncresis
La síncresis es la unión espontánea entre sonido e imagen coincidentes, independiente
de su lógica racional. Este fenómeno sustenta el doblaje y la sonorización, permitiendo
múltiples combinaciones sonoras para una misma imagen. Aunque puede parecer
automático, está influido por contextos culturales y principios perceptivos innatos.
Ejemplo: sonidos sincronizados en Persona generan asociaciones instantáneas entre
martillazos y clavos.

Escalas de sincronismo
El grado de precisión en la sincronización varía:
• Sincronismo estrecho: Ajustado estrictamente al movimiento (naturalista).
• Sincronismo amplio: Considera gestos corporales completos, ofreciendo un
efecto poético o relajado.
Estas variaciones estilísticas reflejan diferencias culturales, como en el cine francés
(preciso) e italiano (flexible). La elección del nivel de sincronismo influye en el tono
audiovisual general.

● La Escena Audiovisual
¿Existe una escena sonora?
La imagen como marco
En cine, el término "imagen" no alude a cada fotograma, sino al marco que contiene todas
las imágenes, un espacio constante y delimitado. Aunque las imágenes cambien o incluso
desaparezcan temporalmente (como en Le Plaisir o L’Homme Atlantique), el marco
permanece visible y perceptible. Esta singularidad define la naturaleza cinematográfica
frente a otras formas audiovisuales como las instalaciones de vídeo o los diaporamas, que
emplean múltiples marcos.
Históricamente, se intentó suavizar los bordes del marco mediante degradados o
diafragmas variables, pero el cine optó por el marco fijo, que predomina en la mayoría de
las películas. Las pocas excepciones, como el cine multipantalla (Napoleón de Gance), no
alteraron esta norma.
El sonido: sin marco ni continente
A diferencia de la imagen, el sonido carece de un marco que lo limite. Es ilimitado y puede
superponerse infinitamente. Además, coexiste en diferentes niveles de realidad: desde la
música off hasta los diálogos diegéticos. En cine, los sonidos no tienen un continente
propio, sino que se distribuyen en función de la imagen y su marco. Algunos sonidos se
sincronizan con la acción visual (in), otros permanecen fuera de campo, y algunos son
claramente extra diegéticos (como la música off o las voces en off).
El cine clásico establece el espacio audiovisual como "un lugar de imágenes y sonidos",
donde el sonido busca continuamente su lugar en relación con el marco visual. Esto
contrasta con la televisión, donde la relación audiovisual es distinta.
Si hablamos de una "escena audiovisual", esta está estructurada y delimitada por los
bordes del marco visual. El sonido, en este contexto, no tiene una escena preexistente ni
un lugar autónomo; es contenido o se desborda en relación con la imagen.
Ejemplos de continentes sonoros en cine
En casos específicos, como Othon (Straub y Huillet, 1969), se explora una posible
"escena sonora". Aquí, las voces de los actores, grabadas en exteriores, comparten un
mismo espacio sonoro definido por el ambiente urbano. Incluso cuando los actores hablan
fuera de campo, sus voces se sienten en el mismo lugar que las de quienes están en
pantalla, gracias al sonido ambiente.
Un efecto similar se observa en La Religieuse (Rivette), donde la reverberación directa
crea una cohesión espacial para las voces, aunque a costa de cierta pérdida de
inteligibilidad.
El sonido Dolby, introducido posteriormente, difumina estos bordes tradicionales al crear
un "supercampo" envolvente que rodea la pantalla. Aunque redefine la percepción
espacial, no anula por completo la estructura clásica del cine audiovisual.

Imantación espacial del sonido por la imagen


La principal pregunta sobre el sonido en cine no es dónde está, sino de dónde viene. La
localización de un sonido generalmente se refiere a su fuente, pero el cine crea una
experiencia sensorial compleja: el sonido puede parecer provenir de un lugar distinto al de
la imagen en la pantalla. Por ejemplo, los pasos de un personaje que camina pueden
seguir su imagen visualmente, pero el sonido proviene de un altavoz fijo, no de la pantalla.
Incluso en situaciones como el cine en avión o en un drive-in, los sonidos se perciben
como si vinieran de la pantalla, a pesar de que en realidad provienen de otro lugar.
Esto ilustra la "imantación espacial del sonido", donde el sonido es percibido mentalmente
como emanando de la pantalla. En los primeros intentos de sonido multipista, se intentó
situar los sonidos físicamente en diferentes ubicaciones, pero esto chocó con esta
percepción mental del sonido. El cine se benefició de esta espacialización mental, pues
permitió su funcionamiento durante décadas sin complicaciones.
Con los avances en el sonido Dolby, se aprendió de los fracasos de la espacialización
realista y las mezclas multipistas actuales buscan un balance entre la localización mental
y la real. Sin embargo, el sonido que proviene de un punto distinto a la pantalla solo
puede ser "imantado" si mantiene cierta fijeza espacial. Si se desplaza entre varios
altavoces, pierde su conexión con la imagen y mantiene una fuerza centrífuga.
El cine también ha utilizado la profundidad como una dimensión sonora, que evoca la
lejanía de la fuente del sonido. Esta profundidad no sitúa la fuente detrás de la pantalla de
manera precisa, sino que crea una distancia interpretada por el espectador según lo que
ve en pantalla, una localización mental influenciada por la relación entre la imagen y el
sonido.
Finalmente, esta localización mental contrasta con la espacialización absoluta del cine
multipistas, que trata de ubicar el sonido de manera más precisa.

La Acusmática
Definición
El término acusmático, originario del griego, se refiere a lo que se oye sin ver la causa del
sonido. Medios como la radio, el disco o el teléfono, que transmiten sonidos sin mostrar su
origen, son acusmáticos. En la música acusmática, los sonidos son escuchados sin ver
sus causas, como en la música grabada. En contraste, lo opuesto de esta escucha, la
escucha visualizada, implica escuchar el sonido acompañado de la visión de su fuente.
Visualidad / Acusmática
En una película, un sonido puede seguir dos trayectorias:
• Primero, puede ser visualizado y luego transformarse en acusmático, es decir,
asociado a una imagen precisa. Este sonido es marcado y desmitificado por la
imagen.
• En el segundo caso, el sonido es inicialmente acusmático y solo después se
visualiza, creando misterio sobre su fuente. Este procedimiento es común en
películas de misterio y suspenso, como en M, donde el aspecto del asesino se
mantiene oculto mientras su voz crea tensión.
La noción de sonido acusmático también se utiliza para presentar personajes con poder o
misterio, que son introducidos a través del sonido antes de ser revelados visualmente.
Este contraste entre lo visualizado y lo acusmático es clave en el uso del fuera de campo
en la escritura audiovisual.

La Cuestión del Fuera de Campo


Fuera de campo in y off: el tricírculo
El sonido fuera de campo en el cine se refiere a un sonido cuyo origen es invisible,
mientras que el sonido "in" proviene de una fuente visible en la imagen. Un tercer tipo es
el sonido "off", que es no diegético, es decir, no pertenece al contexto directo de la
escena, como la voz en off o la música orquestal.

¿Las excepciones destruyen la regla?


La distinción entre sonido "in", "fuera de campo" y "off" ha sido criticada por casos que no
encajan perfectamente, como las voces de aparatos o las voces internas de los
personajes. Sin embargo, estas excepciones no invalidan la utilidad de la distinción.

Un punto de vista topológico y espacial


Estas categorías no deben entenderse como absolutos, sino como zonas con matices. Se
requiere una tipología del sonido más completa, que reconozca regiones ambiguas y
nuevas categorías.

El sonido ambiente
El sonido ambiente, como el canto de los pájaros o el viento, define el espacio sin requerir
una localización precisa de su fuente, sirviendo para marcar el territorio.

El sonido interno
El sonido interno se refiere a los sonidos que provienen del interior de un personaje, como
sus pensamientos o sonidos fisiológicos, distinguiéndose en dos tipos: objetivos
(fisiológicos) y subjetivos (mentales).
El sonido "on the air"
Sonidos "on the air", como los de la radio o el teléfono, son transmitidos eléctricamente y
atraviesan las barreras espaciales de la escena. Este tipo de sonido es común en
películas y puede oscilar entre la sincronización precisa y efectos de distanciamiento.
Lugar del sonido y lugar de la fuente
Sonido y fuente del sonido son fenómenos distintos. El sonido, al ser un fenómeno
expansivo, puede llenar el espacio, mientras que la fuente suele ser puntual. En el cine, el
enfoque puede estar en la fuente o en el sonido mismo, como ocurre en los conciertos o
con sonidos reverberantes que expresan el espacio.
En resumen, la distinción entre sonidos "in", "fuera de campo" y "off" es útil, pero debe
comprenderse en un contexto más flexible y con matices topológicos y espaciales.

La Excepción de la Música
Música de foso y música de pantalla
La música de foso acompaña la imagen desde fuera del lugar y tiempo de la acción,
mientras que la música de pantalla emana de una fuente ubicada en el mismo espacio y
tiempo de la acción, aunque pueda estar representada por un aparato fuera de campo.
Esta distinción se ha discutido con varios términos, como diegética y no diegética, pero
preferimos hablar en función del lugar desde donde se emite la música. Existen casos
ambiguos, como cuando una música de pantalla se convierte en música de foso o
viceversa.

La música como plataforma espacio-temporal


La música en el cine puede funcionar como una plataforma espacio-temporal, ya que no
está sujeta a las limitaciones de tiempo y espacio que afectan a otros elementos visuales
y sonoros. A través de su flexibilidad, la música puede atravesar rápidamente grandes
distancias y períodos de tiempo, como se ve en la secuencia de ¡Aleluya! de Vidor.
Además, la música puede dilatar o contraer el tiempo, como en las tensas escenas de
Sergio Leone, donde contribuye a la percepción de que el tiempo se estira o se detiene.

Fuera de Campo Relativo y Fuera de Campo Absoluto


El fuera de campo como relación
El sonido fuera de campo no es una cualidad intrínseca del sonido, sino una relación entre
lo que se ve y lo que se oye. Sin la imagen, los sonidos fuera de campo se perciben igual
de definidos, demostrando que su existencia depende de la interacción de visión y
audición. Ejemplos como Psicosis muestran cómo ciertas voces pierden impacto sin la
imagen correspondiente.
Efectos de bastidores y fuera de campo-cubo de basura (cine multipistas)
El efecto de bastidores ocurre cuando sonidos ligados a causas visibles permanecen en
los altavoces fuera de la pantalla, creando la sensación de que la escena se extiende más
allá del marco visual. Este efecto, utilizado al principio del cine multipista, ha sido evitado
en producciones recientes. El "fuera de campo cubo de basura" se refiere a sonidos,
como explosiones o caídas, captados fuera del campo visual, que dan una sensación
tangible de la acción que ocurre fuera de la pantalla, común en películas de acción.
Fuera de campo activo y pasivo
El fuera de campo activo crea curiosidad e impulsa al espectador a anticipar la aparición
de su fuente. Es común en películas como Psicosis, donde el sonido genera expectativa
sobre lo que se verá. En cambio, el fuera de campo pasivo envuelve la imagen sin
generar expectativas, proporcionando una atmósfera estable que permite mayor libertad
al montaje. El sonido multipistas ha favorecido el fuera de campo pasivo, ya que la
localización precisa de los sonidos fuera de campo puede resultar en efectos no
deseados, como los de bastidores realistas.

La Extensión
Modulación del campo visual y fuera de campo por el sonido
El sonido puede transformar completamente la percepción de un espacio visual fijo. Por
ejemplo, en Persona de Bergman, sonidos como campanas de iglesia o el ruido del mar
modifican la interpretación del entorno, desde una ciudad dormida hasta un paisaje
marino. El sonido puede expandir o reducir la percepción del espacio, generando una
extensión variable del fuera de campo imaginado.
Variaciones de la extensión
La extensión sonora se refiere al espacio que los sonidos evocan alrededor del campo
visual y los personajes. Puede ser nula, limitada a los sonidos internos de un personaje, o
amplia, incluyendo ruidos de contextos lejanos. Variaciones en la extensión generan
efectos narrativos, desde la concentración en un espacio íntimo hasta la inmersión en un
entorno amplio.
Ejemplos destacados incluyen La ventana indiscreta, que alterna entre un patio de
vecinos y la ciudad circundante, e Hijos de un dios menor, donde el entorno se reduce
gradualmente hasta desaparecer, reflejando el aislamiento emocional de los personajes.
Por otro lado, películas modernas como Blade Runner mantienen una extensión amplia,
incorporando constantemente sonidos del entorno.
Las variaciones pueden también emplearse de manera súbita entre escenas o llegar al
silencio absoluto para representar subjetividades, como el infarto en Que empiece el
espectáculo de Bob Fosse. El sonido multipistas, aunque amplía posibilidades, puede
dificultar la concentración en puntos específicos, como en los efectos de encogimiento
usados en La ventana indiscreta.

El Punto de Escucha
Punto de escucha espacial y subjetivo
El punto de escucha, inspirado en el concepto de punto de vista, tiene dos sentidos
principales:
• Espacial: Desde dónde se perciben los sonidos en el espacio representado.
• Subjetivo: Qué personaje se asocia con los sonidos percibidos.
Al igual que en la imagen, un punto de escucha subjetivo puede ser sugerido mediante
montaje o asociación visual, por ejemplo, al mostrar un personaje mientras se oye un
sonido que parece provenir de su entorno.
Dificultades para definir el punto de escucha acústico
A diferencia de la imagen, el sonido es omnidireccional y menos preciso para determinar
un lugar específico de escucha. Por ejemplo, en un salón circular, los oyentes en
diferentes puntos perciben el sonido de manera similar, creando más un área de escucha
que un punto exacto.
La imagen crea el punto de escucha
La representación visual define el punto de escucha subjetivo. Por ejemplo, un personaje
mostrado en primer plano mientras se oye un sonido posiciona ese sonido como parte de
su experiencia. En casos como conversaciones telefónicas, el filtrado sonoro ayuda a
asociar el punto de escucha al receptor de la llamada.
Voz de frente y voz de espaldas
Los agudos direccionales permiten diferenciar entre una voz escuchada de frente o de
espaldas. Estas variaciones, propias del sonido directo, añaden realismo, pero no suelen
bastar para determinar un punto de escucha.
Escotomización del micro-oído
A diferencia de la cámara, el micrófono debe permanecer invisible e imperceptible para el
espectador. La naturalización del sonido en el cine, en contraste con la mayor libertad
estética de la imagen, ha perpetuado una concepción más realista del audio. Este
enfoque, aunque cuestionado, sigue influyendo en la técnica y la percepción del sonido
cinematográfico.

● HACIA UN AUDIOLOGOVISUAL
Libertad del texto en el cine mudo
El cine mudo capturaba la naturaleza fragmentaria y cambiante de la percepción humana,
mostrando cuerpos en luz y sombra, con una atención que oscilaba entre detalles y
conjuntos. Sin embargo, el diálogo, en su rigidez y claridad absolutas, siempre ha
desafiado esta fluidez, manteniéndose como un elemento estable e ineludible en el cine
hablado.
En el cine mudo, el lenguaje estaba presente de dos maneras:
1. Explícita: A través de los rótulos intercalados, que resumían, ubicaban y aportaban
juicios o diálogos en estilo directo o indirecto.
2. Implícita: Mediante imágenes y gestos que, al ser filmados y montados, constituían
un discurso narrativo visual.
Los rótulos, aunque útiles y flexibles, interrumpían la continuidad visual, introduciendo un
elemento externo y resumido. Esto permitía una libertad narrativa que el cine hablado
redujo drásticamente al priorizar diálogos directos emitidos en tiempo presente por los
personajes.
La transición al cine hablado, aunque no inmediata, consolidó un modelo dialogado
dominante, pero no único. Existen tres modalidades principales de la palabra en el cine
sonoro:
1. Palabra-texto: Narrativa y descriptiva.
2. Palabra-teatro: Actuada, directa y dialogada.
3. Palabra-emanación: Más sutil, ligada al ambiente o a una experiencia sensorial.

La palabra-teatro
La palabra-teatro es el diálogo que cumple funciones dramáticas, psicológicas,
informativas y afectivas en el cine. Se percibe como parte de la acción, emanando de los
personajes, con total inteligibilidad. Es el modelo predominante en el cine hablado desde
sus inicios y también incluye la voz interior, tratada como un aparte teatral, aunque sigue
integrada en la acción concreta.
Este enfoque estructura toda la película: desde el guion hasta el montaje, pasando por la
actuación y los movimientos de cámara. La palabra se convierte en el núcleo central,
condicionando la escenificación de tal manera que su papel organizador pase
desapercibido.
Películas recordadas como "de acción", como Río Bravo de Hawks o muchas de
Hitchcock, son en realidad dominadas por el diálogo, que se trata como si fuera acción.
Gestos, movimientos de cámara o reencuadres actúan como puntuaciones del texto,
ayudando a equilibrar la atención entre lo visual y lo verbal.
Incluso los silencios o interrupciones en el diálogo, como un beso que resuelve una
confrontación verbal, refuerzan este modelo, subrayando su potencia narrativa y su
especificidad cinematográfica frente a otras formas artísticas como el teatro o la ópera.

La palabra-texto
Definición
La palabra-texto, típica de la voz en off, hereda funciones de los rótulos del cine mudo. A
diferencia de la palabra-teatro, tiene el poder de influir directamente en las imágenes,
evocando lugares, personajes o eventos. Cuando domina completamente, elimina la
autonomía de la escena audiovisual, subordinando las imágenes y sonidos a su discurso.
Sacha Guitry exploró esta supremacía en Le Roman d’un tricheur, pero el uso de la
palabra-texto suele limitarse a narradores privilegiados, como personajes principales,
testigos o narradores omniscientes, quienes configuran el marco de la historia antes de
desaparecer para ceder protagonismo a la acción visual y dramática (La mujer de al lado
de Truffaut). En ocasiones, se enfatiza la redundancia o contradicción entre palabra y
imagen, como en los gags de Annie Hall de Woody Allen, o las rupturas narrativas en M y
El testamento del doctor Mabuse de Fritz Lang.
La palabra-texto conecta con el placer de nombrar y dominar la creación, evocando un
viejo poder narrativo que encuentra en el cine un nuevo desafío: traducir la abstracción
verbal en concreción visual y sensorial. Este contraste plantea una tensión creativa,
donde el texto genera imágenes, pero estas siempre revelan más detalles de los que el
discurso puede abarcar.
Desafío entre palabra-texto e imagen
El cine enriquece la palabra-texto con la capacidad de materializar lo evocado. Sin
embargo, este poder también evidencia las limitaciones del texto, pues las imágenes
inevitablemente muestran más de lo dicho. En este enfrentamiento, algunos cineastas
estilizan las imágenes para acercarlas al texto (como Lang en M), mientras que otros
exploran la contradicción entre ambas, destacando el abismo entre lo narrado y lo visual
(Orson Welles, Michel Deville).
El texto errante
Un caso particular es el texto errante, ejemplificado por Lettre à Freddy Buache de
Godard. Esta obra combina voz, imagen y música en una relación no directa, donde la
palabra busca, se interrumpe, resume, mientras la cámara explora y divaga por su cuenta.
Aunque hay momentos de sincronización entre palabra e imagen, prevalece la sensación
de búsqueda y desconexión, acentuada por el Bolero de Ravel como referencia
constante.
Godard toma inspiración de Guitry en Le Roman d’un tricheur, pero con diferencias clave:
mientras Guitry subordina la cámara al texto, en Godard la cámara toma su propio
camino, capturando detalles inesperados y creando un diálogo fluido y ambiguo entre lo
verbal y lo visual. Esta oscilación entre la palabra que guía y la imagen que tropieza
define el carácter errante de este enfoque.

La palabra-emanación en el cine
Definición
La palabra-emanación es un modo de representar el diálogo en el cine donde las palabras
no son completamente audibles ni están subordinadas a la acción central. Se perciben
como una prolongación de los personajes, al igual que su silueta, siendo significativas
pero no dominantes. Este recurso es inusual en el cine sonoro debido a limitaciones
estéticas y culturales.

Contraste con otros modos


1. Palabra-texto: Vinculada al cine mudo, donde los diálogos se resumían en
intertítulos.
2. Palabra-teatro: Común en el cine hablado, estructurado alrededor del texto.
El cine hablado ha priorizado la palabra-teatro, consolidando un modelo lineal que
margina la libertad expresiva de las palabras como un elemento secundario.

Relativización de la palabra
Desde el inicio del cine sonoro, algunos cineastas han intentado diluir la centralidad del
diálogo mediante varios recursos:
1. Rarefacción: Reducir la cantidad de diálogo, como en Bajo los techos de París de
René Clair, o 2001: Una odisea del espacio de Kubrick.
2. Proliferación y adlibs: Superposición y acumulación de diálogos hasta que
pierden peso narrativo, como en La golfa de Renoir o Alien de Ridley Scott.
3. Poliglotía: Uso de idiomas extranjeros o mezcla de lenguas, como en Playtime de
Jacques Tati o Muerte en Venecia de Visconti.
4. Palabra inmersa: Hundir los diálogos en un "baño sonoro" con otros sonidos
ambientales, como en Las vacaciones de Monsieur Hulot de Tati.
5. Pérdida de inteligibilidad: Hacer que los diálogos sean parcialmente audibles
para reflejar subjetividades, como en Blackmail de Hitchcock.
6. Descentrado: Desviar la atención de los diálogos al privilegiar otros elementos
como el découpage o el movimiento de los personajes, como en las películas de
Fellini o Tarkovski.

Conclusión
La palabra-emanación representa un cine polifónico donde las palabras coexisten con
otros elementos sensoriales, diluyendo la centralidad del texto. Aunque rara, esta técnica
aparece en autores como Tati, Tarkovski y Fellini, proponiendo una experiencia
cinematográfica más integral y sensorial.

Una integración sin fin


Este nuevo cine sonoro descentrado, que recupera valores del cine mudo, puede verse
como una fase del cine narrativo en la que se reintegran elementos que la palabra había
relegado. Aunque muchas películas aún siguen siendo mayormente verbocéntricas, este
"tercer cine" se caracteriza por su promesa de integrar diferentes elementos de manera
discontinua y fragmentada, creando una originalidad única.
La historia del cine es un movimiento continuo de integración de la imagen, el sonido, lo
sensorial y lo verbal. En ciertos períodos, esta fusión ocurre, pero a menudo simplificando
y dominando un elemento sobre los demás. Sin embargo, también hay momentos de
evolución y de ruptura, como los que ocurrieron en los años 50 con las comedias
musicales o las actuales películas de acción con efectos especiales. Estas películas
muestran una incongruencia entre los elementos clásicos y nuevos, pero a menudo
producen momentos intensos.
Este proceso de integración no ha terminado, y el futuro puede traer nuevas formas de
combinar lo real y lo verbal, ya sea en el cine de autor o en géneros populares. Un
ejemplo de esta búsqueda es la película Hijos de un dios menor de Randa Haines, que
presenta una situación única: una sordomuda expresa sus palabras a través del lenguaje
de señas, mientras su compañero las traduce en voz alta. Esta película invita al
espectador a experimentar una integración sensorial y verbal inédita, aunque, en última
instancia, fallida.

Goudreault, André & Jost, Francois (1995): el


relato cinematográfico. Cine y Narratología. BsAs:
Paidós. Capítulo 6: Auricularización
1. La focalización en Genette
Se refiere a las relaciones de conocimiento entre el narrador y los personajes, y cómo
estos se distribuyen en el relato. Según Todorov (1966), las tres posibles relaciones son:
1. Narrador > Personaje: El narrador sabe más que los personajes.
2. Narrador = Personaje: El narrador sabe lo mismo que los personajes.
3. Narrador < Personaje: El narrador sabe menos que los personajes.
Genette (1972) introduce el término focalización para evitar las connotaciones visuales
de los términos como «punto de vista». Propone una clasificación tripartita:
1. Focalización cero: El narrador es omnisciente y sabe más que los personajes.
2. Focalización interna: Los eventos son presentados desde la perspectiva de un
solo personaje, que puede ser:
• Fija: Siempre es el mismo personaje (ej., Lo que sabía Maisie).
• Variable: Cambia a lo largo de la narración (ej., Madame Bovary).
• Múltiple: El mismo evento es narrado desde varias perspectivas (ej.,
Rashomon).
3. Focalización externa: El narrador no revela los pensamientos ni sentimientos de
los personajes (relato behaviorista).
Genette también incorpora la idea de ver, aludiendo a cómo la perspectiva de un testigo
externo o la ausencia de descripción de un personaje focal impactan la narración.

2. Saber y ver: focalización y ocularización


La confusión entre saber y ver, reunidos bajo el término «focalización», es problemática
cuando se reflexiona sobre el cine, ya que este puede mostrar lo que un personaje ve y lo
que piensa. Genette utiliza Rashomon como ejemplo de focalización interna, pero la
película muestra a los personajes desde el exterior, lo que contradice este concepto.
Para resolver esta distinción, Jost (1983) propone separar los puntos de vista visual y
cognitivo, introduciendo el término ocularización. Este concepto describe la relación
entre lo que la cámara muestra y lo que el personaje ve. Ocularización puede ser:

Primaria
Interna
Ocularización Secundaria
Cero

Un ejemplo clásico de ocularización es el cortometraje How it Feels to Be Run Over


(1900), donde el espectador se identifica con la cámara y, a través de ella, con el
personaje a punto de ser atropellado, creando una experiencia de identificación visual y
cognitiva. Esto refleja una ocularización interna si se conecta con la visión del personaje o
una ocularización cero si se presenta de manera objetiva y externa.

Ocularización Interna Primaria


La ocularización interna primaria tiene varias configuraciones. En primer lugar, puede
sugerir la mirada de un personaje sin mostrarla directamente, utilizando indicios como la
materialidad de un cuerpo, un ojo visible, o un objeto como un agujero de cerradura,
prismáticos, o un microscopio. Este tipo de ocularización también puede implicar una
distorsión visual, como cuando un personaje está borracho o tiene problemas de visión, lo
que ayuda a construir la mirada del personaje (ej., El último o Con la muerte en los
talones).
Otra forma de ocularización interna es mediante el movimiento subjetivo de la cámara,
que simula la visión de un personaje a través de su temblor o brusquedad. Ejemplos
incluyen Senda tenebrosa o M de Fritz Lang, donde la cámara sigue a un personaje o
transmite su perspectiva.
Un caso célebre es La dama del lago (1947), donde la cámara nunca muestra al
protagonista Marlowe, pero usa movimientos y enfoques para construir su mirada. Sin
embargo, el traveiling subjetivo puede ser ambiguo, ya que el temblor de la cámara
podría ser una técnica narrativa o simplemente un defecto de rodaje, dependiendo del
contexto de producción.

La ocularización interna secundaria


Se caracteriza por la construcción de la subjetividad de la imagen a través de raccords,
como en el plano-contraplano, y por una contextualización adecuada. Cualquier imagen
que se relacione con una mirada mostrada en pantalla, siguiendo ciertas reglas
«sintácticas», quedará vinculada a ella.

La ocularización cero
Ocurre cuando ningún personaje ve la imagen, es decir, cuando es un «nobody’s shot»
(disparo de nadie). El plano entonces remite a un gran imaginador, cuya presencia puede
ser más o menos evidente. Se distinguen varios casos:
a) La cámara está fuera de la visión de los personajes, mostrando la escena sin
llamar la atención sobre el aparato de filmación, como en el cine comercial
convencional.
b) La cámara subraya la autonomía del narrador, separándose de los personajes.
Ejemplos incluyen el principio de Ciudadano Kane o el final de El reportero (1975),
donde la cámara enfatiza el papel del narrador.
c) La cámara puede reflejar una elección estilística que destaca al autor, como en los
contrapicados de Welles o los «desencuadres» de Godard.

3. La escucha: la auricularización
La auricularización se refiere a la construcción de un "punto de vista" sonoro en el cine,
similar a la ocularización. Esto implica el tratamiento de sonidos, palabras y música para
crear una perspectiva auditiva de un personaje. Existen varias dificultades al construir
esta posición auditiva:
a) Localización de sonidos: A diferencia de la imagen, que tiene una localización
espacial, el sonido fílmico generalmente carece de dimensión espacial, lo que hace
difícil identificar su origen en la escena. Esto crea una "escucha acusmática",
donde escuchamos el sonido sin ver de dónde proviene.
b) Individualización de la escucha: Las personas no perciben el mismo decorado
sonoro en una escena, ya que el sonido cubre tanto el campo como el fuera de
campo inmediato sin distinción. Godard juega con este efecto, especialmente en
sus escenas de café.
c) Inteligibilidad de los diálogos: A lo largo del tiempo, se ha priorizado la
inteligibilidad de los diálogos sobre la reproducción exacta de los sonidos, evitando
ruidos fuertes o música que interfiriera con la comprensión. A menudo, las películas
comerciales no presentan una preferencia auricular, centrando la atención en la
claridad del diálogo. Cineastas como Godard, sin embargo, desafían esta
tendencia, como en Week-End (1967), donde la música cubre partes de la
conversación para permitir que el espectador use su imaginación.
El sistema de auricularización se puede dividir en varias formas:
1. Auricularización interna secundaria: El sonido es condicionado por el montaje o
la representación visual. Un ejemplo es M, donde el sonido cambia dependiendo de
lo que vemos, como cuando un personaje se tapa los oídos y el sonido
desaparece. En Nosferatu, se oye el reloj de pared en el castillo del vampiro,
creando una conexión entre la imagen y el sonido.
2. Auricularización interna primaria: Aquí, no se sabe exactamente de dónde
proviene el sonido, pero se construye una escucha particular a través de
deformaciones, como una resonancia o pérdida de frecuencias. Por ejemplo, en Te
amo, te amo, el sonido de la respiración del personaje bajo el agua se deforma, lo
que indica su estado. También puede usarse la supresión de ciertos sonidos para
marcar un cambio narrativo, como en Una noche, un tren.
3. Auricularización cero: El sonido es manipulado para cambiar según la distancia
de los personajes o por razones de inteligibilidad, sin ser atribuido a un personaje.
En El desprecio, Godard lleva esta idea al extremo al interrumpir la música cada
vez que los personajes hablan entre sí.

4. Las imágenes mentales


Desde sus inicios, el cine ha buscado representar no solo la mirada, sino también las
imágenes mentales como imaginaciones, recuerdos o alucinaciones. La dificultad es
diferenciarlas de las imágenes percibidas directamente en la diégesis. El cine primitivo
adoptó diversos procedimientos para esto, como el "bocadillo" o la sobreimpresión, que
señalaban que las imágenes eran imaginarias y no reales. Estos códigos se conocieron
como operadores de modalización.
Inicialmente, las imágenes mentales no se vinculaban a la vista del personaje, pero con el
tiempo se les atribuyó a través de la mirada, utilizando operadores de modalización o
raccords de mirada, como en Metrópolis o Hiroshima, mon amour. Con el cine sonoro,
surgieron efectos como ecos y resonancias para sugerir auricularizaciones modalizadas.

5. La focalización cinematográfica
La focalización en el cine no se reduce simplemente a la ocularización o auricularización,
sino a cómo el relato organiza el conocimiento del espectador y los personajes.
1. Focalización Cognitiva: La ocularización depende de factores como las acciones
en escena y los decorados, y el valor cognitivo de lo que vemos puede variar. A
veces, la imagen se presenta sin corresponder exactamente a la percepción del
personaje, lo que genera un "suspense", como en Mister Arkadin o Ciudadano
Kane.
2. Focalización Interna: Cuando el relato se limita a lo que sabe un personaje, como
en Mister Arkadin, aunque no siempre compartimos su mirada. Esta focalización se
asocia con la voz en off, donde la correspondencia entre lo dicho y lo visto se
vuelve clave, como en La dama del lago o Marnie.
3. Focalización Externa: Aquí, el relato se presenta desde una perspectiva externa al
personaje, sin que conozcamos sus pensamientos internos. Este enfoque se utiliza
para crear misterio o suspense, como en Psicosis o Extraños en un tren, donde la
información es retenida para mantener al espectador en incertidumbre.
4. Focalización Espectatorial: El narrador puede dar al espectador una ventaja
cognitiva, mostrándole más información de la que los personajes conocen. Este
enfoque, usado en películas como Psicosis y Extraños en un tren, crea un
desequilibrio cognitivo que mantiene al espectador en tensión o anticipación.
En resumen, la focalización no depende únicamente del conocimiento del narrador, sino
de la posición narrativa en relación con el protagonista. La manipulación de la información
y la perspectiva del espectador son claves en la construcción de la trama cinematográfica.

6. Focalización y género
La focalización en el cine rara vez se mantiene constante a lo largo de un relato, pero
puede variar según el tipo de historia o el objetivo narrativo.
1. Focalización Interna: Algunas películas, como La condesa descalza o Rashomon,
utilizan este enfoque para narrar una misma historia desde diferentes puntos de
vista, limitados al conocimiento de un personaje. También se usa en películas de
investigación, donde descubrimos los eventos al mismo tiempo que el protagonista.
2. Focalización Externa: En filmes como Psicosis, la focalización externa se emplea
para crear un enigma, ya que el espectador sabe más que los personajes, lo que
mantiene la incertidumbre. Esta técnica también se usa para resolver misterios.
3. Focalización Espectatorial: Esta focalización da una ventaja cognitiva al
espectador, lo que provoca suspense o efectos cómicos. Películas como Psicosis o
Mister Arkadin usan este recurso para generar tensión o sorpresa.
Saitta, Carmelo (2002): el diseño de la banda
sonora en los lenguajes audiovisuales. BsAs:
Saitta publicaciones Musicales
LOS MENSAJES ACÚSTICOS
El cine narrativo, aunque pueda aludir a la realidad, es en sí mismo una ficción con reglas
propias. Estas reglas se definen por su capacidad para transformar elementos denotativos
en significados nuevos y más abiertos, relacionados con las artes y connotaciones
metafóricas.
En cuanto a las decisiones acústicas, el cine utiliza sonidos, sean musicales o no, para
establecer un vínculo entre la información sonora, visual y narrativa. Sin embargo, la
relación entre estos tres lenguajes no es clara, ya que cada uno tiene su propia
estructura. El sonido se divide en cuatro capas: habla, ambiente, efectos especiales y
música, pero en la práctica, estos elementos se entrelazan, difuminando sus límites.
El estudio de la relación entre las estructuras sonoras y las imágenes debe considerar tres
aspectos clave:
1. La semanticidad del sonido no verbal, como la información que puede
proporcionar una estructura sonora simple.
2. La música, con su doble faceta: la organización interna y la información extra-
estructural que transmite.
3. La relación entre sonido y secuencia cinematográfica, considerando tanto la
imagen, su evolución temporal, como el contexto narrativo.
Henri Pousseur distingue dos tipos de mensajes sonoros: aquellos sin intención de
comunicar, que aún así transmiten información sobre fenómenos naturales o mecánicos,
como la lluvia, el viento, o el sonido de un coche. El segundo tipo son los mensajes
acústicos intencionales, que incluyen el habla, los sonidos no verbales y las
onomatopeyas.
Pierre Schaeffer, por su parte, clasifica los sonidos en cuatro cadenas: naturaleza
(incluyendo sonidos animales), habla, música, y sonidos de artefactos. Estas categorías
reflejan dos formas diferentes de escuchar: una en la que el sonido es un índice,
evocando un fenómeno, y otra en la que se percibe como un estímulo acústico,
priorizando las cualidades sonoras.
Dentro de los lenguajes sonoros intencionales (excluyendo los verbales y onomatopeyas),
encontramos tres formas:
1. Ambientación sonora, donde el sonido se ajusta a la lógica de las acciones
representadas.
2. Sonomontaje, que se basa en la relación estructural entre sonidos, creando
ambigüedad y significado por su contigüidad o contraste.
3. Música, en la que el compositor controla todos los parámetros y sus relaciones,
garantizando una red estructural compleja y coherente.
Las condiciones para caracterizar la música no son suficientes para definir muchas obras
de arte, lo que plantea el problema de establecer grados dentro de la música o crear una
nueva categoría. Es crucial separar la música del arte musical, ya que el arte musical
involucra una constante revisión de sus principios para generar nuevos símbolos. La
historia de la música es la historia de innovaciones y aportes, tanto conscientes como no,
de los músicos.
El arte musical se caracteriza por el uso original de parámetros existentes, la
incorporación de nuevos parámetros y la creación de nuevos sistemas relacionales. Esta
distinción es esencial para entender tanto las obras como las conductas que involucran.
Es importante considerar el mayor o menor compromiso de los lenguajes sonoros con el
material, lo que puede verse como una gradación entre lo evocativo y lo acústico. Esto
permite un tránsito desde un arte de representación a uno de signos, de un mensaje con
poca información a otro con mayor libertad de elección, estimulando la imaginación.
Estos aspectos son valiosos para el cine, donde tanto los sonidos como las estructuras
sonoras proporcionan información a dos niveles: evocativo o acústico. Una estructura
sonora también puede reducirse desde dos enfoques: analítico o metafórico.
El análisis de los lenguajes acústicos no verbales se debe hacer desde estos dos niveles.
La reducción analítica comunica la organización y sintaxis de las estructuras, y su aspecto
sintáctico-formal es fundamental, especialmente en el cine, que tiene una dimensión
temporal propia. El ritmo musical y prosódico, fundamental en estas disciplinas, también
debe ser considerado como una estructura cerrada, donde el todo tiene sentido por las
partes que lo componen. Como señala Gisele Brelet, el ritmo es la esencia misma de toda
estructura artística.

IDEA DE TIEMPO
En el cine, el tiempo puede organizarse de diversas maneras, abandonando la
concepción lineal en favor de tiempos simultáneos. Este fenómeno se observa también en
la música y las artes visuales. En la literatura, se logra mediante alternancias, como en
"Rayuela" de Cortázar.
Se distinguen tres concepciones temporales: ser, estar y devenir, relacionadas con el
desarrollo del material en el tiempo. Existen dos teorías del presente: una como franja
estrecha entre el pasado y el futuro, y otra como un "presente ancho", donde el pasado y
el futuro se actualizan continuamente.
En cine y música, la segunda concepción es más relevante, ya que el receptor actualiza el
pasado y el futuro en un presente amplio. El tiempo virtual, construido por las estructuras
formales de la obra, es clave en las artes, relacionado con el ritmo y la percepción del
receptor. Se distingue entre el tiempo asociado al movimiento, en las artes visuales y el
cine, y el tiempo estático, en la plástica y la literatura, cada uno con su propio ritmo.
Además, se debe diferenciar la velocidad de la densidad cronológica.
EL RITMO
El ritmo es entendido de diversas maneras: Aristóteles lo define como el número del
movimiento, Platón lo ve como el orden del movimiento en el tiempo, Kant lo relaciona con
la "realidad empírica", y Bergson lo describe como una serie irreversible y única.
Woodrow, por su parte, lo define como la percepción de estímulos organizados en grupos
repetitivos.
Para nosotros, el ritmo es un fenómeno que la conciencia formaliza a través de la materia,
organizado en un tiempo específico, donde cada instante es único e irreversible. Se
manifiesta como una sucesión de fenómenos destacados que marcan momentos de
referencia, creando una duración fluida a través de imágenes, sonidos o gestos. Estos
"ictus" marcan segmentos de duración que estructuran la narrativa, especialmente en el
cine, donde el tiempo es virtual y se construye mediante la articulación formal de los
elementos.
La organización rítmica no solo depende del tiempo, sino también de un soporte material,
como el sonido, que influye en cómo percibimos el objeto. El movimiento, como señaló
Platón, es otra forma de percibir el transcurso del tiempo. Es esencial no separar los
sonidos de la organización rítmica, ya que, según Aristóxeno, el ritmo necesita materia
para existir; el tiempo no puede dividirse por sí mismo, sino a través de fenómenos
sucesivos.
Los ritmos elementales, según los griegos, requieren dos "ictus" para medir una duración:
un inicio y un fin, como en el cronómetro de una carrera o en el sonido de una tecla.
El ritmo se define a partir de dos "ictus" o cortes en el tiempo, necesarios para establecer
una medida. Los griegos lo denominaron "ritmo primero" y distinguieron entre dos ritmos
elementales:
1. Valores iguales: dos sonidos de igual duración.
2. Valores desiguales: dos sonidos de distinta duración.
Además, tres ictus permiten definir un campo rítmico, que puede ser:
• Regular: si la distancia entre los ictus es uniforme.
• Irregular: si las distancias varían.
• Continuo: lleno de sonido.
• Discontinuo: con espacios vacíos.
La densidad cronométrica (cantidad de eventos por unidad de tiempo) también
caracteriza el campo rítmico. Estas variables crean combinaciones de regularidad,
irregularidad, continuidad y discontinuidad.
El ritmo no es solo la relación entre las duraciones de los sonidos, sino también la
distancia entre sus entradas. Así, explicarlo exclusivamente a partir de figuras musicales
puede ser erróneo, ya que la duración y las entradas no siempre coinciden. En ritmos
reversibles e irreversibles, los factores corto-largo no solo se aplican a duraciones, sino
también a alturas, intensidades o timbres, generando diversas percepciones.
Operaciones rítmicas como yuxtaponer, subdividir, sustituir con silencios y combinar
ritmos elementales permiten crear estructuras más complejas, aplicables tanto a valores
iguales como desiguales. Estas operaciones justifican decisiones rítmicas dentro de un
sistema organizado, al igual que en melodía o armonía.
En cine, el ritmo combina elementos como cámara, montaje y acciones. Ejemplos
notables incluyen Acorazado Potemkin (Eisenstein), Delicatessen (Jeunet y Caro), y
Vertigo (Hitchcock). El ritmo en cine, siendo virtual, permite múltiples campos y
procedimientos simultáneos o sucesivos, los cuales deben ser controlados para mantener
proporcionalidad, equilibrio y armonía. Aunque estas estructuras suelen estar "ocultas"
detrás de la narrativa, son fundamentales para la cohesión de la obra. Como en el
lenguaje verbal, el ritmo (nivel del significante) siempre existe, y su articulación puede
enriquecer la construcción artística.

EL SONIDO
Henri Pousseur afirma que "cada sonido nos cuenta una pequeña historia", y Pierre
Schaeffer, en Tratado de los Objetos Musicales, y Michel Chion, en La Audiovisión,
profundizan en la relación del sonido con la imagen. Sin embargo, persiste una notable
ignorancia sobre el diseño sonoro en cine debido a la falta de formación y la percepción
del sonido como secundario.
El sonido no solo complementa la imagen; es un factor narrativo, expresivo y unificador en
la experiencia audiovisual. Frecuentemente, se limita a la "sonorización", una redundancia
que reproduce acciones visibles (como pasos al caminar). Aunque útil, esta aproximación
puede resultar "inaudible" al depender de una lógica cotidiana.
El diseño sonoro trasciende el realismo al explorar otras cualidades, como la evocación
de lo fuera de campo y narrativas simultáneas. Chion y Schaeffer proponen ir más allá del
sonido figurativo, abordándolo como materia autónoma con cualidades acústicas y
estéticas. Esto requiere una escucha "reducida", enfocada en la textura y timbre, más allá
de su causa o significado.
Schaeffer clasifica los sonidos según criterios:
1. Morfología: Basada en la factura (impulsión, formado, iteración) y la masa
(tonicidad, complejidad, variabilidad).
2. Temporalidad: Duración y variación en el tiempo.
3. Estructura: Equilibrio y originalidad dentro del diseño sonoro.
La tipología distingue sonidos equilibrados (impulsivos, formados, iterados) y
desequilibrados, enfatizando cómo su organización define la narrativa. Diseñar sonido
requiere atención tanto a su función evocativa como a sus propiedades materiales,
ampliando la experiencia sensorial del oyente.
Un análisis sonoro puede enfocarse en:
• Independizar el sonido de la acción.
• Reconocer cualidades evocativas, fidelidad a la imagen y distorsión.
• Identificar sonidos a través del gesto o contexto.
Esto plantea un cambio en la actitud hacia el sonido, permitiendo una experiencia
sensorial más rica y un diseño sonoro más innovador y significativo.

Narrar con Sonidos


El sonido transmite información en dos niveles principales: semántico y acústico.

Nivel semántico
Los sonidos evocan causas específicas gracias a la experiencia previa del oyente,
funcionando como índices que representan eventos o acciones (e.g., el sonido de una
puerta cerrándose puede indicar tamaño, material, ubicación, o intención del acto). Este
nivel está ligado a la percepción inmediata y el significado atribuido por el oyente.

Nivel acústico
Este nivel, más técnico y menos evidente para el oyente común, analiza las propiedades
físicas del sonido (e.g., composición espectral, envolvente dinámica, propagación en el
espacio). Cambios en estas características pueden alterar la percepción de la causa. Este
análisis permite diseñar relaciones entre sonidos más allá de su origen, influyendo en la
narrativa sonora y estructuración de la banda sonora.

Factores clave en el diseño sonoro


1. Punto de escucha: Influye en cómo se perciben los sonidos.
2. Espacio sonoro: Ambientes, desplazamientos, y cambios de ubicación.
3. Temporalidad: Duración, elipsis, y secuencias.
4. Referencialidad: Distinción entre sonido y ruido.
5. Densidad: Simultaneidad de sonidos y ritmo lineal.
6. Relación espacio-sonido: Impacto del entorno en las cualidades acústicas.
7. Interacciones: Conflictos entre música, efectos descriptivos, y diálogo.
8. Narrativa sonora: Determina qué puede ser contado mediante sonidos.
9. Estructura: Ritmo, forma, y organización del relato sonoro.
El diseño sonoro requiere atención a estos aspectos para construir narrativas coherentes
y significativas, integrando sonidos de diferentes orígenes (habla, naturaleza, música,
artefactos) en una experiencia sensorial enriquecida.

Los Efectos Especiales de Sonido


Los efectos especiales de sonido cumplen funciones esenciales más allá de la evocación
de su causa, y su relevancia radica en dos aspectos principales:
1. Cualidades expresivas: Estos sonidos, al no estar vinculados a un referente
concreto, pueden generar un efecto psicológico de extrañamiento o perturbación en
el oyente.
2. Cualidades acústicas: Su flexibilidad permite adaptaciones dentro de la narrativa
sonora sin depender de una referencia visual específica.
Aunque estos sonidos suelen asociarse con contextos ficticios (como animales
prehistóricos o personajes animados), al integrarse con imágenes, crean una relación
causa-efecto imaginaria que suprime su valoración autónoma (valor acusmático). Sin
embargo, su inclusión en una banda sonora es clave para:
• Contribuir a la narrativa sonora.
• Facilitar la cohesión interna de la banda mediante vínculos funcionales con otros
elementos acústicos.
En conclusión, los sonidos, fragmentos musicales y textos en una banda sonora
presentan siempre dos niveles de significación: uno narrativo-expresivo y otro formal. La
integración de efectos especiales debe respetar estas dualidades, aprovechando tanto su
impacto psicológico como su flexibilidad estructural.

Grabación del Sonido


La grabación de sonido involucra decisiones sobre la fuente (tamaño, forma, material) y
cómo se produce el sonido. También se eligen aspectos técnicos como el micrófono, su
ubicación y el sistema de grabación. Es crucial optimizar la cadena electroacústica para
garantizar la mejor calidad.
Los errores comunes incluyen mala relación señal-ruido, distorsiones, y ruidos no
deseados. Estos problemas suelen ser causados por una mala elección del micrófono o
ubicación, o fallos en el sistema de grabación.
En cuanto a la selección de sonido, se deben evitar los ruidos irrelevantes y la falsa idea
de realismo, ya que en cine, los sonidos son creados en posproducción y no siempre
coinciden con las fuentes visuales. El objetivo es dar a los sonidos un valor narrativo y
expresivo que enriquezca la obra.

SONOMONTAJE
El sonomontaje, según Pierre Schaeffer, se basa en la organización de sonidos a través
de relaciones de semejanza, diferencia o analogía, independientemente de su origen.
Estas relaciones se construyen a partir de las cualidades acústicas de los sonidos, como
el timbre, la intensidad y la envolvente espectral. Este enfoque permite crear una
estructura coherente y significativa en una secuencia sonora, facilitando una unidad de
sentido a partir de la relación entre dos sonidos o grupos de sonidos.
El sonomontaje se organiza en función de la percepción de estos parámetros y debe ser
considerado como una unidad de "diversidad", que no se limita a la repetición de sonidos,
sino que incorpora cambios, transformaciones y la interacción de sonidos en sucesión o
simultaneidad.
Existen tres tipos de sonomontajes:
• Narrativos: involucrando la referencia y evocación.
• Poéticos: basados en las cualidades acústicas, sin referencia externa.
• Poético-narrativos: combinan ambos niveles de información.
La organización temporal de los sonidos también es clave, incorporando elementos de
simultaneidad, superposición y sucesión, dependiendo de la necesidad expresiva o
narrativa del proyecto.

EL TEXTO
El texto, en el cine y otros lenguajes audiovisuales, es esencial para la narración, pero no
debe ser el único soporte de la historia. Las palabras evocan imágenes, ideas y
emociones que complementan y se integran con otros elementos como gestos, sonidos,
música y visuales. En cine, el texto literario evoluciona a un texto cinematográfico, donde
cada medio ocupa un lugar planificado en la trama multimedial.
Más allá del significado, el texto aporta valor rítmico, sonoro y expresivo. Su forma y modo
de ser dicho son tan importantes como su contenido. Como señala Octavio Paz, el texto
debe “sonar” y convertirse en una música que seduzca y provoque asociaciones ricas y
emotivas.
En una banda sonora, el texto debe integrarse con los demás elementos, valorando
cualidades más allá de su significado literal. Este enfoque permite articularlo como parte
de una secuencia sonora coherente y expresiva, como lo demuestra el film Las Alas del
Deseo de Wim Wenders.

LA MÚSICA
La música, como parte de la banda sonora, plantea desafíos para su integración debido a
su autonomía artística y a las múltiples funciones que puede asumir en una narrativa. Su
capacidad para evocar emociones depende de la cultura del oyente y presenta un doble
aspecto: estético-formal y simbólico-inconsciente. Sin embargo, cuando se estereotipa o
repite, pierde profundidad y se limita a ser un mero ornamento.
El uso de música conocida o temáticamente marcada tiende a generar asociaciones
predecibles, dificultando su integración orgánica en una obra audiovisual. Para evitar
clichés, se propone emplear música nueva o experimental, como la música serial o
concreta, que favorezca la flexibilidad y la interacción natural con otros elementos
sonoros.
Tarkovski y Burch destacan la importancia de evitar formas musicales rígidas o
ilustrativas. Proponen explorar sonidos abiertos y menos definidos, capaces de integrarse
con el mundo sonoro y visual del cine. Esto requiere desplazar la música de un enfoque
temático hacia uno centrado en el tratamiento del sonido, acercándola al texto y otros
lenguajes acústicos.
La relación entre texto y música puede fortalecerse mediante concepciones temporales
análogas, evitando métricas rígidas y explorando ritmos libres que favorezcan la
continuidad y cohesión de la banda sonora.

La música como referente


La música, al ser autoreferente, comunica sus propias estructuras, homologando
significante y significado. Aunque carece de significado específico, puede desempeñar
varias funciones:
• Unidad o diversidad: Puede generar continuidad temporal o diversidad a través
de cambios rítmicos y armónicos.
• Movimiento y espacio: Representa una forma de movimiento y velocidad, ligada a
fenómenos rítmicos y temporales.
• Emoción: Expresa estados emotivos a través de características como repetición,
alternancia o cromatismo.
• Imaginación y simbolismo: Ciertas músicas, especialmente las nuevas o
abstractas, pueden evocar lo sobrenatural o imágenes inéditas.
• Contexto sociocultural: La música refleja una época, sociedad y geografía,
siendo influenciada por instrumentos, estructuras y usos específicos.
En el cine, la música tiene funciones formales (organización, continuidad, puntuación) y
expresivas (emoción, narración, actancialidad). Puede sustituir situaciones, enmarcar
emociones, enlazar escenas o equilibrar percepciones. También cumple roles como
leitmotiv, delimitación narrativa o fondo ambiental.
Sin embargo, la música no es única; sus posibilidades varían según estilo, construcción y
contexto. Es crucial analizar cómo aporta al mensaje del director y cómo el espectador la
decodifica según su cultura y sensibilidad. Aunque las funciones musicales han derivado
en clichés, el cine sigue evolucionando, permitiendo nuevos enfoques.

Texto y música
La relación entre texto y música es fundamental, ya que el texto constituye el primer
vínculo narrativo y sonoro de la música. Este tema ha sido estudiado desde hace siglos,
especialmente desde la aparición del melodrama en el siglo XVI. Las conexiones entre
música y texto pueden analizarse a través de su estructura narrativa, rítmica y emocional,
variando según se trate de prosa o poesía:
• Música y prosa:
La prosa se centra en el significado, mientras que la música es más métrica, lo que
puede generar tensiones rítmicas. Estas diferencias pueden resolverse mediante
música de ritmo libre o adaptaciones que respeten la cadencia textual.
• Música y poesía:
Existe mayor afinidad entre ambas, ya que la música tonal y la poesía rimada
comparten estructuras rítmicas y temáticas. Sin embargo, la poesía libre, al
acercarse al lenguaje coloquial, presenta problemas similares a los de la prosa.

Formas y estilos de relación entre texto y música


1. Recitativo: Intermedio entre habla y canto; narrativo, adapta la melodía al ritmo y
entonación del texto.
2. Sprechgesang: Variante de Schönberg donde música y palabra tienen igual
importancia, combinando ritmo definido y alturas variables.
3. Declamación wagneriana: Música subordinada a una poesía con cualidades
rítmicas y tímbricas específicas.
4. Arioso o aria: La música domina y la poesía se adapta a su estructura.
5. Lied: Música y texto se integran, enfocándose en el aspecto sintáctico y emocional
del poema.
6. Canto melismático: La música transforma la palabra en sonido puro, perdiendo su
significado textual.

Graduación de la relación texto-música


1. Habla cotidiana.
2. Habla teatral.
3. Recitativo.
4. Sprechgesang.
5. Declamación wagneriana.
6. Arioso o aria.
7. Lied.
8. Canto melismático.
Cada relación y forma evidencia cómo la música puede transformar y complementarse
con el texto, dependiendo de las intenciones narrativas y artísticas.

Idea de espacio
El concepto de espacio tiene tres dimensiones principales:
1. Espacio externo: El que percibimos físicamente a través de la mirada y los
sentidos.
2. Espacio interno o psicológico: La representación del espacio en nuestra
memoria, que no es una copia exacta del externo.
3. Espacio virtual: Independiente del real e interno, como en una pintura
bidimensional que sugiere tridimensionalidad.

Espacio en las artes visuales


En la pintura, el espacio virtual puede crearse con perspectiva o distorsiones, como en el
expresionismo o el cubismo. En la abstracción, el espacio no se relaciona con objetos
familiares, estableciendo vínculos constructivos con la música.

Espacio en la música
El espacio musical, presente desde Monteverdi, organiza la ubicación de los instrumentos
según sus propiedades acústicas. Por ejemplo, los graves y agudos se distribuyen de
manera precisa para lograr una imagen espacial coherente, incluso en grabaciones y
auriculares.

Espacio en la banda sonora


La banda sonora debe cuidar la continuidad espacio-temporal, especialmente en la
relación entre sonidos dentro y fuera de campo. Es crucial:
• Eje vertical: Controlar el registro para evitar enmascaramientos y mantener
claridad.
• Eje horizontal: Aprovechar el estéreo para ubicar sonidos entre izquierda y
derecha.
• Eje de profundidad: Considerar reflexiones, reverberación e intensidad para dar
realismo a las fuentes sonoras.
También es esencial decidir el punto de escucha: ¿es subjetivo, desde un personaje, o
del público? La calidad técnica debe complementarse con un diseño narrativo sólido,
donde el sonido aporte expresividad a la imagen y no dependa de ella.

Construcción de la banda sonora


La banda sonora suele carecer de un diseño estructural riguroso. Aunque en el cine existe
una lógica constructiva que unifica elementos como personajes, locaciones, vestuario y
decorados, esta atención al detalle no siempre se aplica al sonido.

Problemas frecuentes
• Falta de unidad sonora: Muchas películas industriales no logran una integración
coherente de sonido y música con la narrativa visual. Frecuentemente, se usa
música o efectos sonoros de forma superficial, sin una motivación narrativa clara.
• Uso de la música: A menudo se recurre a la música para generar emociones o
introspección, pero sin justificar su presencia más allá de un ajuste básico a la
acción visual.

Unidad en la banda sonora


• Criterios narrativos: Aunque el cine es un medio virtual, el diseño sonoro debe
garantizar continuidad y claridad, evitando superposiciones de texto o
incoherencias en el sonido ambiente.
• Música: Para lograr cohesión, la música puede utilizar:
• Un único tema o material derivado para mantener coherencia.
• Leitmotiv para caracterizar personajes o situaciones, aunque este recurso
suele emplearse incorrectamente.
• Unidad tímbrica, manteniendo los mismos instrumentos como equivalentes
a personajes o elementos narrativos.
• Evolución temática: La música debe evolucionar en paralelo con la narrativa,
logrando continuidad incluso en fragmentaciones discursivas.

Relación entre imagen y sonido


La conexión entre la banda visual y la sonora se centra a menudo en la narración verbal,
dejando de lado la relación con la imagen misma (composición, movimientos de cámara,
color, etc.). Aunque los elementos sonoros suelen vincularse con los aspectos narrativos
de la imagen, también deben mantener una unidad estructural para lograr cohesión.
Criterios para integrar sonido e imagen
1. Relación sonora unificada: El sonido (ambiental o efectos) puede integrarse a la
música, derivando materiales del texto o la sonorización para fortalecer la cohesión.
2. Interacción entre niveles: Cambios en un nivel (visual o sonoro) deberían
provocar ajustes en el otro para mantener equilibrio, ya sea siguiendo principios de
integración o independencia.
3. Heterogeneidad audiovisual: La banda sonora se percibe como menos
homogénea que la visual, pero películas como El Espejo (Tarkovski) y La
Tempestad (Greenaway) demuestran que ambas pueden ser igualmente complejas
y diversas.

Nueva perspectiva sobre bandas audiovisuales


En lugar de considerar imagen y sonido como dos bandas separadas, es más útil analizar
la interacción funcional entre los niveles de información, sin importar si se perciben por la
vista o el oído. Dar espacio al sonido permite revelar su capacidad narrativa y estructural.

Control consciente y percepción del espectador


Aunque se discute si la música debe seguir o ignorar la imagen, el espectador siempre
establece su propia conexión entre ambas. El desafío radica en seleccionar y ubicar el
material sonoro estratégicamente, reconociendo que cada espectador interpreta según
sus propios intereses y contexto.

Concepción estética
El diseño está relacionado con la ideación, un proceso donde finalidad, función y forma se
combinan para una buena realización, seleccionando material, herramientas y métodos
adecuados. La banda sonora, como la visual, debe integrar varios lenguajes para formar
un diseño audiovisual coherente.
El sonido puede alejarse de lo denotativo y adoptar un enfoque más metafórico,
redefiniendo lo verosímil y desvinculándose de la imagen. Al igual que el arte de Cezanne,
lo importante es la técnica y la composición, no solo el objeto. El cine debe adaptarse a
nuevas concepciones musicales que desdibujen las barreras entre sonido y música,
formando un todo funcional.
La música y el sonido son elementos activos en la narrativa cinematográfica,
resignificando la imagen y enriqueciendo el lenguaje del cine. La relación entre imagen,
sonido y texto genera una compleja red de significados con múltiples interpretaciones.

Alcaraz - Vaca. Antes de presionar REC. Capítulo


10 Plano Sonoro
Plano Sonoro
Aunque no es común en los libros sobre sonido en entornos audiovisuales, es importante
hablar de "planos sonoros". Esto se vuelve relevante al tratar sobre el tratamiento de
espacios cerrados, ya que entender cómo se percibe el sonido en distintos lugares de
grabación ayuda a tomar decisiones sobre equipos y acondicionamiento necesarios.
El plano sonoro se puede definir como el lugar geométrico de los emplazamientos del
micrófono, en el cual se percibe una misma impresión de distancia desde el oyente hacia
la fuente sonora. Esto implica que, al grabar, la distancia aparente de la fuente influye en
la percepción del oyente sobre la ubicación del sonido.
En resumen, el plano sonoro no solo se refiere a la toma de sonido, sino también a cómo
percibimos la distancia de una fuente sonora en relación al oyente, incluso en la
postproducción.
Determinación del Plano Sonoro
Una fórmula comúnmente utilizada para lograr un plano sonoro específico es la siguiente
relación:

Sonido Directo de A
PL= Sonido Reflejado de A

donde "PL" representa el punto del espacio donde esta relación se mantiene constante y
"A" es la fuente sonora. Esto sugiere que la percepción del plano sonoro depende de la
relación entre el sonido directo (seco) y el reflejado (reverberado) de la fuente.
A esta fórmula se le deben añadir otros factores que influyen en la percepción del sonido,
como la propagación de las ondas sonoras (relacionada con su frecuencia), la absorción
de materiales que afectan al sonido, y la sensibilidad del oído humano a diferentes
frecuencias. Estos elementos afectan cómo percibimos la distancia y el "color" del sonido,
lo que puede cambiar según la amplitud y la frecuencia.
En resumen, los principales factores que determinan el plano sonoro son:
1. La relación entre sonido directo y reflejado
2. La amplitud del sonido
3. El "color" del sonido (espectro)
Aunque en espacios abiertos el sonido reflejado puede ser mínimo, la percepción del
plano sonoro a menudo se ve influenciada por la imagen visual, lo que puede llevar a
confusión al analizarlo.

Planos Visuales y Sonoros


Los planos visuales se refieren a partes de la acción seleccionada en una imagen, y se
categorizan comúnmente en:
• PPP: Primerísimo primer plano
• PP: Primer plano
• PM: Plano medio
• PG: Plano general
• GPG: Gran plano general
Estos planos pueden variar según la relación con otros elementos visuales. En cuanto al
plano sonoro, este se considera correcto si acompaña el plano visual, reforzando la
distancia entre la fuente sonora y el oyente. Sin embargo, en muchas ocasiones, esta
relación puede modificarse para lograr efectos expresivos distintos.
El plano sonoro puede generar una sensación de movimiento en el espacio, más allá de la
imagen, influenciado por factores como el efecto Doppler. En términos generales, los
planos sonoros se agrupan en tres categorías:
• PP: Primer plano
• PM: Plano medio
• PG: Plano general
La sensación de plano sonoro se basa en la cantidad de información sonora disponible.
Por ejemplo, al escuchar el sonido de un motor, la proximidad a la fuente permite
determinar detalles como el tipo de motor o posibles fallos. Así, el plano sonoro se define
por la cercanía a la fuente y la información que se puede obtener del sonido.
Esta idea de definir el plano sonoro según la información que el sonido ofrece se aplica
tanto a ruidos como a voces o música, abriendo nuevas posibilidades para el diseño y
análisis sonoro en el cine. Se propone explorar esta idea combinada con la relación
figura-fondo y las leyes de la Gestalt aplicadas a la escucha.

Características de los Planos Sonoros


Las características de los planos sonoros se dividen en dos grupos: la percepción del
sonido a una distancia determinada y los problemas que pueden surgir durante la
grabación directa del sonido.

PP (Primer Plano Sonoro)


1. La fuente sonora es el principal objeto, con un entorno sonoro mínimo.
2. Crea una sensación de intimidad y extrema proximidad.
3. Escasa o nula presencia de sonidos reflejados.
4. Detalles del sonido, como color y ecualización, son muy evidentes.
Problemas:
5. Sonidos como la respiración o modulación de palabras (labios, lengua, dientes).
6. Requiere precisión en la actuación, con poco margen de error.
7. Posible distorsión de la voz (seseo, dicción poco clara, saturación).
Nota: Si el plano visual coincide con el sonoro, se facilita el registro sin grandes
inconvenientes.

PM (Plano Medio Sonoro)


1. El sonido transmite una distancia normal de diálogo.
2. La relación entre sonido directo y reflejado es mínima.
3. El entorno sonoro puede aparecer, afectando la relación figura/fondo.
4. Se deben controlar la reverberación y la competencia entre sonidos.
5. El micrófono debe estar a la distancia adecuada de la fuente.
6. Los movimientos del actor pueden modificar el registro sonoro.
Nota: Es uno de los planos más complejos debido a la necesidad de equilibrar la
imagen visual con la grabación sonora.

PG (Plano General Sonoro)


1. Se percibe una lejanía de la fuente sonora.
2. Ayuda a definir las dimensiones del espacio real.
3. El sonido reflejado predomina sobre el directo.
4. La relación figura/fondo es clave, ambos valores pueden ser similares.
5. Se debe controlar el sonido reflejado, especialmente en ambientes cerrados o
abiertos.
Nota: El registro en plano general es más fácil de resolver técnicamente, pero
puede implicar costos y desafíos en producción.

Consideraciones
1. Sonido Directo vs. Sonido Doblado: La decisión entre usar sonido directo o
doblaje es una elección estética. El sonido directo proporciona gran realismo,
mientras que el doblaje, aunque más costoso en postproducción, permite mayor
rapidez en el rodaje cuando el sonido grabado es solo una referencia. Los planos
sonoros deben considerarse desde el inicio del rodaje, ya que su manejo del
espacio virtual enriquece el discurso audiovisual.
2. Ubicación del Micrófono: La ubicación del micrófono es crucial para obtener el
plano sonoro correcto. Es necesario estudiar factores como la locación, el
movimiento de los actores, la iluminación y el plan de cámara antes de la toma de
sonido. Aunque se confíe en los técnicos de ADR, siempre puede ser necesario
usar el sonido grabado en el momento, por lo que el estudio previo es esencial para
un buen registro.
3. Conocimiento del Micrófono: Dominar el micrófono, nuestra principal herramienta
para grabar, es fundamental para obtener buenos resultados. El conocimiento de
los equipos justifica los costos de producción y mejora la calidad del trabajo, ya que
no importa cuán buenos sean los equipos si no se saben usar adecuadamente.

Algunas ideas sobre diferentes “planos” de lo sonoro:


1. Planos espaciales de narración: Determinan el lugar donde ocurre la acción.
Ejemplos incluyen el sonido del viento para un ambiente exterior o el piar de los
pájaros en un paisaje campestre.
2. Planos temporales de narración: Los sonidos ubican una acción en el tiempo
(pasado, presente, futuro), o fuera del tiempo (atemporalidad). Por ejemplo,
sonidos electrónicos en ambientaciones futuristas.
3. Planos de intención: Tienen una finalidad específica, como marcar introspección o
estados oníricos. En radionovelas antiguas, el sonido se desvanecía para indicar
que un personaje estaba soñando, con efectos como campanillas.
4. Planos de presencia: Reflejan la distancia aparente entre la fuente sonora y el
oyente. Se dividen en:
• Primer plano: Sonido muy cercano al oyente, con alta carga dramática.
• Plano medio o normal: La fuente está cerca, pero no en el plano principal.
• Plano lejano o general: La fuente está distante, creando una gran
sensación de profundidad.
• Plano de fondo o segundo plano: Varios sonidos en el fondo, acentuando
la profundidad, similar al plano general pero con sonidos más distantes.

Roselló Dalmau, Ramón (1981): Técnica del


sonido cinematográfico. Madrid: Ed. Forja S.A.
Capítulo VI: Planos sonoros
El Movimiento en el Cine
La palabra cinematógrafo significa "imagen en movimiento". Sin embargo, en realidad, las
imágenes no se mueven; lo que percibe el espectador es una sucesión de imágenes
estáticas que cumplen ciertos requisitos, creando la ilusión del movimiento gracias a su
percepción visual. Así, el espectador no ve literalmente la película proyectada en la
pantalla, sino que construye su significado a partir de las imágenes mostradas.
En el cine, el tiempo y el espacio también son irreales. Al combinar adecuadamente
imágenes objetivas, se genera una realidad subjetiva cuyo significado puede diferir de las
imágenes originales. Manipular el tiempo y el espacio equivale a crear movimiento, no
solo mediante la imagen luminosa, sino también con el sonido, un componente esencial
del cine.
Para transmitir la sensación de movimiento mediante el sonido, no basta con cambiar el
ritmo o la intensidad. El ritmo debe estar relacionado con la acción y la secuencia de los
hechos. Por su parte, los cambios de intensidad sonora pueden asociarse a la distancia
de la fuente sonora o al contenido emocional del texto, como en una voz airada o suave.
La percepción de distancia se logra mediante la creación de una perspectiva sonora.

Perspectiva Sonora
La perspectiva sonora es la percepción subjetiva de la distancia de un sonido, que varía
según la forma de escucha. En la audición directa, el oído detecta la dirección y distancia
aproximada de la fuente, permitiendo localizarla en el espacio, especialmente con sonidos
breves o transitorios.
Las ondas sonoras difractan alrededor de la cabeza, creando diferencias de intensidad y
tiempo entre ambos oídos. Estas señales, junto con cambios de tonalidad, ayudan al
cerebro a estimar la distancia, sobre todo al aire libre.
Con micrófonos, se pierde la noción de dirección, pero la distancia de la fuente al
micrófono es más evidente, generando un plano sonoro, una superficie que sugiere una
distancia sin precisar ubicación exacta.
El sonido directo aporta mayor riqueza ambiental y proximidad, mientras que el doblaje
tiende a homogeneizar, reduciendo matices. La audición directa permite ubicar fuentes
sonoras, mientras que la microfónica se centra en la percepción de planos sonoros.

Plano Sonoro
El plano sonoro es el conjunto de posiciones del micrófono donde se percibe la misma
distancia aparente de una fuente sonora. La distancia real entre el micrófono y la fuente
varía según el lugar y las características del micrófono, por lo que no necesariamente
corresponde a una superficie esférica. También puede lograrse la misma impresión de
distancia al mover la fuente en lugar de cambiar el micrófono.
Matemáticamente, el plano sonoro es el conjunto de emplazamientos del micrófono en un
espacio cerrado, donde la relación entre sonidos directos y reflejados se mantiene
constante, lo que da una idea del tamaño aparente de la fuente. En exteriores, la
intensidad del sonido refleja la distancia: a medida que una fuente se aleja, la intensidad
disminuye. En una película, el espectador determina la distancia de la fuente por su
tamaño en pantalla y la intensidad del sonido recibido.

Relación entre Planos de Imagen y Sonoros


El término plano en los medios visuales se refiere a una parte seleccionada de la acción o
a la imagen obtenida desde una distancia determinada. En términos técnicos, se relaciona
con la distancia entre la cámara y el sujeto. Los planos más comunes incluyen:
• Primerísimo plano: Detalles como ojos o boca.
• Primer plano: Cabeza completa del personaje.
• Plano medio: Desde la cintura hasta la cabeza.
• Plano general: El personaje entero.
• Gran plano general: El personaje en su entorno.
El sonido debe coincidir con el plano visual correspondiente. En los planos sonoros,
existen tres tipos:
• Primer plano sonoro: El sonido es muy cercano al espectador, lo que crea una
sensación de intimidad. La ausencia de reflejos sonoros refuerza esta proximidad.
• Plano medio sonoro: Similar a una conversación normal, donde el sonido directo y
reflejado están equilibrados, creando una sensación de presencia natural.
• Plano general sonoro: El sonido refleja el entorno, con una menor intensidad
directa, dando una sensación de amplitud y espacio. En este plano, los sonidos
reflejados predominan.
Consideraciones Generales
El término "presencia" en sonido se refiere a la capacidad de una voz o sonido para atraer
la atención. Para que un sonido tenga presencia, debe tener un espectro de frecuencias
amplio, con graves y agudos bien definidos. La falta de estos reduce la presencia del
sonido.
El uso adecuado del sonido puede dar movimiento a la imagen, creando la sensación de
desplazamiento en el espacio, especialmente a través de planos sonoros que
complementan la imagen. La falta de coherencia entre imagen y sonido puede restar
realismo a la escena.
Durante el rodaje, las tomas deben ajustarse a los requerimientos del director, mientras
que el técnico de sonido busca los planos sonoros más adecuados, regulando la distancia
entre los actores y los micrófonos. Sin embargo, el micrófono debe permanecer fuera del
campo visual y no interferir con la iluminación, lo que a menudo requiere compromisos en
su emplazamiento.
El técnico de sonido, en una producción con sonido directo, busca obtener un sonido
limpio y claro, utilizando micrófonos direccionales y recursos para ajustar el sonido
durante y después del rodaje.

Procedimientos para la Obtención de Planos Sonoros


Para obtener un plano sonoro adecuado, se debe regular la proporción entre sonido
directo y reflejado. Los procedimientos se dividen en directos y a posteriori.
Procedimientos directos:
El método principal es ajustar la distancia entre el micrófono y la fuente sonora. Al
acercarse el micrófono, aumenta el sonido directo y disminuyen los reflejados. A medida
que se aleja, el sonido directo pierde intensidad y los reflejados ganan protagonismo.
También se puede intentar mover el micrófono durante la toma, pero esto es complicado
debido a las exigencias del rodaje y las limitaciones del encuadre.
Una opción sería usar dos micrófonos: uno para sonido directo y otro para reflejados,
mezclándolos posteriormente. Sin embargo, este enfoque es complejo. Más práctico es
aprovechar la direccionalidad del micrófono y la fuente: cuanto más alejado esté el
micrófono de la zona de mayor rendimiento de la fuente, más resaltarán los sonidos
reflejados.
Procedimientos a posteriori:
Durante la grabación, se puede capturar un sonido limpio y con presencia, ajustando los
micrófonos según las limitaciones del rodaje. Si es necesario, se pueden realizar
correcciones en el proceso final, como aumentar la reverberación usando filtros o
sistemas artificiales, aunque esto requiere precisión para evitar que el sonido artificial sea
detectable por el espectador.
Para pasar de un plano sonoro a otro de manera coherente con los cambios de imagen,
se usan transiciones suaves, evitando efectos exagerados y sugiriendo ambientes y
movimiento sin distraer al espectador.
Asís Ferri, Paula (2014): Escena Sonora - Banda
sonora
Acusmática
1 Conceptos básicos
Sincresis
ESCENA Zona Off- OVER (NO DIEGÉTICO) Extradiegético
SONORA Acusmática Fuera de campo Activo - OFF
OFF
Colocación del SCREEN Fuera de
Sonido ambiente o
sonido campo
sonido territorio
(Topofonía) pasivo
Sonidos Objetivos
2 CHION (PÁG.74-86) internos Diegético
OVER Subjetivos
CASSETTI/DICHIO DIEGÉTICO
(PÁG. 99-100)
Zona In -IN o SONIDO DIEGÉTICO
visualizada EXTERIOR
ON La fuente posee “una realidad física
SCREEN objetiva… está encuadrada”
3 Función de la banda Reunir
sonora en general Puntuar
Anticipar
Separar
CATEGORÍAS DE - Voco y verbocentrismo
SONIDOS -LAS FORMA EN QUE FUNCIÓN:
DIFERENTES APARECEN:
BANDAS (Según - Informativa
referencialidad o - Off (narrador
poder evocativo de omnisciente -palabra - Narrativa/soporte del
la fuente a la que texto) relato/hace avanzar la
remiten) acción/-
Voces - Diálogos - Monólogos - Función escénica:
otras posibles soliloquios (palabra Caracterizar
clasificaciones
teatro)* personajes (Por lo que
son las que
4 dicen y
hacen HENRY - Emanación (colectivo cómo lo dicen/Por lo que
POUSSER Y de voces) otros
PIERRE dicen de ese personaje)
SCHAEFFER ver
en la hoja - fondo sonoro
siguiente
Referencias Objetivos Realistas / Empáticos/
Subjetivos Recreado anempáticos
Descriptiv s
Ruidos os (Foley/
síntesis)
FX Sonidos autoreferenciales
Acusmática
1 Conceptos básicos

Ambientes Componentes según R. Murray


Schaefer
(1960)
Background: fondo difuso -
constante
Foreground: sonido en primer
término -
(señal) - cualquier sonido al que
prestamos conscientemente atención
por: diferencia de amplitud
/vectorización en el tiempo
Soundmark: sonido familiar - valor
simbólico y afectivo no está
predefinido (se crea mediante el
modo en que un sonido se retoma
varias veces a lo largo del montaje, al
asociarlo con un lugar o una
situación, de forma que se le confiera
el papel simbólico consistente en
encarnar o resumir ese lugar o esa
situación)
Música Elementos: Ritmo - Melodía - armonía - Timbre - Textura
Ubicación según la diégesis: de foso/De pantalla (Chion)
Funciones: ver Carmelo Saitta y otros
Silencio “Efecto silencio” Asociada a una bajada brusca de
RODRÍGU intensidad de una señal sonora, que al silenciarse
EZ deja en su lugar un fondo difuso de sucesos
BRAVO sonoros con intensidades cercanas a las del
148-155 umbral audible.
Tres posibles usos
- sintáctico
- Uso naturalista
- Uso dramático

DIEGÉTICO IN o SONIDO DIEGÉTICO


“si la fuente está presente en EXTERIOR
el espacio de la peripecia ON SCREEN La fuente posee “una realidad
representada” “la fuente se encuentre física objetiva ...está
dentro de los límites del encuadrada”
encuadre” INTERIOR (OVER DIEGÉTICO)
“la fuente esté en el pensamiento
de los personajes”
OFF SCREEN
“la fuente se encuentra fuera de los límites del encuadre”
NO DIEGÉTICO
“...si ese origen (del sonido)
OVER (NO DIEGETICO)
no tiene nada que ver con el
espacio de la historia”

También podría gustarte