Ut. 1 Sonido Y Audio Analógico Y Digital: Electroacústica
Ut. 1 Sonido Y Audio Analógico Y Digital: Electroacústica
1. INTRODUCCIÓN .............................................................................................................. 4
2. EL SONIDO ...................................................................................................................... 4
2.1 La onda sonora........................................................................................................ 4
2.2 Parámetros y magnitudes del sonido ..................................................................... 5
2.2.1 Parámetros musicales...................................................................................... 5
1. Tono (altura) ........................................................................................................... 6
2. Sonoridad (dinámica) .............................................................................................. 7
3. Timbre ..................................................................................................................... 7
4. Duración y espacialidad .......................................................................................... 8
2.2.2 Magnitudes físicas ........................................................................................... 8
1. Longitud de onda (λ) ............................................................................................... 9
2. Periodo (T)............................................................................................................. 10
3. Frecuencia (f) ........................................................................................................ 10
4. La amplitud (A) ...................................................................................................... 11
5. Fase (φ) ................................................................................................................. 13
3. EL DECIBELIO ................................................................................................................ 14
3.1 El decibelio acústico .............................................................................................. 15
3.2 El decibelio eléctrico - electrónico ........................................................................ 16
3.3 El decibelio digital ................................................................................................. 16
4. LA SEÑAL DE AUDIO ..................................................................................................... 17
4.1 Dinámica (margen dinámico) ................................................................................ 17
4.2 Ancho de banda .................................................................................................... 18
4.3 Parámetros ADSR .................................................................................................. 18
4.3.1 Ataque (Attack).............................................................................................. 19
4.3.2 Decaimiento (Decay) ..................................................................................... 19
4.3.3 Sostenimiento (Sustain)................................................................................. 19
4.3.4 Relajación (Release)....................................................................................... 20
2
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
3
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
1. INTRODUCCIÓN
Un técnico de sonido debe tener muy claro la diferencia entre sonido y audio. Debe saber
que el sonido (ondas sonoras / sensación fisiológica en el cerebro) sólo puede ser
analógico y que es lo que oímos. Por otro lado, también debe saber que el audio (señal
eléctrica) es su elemento de trabajo, ya que, una vez captado el sonido con un
transductor (acústico-eléctrico), todo el procesado se realiza sobre la señal de audio. En
los equipos actuales digitales también se trabaja con el audio, pues es esta señal de
voltaje la que se convierte en código binario para su procesamiento digital.
Por último, el técnico de sonido debe saber que el audio ya procesado hay que volver a
convertirlo en energía acústica (sonido), mediante transductores electroacústicos, para
poder ser captado por nuestro sistema de escucha y procesado por nuestro cerebro.
2. EL SONIDO
Como fenómeno físico: Ondas sonoras que produce las vibraciones de un cuerpo
y que necesitan de un medio elástico para llegar al oído humano.
Como fenómeno fisiológico: Sensación que se produce en nuestro cerebro
cuando procesa la información que le llega desde nuestros oídos.
Los elementos básicos del proceso de sonido son tres: un emisor (fuente sonora) que
vibra produce ondas de sonido, un medio elástico a través del cual se propagan dichas
ondas y un receptor (oído humano) que capte dichas ondas.
4
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
Una onda mecánica necesita de un medio para propagarse. Es decir, las ondas sonoras no
se propagan en el vacío, por ejemplo, en el espacio no existe el sonido. En
contraposición, están las ondas electromagnéticas (la luz) que sí lo hacen porque no
necesitan de un medio.
El medio por el que pueden propagarse las ondas sonoras puede ser sólido, líquido o
gaseoso. La velocidad de propagación del sonido variará dependiendo de la densidad y
elasticidad de dicho medio. Es decir, dicha velocidad va a depender de cómo de juntas
están las moléculas del medio y con qué facilidad se transmite la presión entre ellas. De
esta manera, la velocidad del sonido es mayor en los cuerpos sólidos (mayor densidad)
con una gran elasticidad. Por ejemplo, en el agua (más densa que el aire) la velocidad del
sonido es de unos 1.500 m/s y en los materiales metálicos el sonido se propaga a
velocidades muy superiores, por ejemplo, en el acero lo hace a 5.000 m/s.
Además de las propiedades del medio de propagación, la velocidad del sonido también
varía según las condiciones ambientales de temperatura (a mayor temperatura mayor
velocidad) y humedad (en menor medida).
La velocidad del sonido que se toma de referencia (c) para realizar todos los cálculos es
la que se recoge a 20°C y a 1 at. (101.325 Pa): 343 m/s.
En las ondas sonoras, la oscilación de las partículas del medio se realiza de forma
paralela a la dirección de propagación de la onda, por ello se les denomina
longitudinales. El otro tipo más común de onda son las transversales cuyo movimiento de
partículas se hace de forma perpendicular a la dirección de la propagación (ondas
transversales, p.ej. la luz).
Cuando un técnico de sonido habla con un músico, en la mayoría de las ocasiones, los
parámetros que utilizan son extraídos del lenguaje musical. Estos parámetros coinciden
con algunas de las magnitudes del sonido que un técnico debe controlar. Conociendo
unos y otras el técnico de sonido puede actuar sobre las ondas sonoras para lograr el
sonido que los músicos quieren.
5
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
1. Tono (altura)
Todos los sonidos que podemos oír son sonidos complejos, es decir, están formados por
la superposición de infinitos tonos puros, con frecuencias infinitamente próximas y de
amplitudes diferentes.
Un tono puro es aquel que emite una única frecuencia. Un sonido totalmente puro solo
se puede conseguir artificialmente (diapasón).
6
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
2. Sonoridad (dinámica)
3. Timbre
El timbre de un sonido es la cualidad que nos permite distinguir el sonido de dos fuentes
diferentes aunque éstas tengan el mismo tono y volumen.
Cada instrumento tiene una forma de onda diferente y esta viene determinada por la
cantidad y amplitud de los armónicos que componen la señal.
7
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
Los armónicos son tonos (frecuencias) por encima (múltiplos) o debajo (submúltiplos)
exactos de la frecuencia fundamental de dicho tono.
4. Duración y espacialidad
Puede que un sonido deje de emitirse y aún sea percibido por el oyente. Esto se debe a
que su propagación no ha terminado. Aquí entra en juego la espacialidad del sonido.
Podemos definir la espacialidad de un sonido como la característica que permite al
cerebro del oyente interpretar una imagen acústica modelando un entorno coherente
con distancias y superficies acordes a lo que escucha. La espacialidad depende,
principalmente, de dos factores:
Una magnitud es cada una de las características de un objeto de estudio que se pueden
medir, es decir, las que se pueden definir de forma numérica. Las principales magnitudes
8
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
físicas asociadas al sonido como onda sonora son la longitud de onda, el periodo,
periodo la
frecuencia, la amplitud y la fase.
Existe una importante relación entre la longitud de onda, la velocidad del sonido y la
frecuencia:
λ=c/f
c=f·λ
f=c/λ
λ = longitud de onda (m)
c = velocidad del sonido (m/s)
f = frecuencia (Hz)
9
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
2. Periodo (T)
Es el intervalo de tiempo que tarda una onda en realizar un ciclo completo. Un ciclo
describe una única secuencia repetida de cambios de presión, desde presión cero a alta
presión, a baja presión y de nuevo a cero. Se mide en segundos (s) y se representa como
T.
Al hablar del periodo de una onda de sonido es muy común hablar de milisegundos (ms),
es decir de la milésima parte del segundo, p.ej. 23 ms son 0,023 s.
T=1/f
T = periodo (s)
f = frecuencia (Hz)
3. Frecuencia (f)
Como hemos visto, la frecuencia se relaciona con el periodo. En este caso la relación es la
siguiente:
f=1/T
T = periodo (s)
f = frecuencia (Hz)
10
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
4. La amplitud (A)
El valor instantáneo de cualquier punto de una señal sinusoidal se mide desde la línea
central y puede tener un valor negativo (-A), si el punto se encuentra de la línea hacia
abajo o un valor positivo (+A), si se encuentra de la línea hacia arriba. La amplitud de una
señal también puede evaluarse mediante su valor pico (Apico) o valor máximo tanto en la
parte negativa como en la positiva, o su valor eficaz (ARMS) es decir, la raíz del promedio
del cuadrado de los valores de sus puntos.
En el caso del sonido, las magnitudes relacionadas con la amplitud de la onda sonora
son la presión y la intensidad sonora. A mayor intensidad, mayor presión sonora y mayor
sensación auditiva.
Cuando relacionamos amplitud con presión sonora ésta nos indica la fuerza que ejercen
las partículas de aire por unidad de superficie. Se mide en pascales (Pa) (newtons por
metro cuadrado (N/m2)).
p=F/S
p = presión sonora (Pa)
F = fuerza (N)
S = superficie (m2)
11
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
20 µPa (0,000020 Pa) para una frecuencia de 1 kHz. El umbral auditivo se corresponde
con 0 dB SPL.
Por otro lado, la presión máxima que puede soportar el oído humano, umbral de dolor,
es de 20 Pa para una onda acústica de 1 kHz, que se corresponde con un nivel de 120 dB
SPL. En ocasiones se considera el nivel de 140 dB como el umbral de dolor (aunque varía
con la frecuencia) a partir del cual los daños ocasionados al oído son irreparables en
cualquier frecuencia.
La intensidad sonora se define como la energía acústica que atraviesa una superficie. Se
mide en vatios por metro cuadrado (W/m2). Los principales factores de los que depende
la intensidad del sonido son los siguientes:
Si consideramos una fuente puntual que emite por igual en todas las direcciones
(superficie esférica), su intensidad sería:
I = W / S = W / 4πd2
I = intensidad sonora (W/m2)
W = energía acústica (W)
S = superficie (m2)
d = distancia al oyente (m)
12
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
5. Fase (φ)
La fase nos indica el instante exacto dentro del ciclo de una onda periódica. Así pues,
determina el punto de inicio de un ciclo de una señal respecto a un punto de origen de
referencia. La fase relaciona una onda en tiempo y espacio, así que se utiliza como
herramienta para medir las diferencias que poseen varias ondas entre sí (desfase) en un
mismo instante y punto de medida.
Se dice que dos sonidos están en fase cuando coinciden sus semiciclos positivos y
negativos exactamente en el tiempo y en el espacio.
De esta manera, si se suman dos ondas exactamente iguales que además estén en fase,
obtendremos una onda de la misma frecuencia, pero con amplitud doble (+6dB).
En el momento en que ambas ondas no coincidan, aunque sea mínimamente, se dice que
están desfasadas. En este caso, si se suman la amplitud será inferior a los 6dB.
13
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
Si el desfase alcanza los 180°, se dice que las dos ondas están en contrafase, es decir, que
el semiciclo positivo de la primera onda coincide con el semiciclo negativo de la
segunda. En este caso, si las ondas se unen y se restan una a la otra, se anulan entre las
dos y se cancela el sonido.
3. EL DECIBELIO
El decibelio es una relación logarítmica entre una cantidad y otra de referencia, que se
utiliza en diferentes campos de la ciencia para evaluar las magnitudes de importancia.
Como el decibelio es adimensional y relativo, para medir valores absolutos se necesita
especificar a qué unidades está referida la media. Dicha referencia equivale al 0 dB de la
escala.
14
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
También sirve para comparar dos valores, como, por ejemplo, potencias. Con esa misma
fórmula podemos calcular la ganancia (X1>X2) o atenuación (X1<X2) de potencia de
cualquier dispositivo.
LP = 20 log (P / P0)
Estos decibelios se denominan dB SPL (Sound Pressure Level).
LI = 10 log (I / I0)
Estos decibelios se denominan dB SIL (Sound Intensity Level).
15
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
Lw = 10 log (W / W0)
Estos decibelios se denominan dB SWL (Sound Power Level).
El dBV (1 V)
La medida del voltaje en decibelios toma como referencia el voltio. Es decir, V0 = 1V
El decibelio Full Scale (dBFS) es el utilizado en sistemas que trabajan con señales de audio
digital. Los dBFS miden el nivel de señal o amplitud pico (Apico)de la onda. En este caso, los
0 dBFS toman como valor de referencia el máximo nivel posible en el sistema que en el
mundo digital, que es el valor 1. De esta manera la escala de dBFS va a mostrarnos
mayoritariamente valores de decibelios negativos, ya que el mayor rango de amplitud de
16
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
la onda digital tendrá dicho valor. Todos los demás niveles estarán representados por
valores menores de 1.
4. LA SEÑAL DE AUDIO
El convertir una señal sonora en una señal de audio, nos va a permitir almacenarla,
reproducirla o transmitirla. Lo que llamamos audio es una señal eléctrica (voltaje) que
contiene la información de presión sonora y que podemos grabar, editar y procesar antes
de transmitirla o enviarla para su conversión en ondas de presión nuevamente para poder
ser oída, mediante la utilización de dispositivos de almacenamiento, reproducción o
transmisión.
La señal de audio es analógica, o sea, puede tomar infinitos valores para cada momento
del tiempo. Es decir, es una señal continua o constante que se caracteriza por su
dinámica, su frecuencia y su tiempo.
Los valores de la señal de audio van de los milivoltios de los micrófonos (Señal Mic), a los
más de 1 voltio en los que trabaja la mayoría de los aparatos de audio, tales como
reproductores de CD u otros equipos Hi-Fi (Señal Line). También existe la señal de
instrumento (Señal Hi-Z) que es la producida por teclados, sintetizadores, módulos y o
hasta las tarjetas de audio de los ordenadores.
La señal de audio analógica es a priori una señal eléctrica similar a la señal sonora que la
generó. Es decir, las formas de onda deberían ser muy similares entre sí, aunque en todo
el proceso sufrirán distorsiones de varios tipos que modificarán en cierta medida la
información original, por muy bien que hagamos las cosas y por muy bueno que sea el
equipamiento y las condiciones de trabajo.
Las principales características de una señal de audio tienen que ver con la amplitud, la
frecuencia y la fase (tiempo).
17
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
El rango dinámico es la relación entre el nivel más alto de señal (nivel pico) y nivel
mínimo sin ruido. Un gran contraste entre sonidos fuertes y débiles nos dará un rango
dinámico muy elevado y difícil de controlar con los equipos de audio. Un vinilo podía
soportar un margen dinámico de 40 dB, una cinta de cassette 60 dB. En la actualidad los
equipos pueden soportar valores por encima de 100 dB.
En una señal de audio también tenemos que tener en cuenta la relación S/N. Una señal
de audio inevitablemente va contener ruido (del ambiente o debido a los equipos de la
cadena de sonido). El ruido es una señal no deseada que interfiere en la señal que
deseamos.
La señal de audio será mejor cuanto mayor sea el nivel S/N, ya que habrá una mayor
cantidad de señal válida por encima del valor del ruido. Se suele medir en decibelios de
voltaje.
Como sabemos el espectro audible está recogido entre los 20 Hz y los 20.000 Hz. Para su
procesamiento como señal de audio este rango se divide en bandas de frecuencia o
ancho de banda. Se usan dos tipos de bandas: Bandas de octava y bandas de tercio de
octava.
18
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
La señal de audio presenta unos parámetros temporales medibles que facilitan una
actuación sobre la señal más eficiente. No todos los sonidos tiene por qué tener todas
estas fases, por ejemplo, muchos instrumentos de percusión sólo tiene prácticamente
ataque y relajación. Estos parámetros son:
También puede tener un ataque lento si el aumento de nivel es más pausado. Por
ejemplo, el caso de un instrumento de cuerda frotada, como puede ser el chelo.
En acústica, el tiempo que tarda la señal en descender desde su nivel máximo hasta el
nivel de sostenimiento. Hay algunos sonidos más secos y otros dan sensación de
continuidad, por ejemplo, la voz de un hablante o el sonido de un triángulo.
Denota el período de tiempo durante el cual el sonido permanece regular hasta que cesa
la vibración que lo produce o se hace inapreciable. Es el tiempo que la señal de audio se
mantiene con el mismo volumen.
19
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
Marca el tiempo que tarda en caer el nivel de una señal desde el punto de sostenimiento
hasta llegar a desaparecer. El tiempo en el que el sonido tarda en desaparecer desde que
finaliza la vibración que lo producía.
En un sonido electrónico, el tiempo de relajación puede llegar a ser mínimo (en cuanto
levantemos el dedo de una tecla en un sintetizador con un sonido seco dejará de sonar).
En cambio, en instrumentos acústicos que además tengan cajas de resonancia, como un
contrabajo, el tiempo de relajación es mayor.
4.4 Distorsión
La distorsión puede afectar a la amplitud, la fase o la frecuencia. Existen dos grandes tipos
de distorsiones:
En este tipo de distorsión puede haber un realce o rebaje del nivel de unas componentes
frecuenciales respecto a otras y/o puede haber un retraso temporal diferente de unas
componentes frecuenciales frente a otras. Pero este tipo de distorsión no da lugar a la
aparición de componentes nuevas. Sólo afecta modificando la amplitud o la fase
(alineamiento temporal) de las componentes que llegan a su entrada. Hablamos de
distorsión de amplitud o distorsión de fase porque hay una modificación, un cambio, pero
es una modificación ‘ligera’, que se limita a alterar la amplitud y/o fase de lo que ya
existía en la entrada, sin ‘inventar’ o ‘añadir’ nada nuevo.
20
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
21
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
22
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
Una señal de audio digital es más inmune a los ruidos y puede ser reconstruida si ha sido
dañada por éste; su procesamiento es más fácil y se puede copiar tantas veces como sea
necesario, sin que se pierda ninguna información y puede ser comprimida y
descomprimida obteniendo la misma señal original, que se digitalizó.
Como hemos visto, tanto la transmisión acústica como las electrónicas son analógicas y
en ellas el medio de transmisión juega un papel fundamental. Éste uso forzoso de un
medio de transmisión afecta a ambas señales. Sin embargo, el audio digital es
independiente del medio ya que lo que acontece en este caso es una transmisión de
datos en circuitos digitales.
Los circuitos digitales o circuitos lógicos, son aquellos que manejan la información de
forma binaria; es decir, su lenguaje de codificación se basa en el “0” y el “1”, estos dos
niveles de voltaje representan:
Los circuitos electrónicos digitales cuentan con una mayor fiabilidad en el procesamiento
de la información, de modo que una pequeña degradación de la señal no influye en el
sistema digital. Por otro lado los circuitos analógicos sí sufren pérdidas de información;
por ejemplo, las interferencias que se presentaban comúnmente en las radios y
televisiones antiguas.
Para convertir el audio en audio digital, la señal eléctrica analógica habrá pasado por un
codificador, encoder o ADC. Una vez que la señal eléctrica ha sido convertida en datos,
da igual el cable de transmisión que utilicemos ya sea fibra óptica, un cable Ethernet de
cobre o si la transmisión se hace vía wifi o bluetooth. Las características del medio no
23
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
Para poder escuchar dicha señal de audio digital, al final de su procesamiento habrá un
decodificador, decoder o DAC.
Se trata de tomar una muestra (sample) de la señal eléctrica cada cierto tiempo. El
conversor A/D se ocupa de realizar un rastreo de los niveles de voltaje a lo largo de una
serie de intervalos regulares de tiempo.
Cuanto mayor es el sample rate más altas son las frecuencias que pueden ser capturadas
o sampleadas. Del mismo modo, cuanto más alta sea la velocidad de muestreo, más se
asemejará la forma de la onda digital a la forma de la onda analógica original. Las
velocidades de muestreo bajas pueden dar como resultado la pérdida de información de
la señal original.
24
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
cuestión ‘2X’. Como la frecuencia más alta que percibe el oído humano son los 20kHz,
para digitalizar una señal de audio con fidelidad en todas las frecuencias que puede
contener nuestra señal, la frecuencia de muestreo será como mínimo de 40kHz, según el
criterio de Niyquist.
Cuando nuestra onda sonora contiene frecuencias superiores al Nyquist rate y éstas son
también muestreadas lo que ocurre es que se generan señales de frecuencias que antes
no estaban (distorsión no lineal). A éstas se les denominan ‘alias’ y a su efecto aliasing
(ruido). Un filtro anti-aliasing (paso bajo) elimina las frecuencias superiores al criterio de
Nyquist.
Las frecuencias de muestreo más utilizadas en el mundo del audio digital profesional son:
Compact Disc (CD): 44,1kHz. Es una frecuencia que cumple el criterio de Nyquist,
es como mínimo el doble de la frecuencia máxima del espectro audible (20kHz) y
es una frecuencia múltiplo de 50 y 60 Hz, frecuencia de refresco de los sistemas de
televisión analógica PAL y NTSC, respectivamente.
Digital Audio Tape (DAT): 48kHz. Es una frecuencia que cumple el criterio de
Nyquist, es el doble de la frecuencia máxima del espectro audible (20kHz) y es
además múltiplo de 24, que es la frecuencia de refresco del cine (24 fps), de esta
manera cada frame se corresponde con un número entero de samples.
Digital Versatile Disc (DVD): Admite los múltiplos de las dos anteriores.
Múltiplos de CD: 88,2 kHz y 176,4 kHz.
Múltiplos de DAT: 96 kHz, 192 kHz y 384 kHz.
A día de hoy el uso de estos sample rates se reduce prácticamente al mastering, la
digitalización con fines históricos o a la producción de formatos de directo muy
especializados. Aunque seguramente con el tiempo su implantación seguro
aumentará.
25
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
El casi todas las áreas del audio digital se han estandarizado los 24 bits. Respecto al
estándar anterior más extendido de 16 bits la mejora principal que se obtiene es un
mayor SNR (menor ruido de fondo inducido por el conversor).
Otra de las ventajas de tener mayor bit deph es el aumento del rango dinámico de
nuestra señal digital. Como sabemos, el rango dinámico es la diferencia entre los pasajes
con más y menos amplitud en una señal de audio. Cada género musical tiene diferente
rango dinámico.
Por ejemplo, la música clásica tiene un rango dinámico alto. Tiene pasajes muy suaves y
puede llegar a otros muy fuertes. El rock duro a menudo tiene un rango dinámico bajo, el
sonido es potente y todos los instrumentos dan la impresión de estar constantemente a
todo volumen.
Una profundidad de bits más alta proporciona más valores de amplitud posibles, lo que
produce un rango dinámico más grande, una base de ruido inferior y mayor fidelidad.
Valores más comunes de profundidad de bits, según la calidad del audio digital que
queramos obtener:
26
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
5.2.3 Codificación
Se define el término bit (binary digit) como la unidad mínima de información empleada
en el entorno digital. Esta entidad solamente puede tomar dos valores 0 o 1. Cada
profundidad de bits tendrá un número de valores igual a multiplicar 2 por el número de
bits, o lo que es lo mismo, n bits = 2n valores posibles.
Un bit = 2 valores
27
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
Los bits se agrupan en otras entidades superiores que son la suma de las combinaciones
de esos valores, por ejemplo, un byte son 8 bits, por lo que los valores totales de un byte
son 28, que es igual a 256 valores posibles. En general n bits = 2n
Cómo hemos dicho, cuanta más profundidad de bits (valores que se puedan utilizar)
tenga nuestra codificación más se acercará la señal digitalizada a la señal analógica. Por
ejemplo, si consideramos una bit deph de 4 bits, tendremos 16 valores posible en código
binario. De esta manera:
En las agrupaciones de bits, el bit que queda más a la derecha se le denomina LSB (Less
Significan Bit) o bit menos significativo. Por otro lado, el que queda más a la izquierda es
el MSB (More Significant Bit) o bit más significativo, es decir es el dígito de más valor.
Una señal analógica puede ser digitalizada en un conversor de 24 bits, por lo que cada
muestra consta de un valor formado por 24 bits. Si posteriormente esa señal digital
queremos grabarla en un CD que solo soporta una bit deph de 16 bits, nuestro software
de grabación tiene que ir recortando de cada valor 8 bits. La forma más habitual de
hacerlo es eliminar los 8 bits menos significativos, los LSB y redondear los datos al
menor número de bits disponibles. A este mecanismo de recorte de bits se le denomina
truncamiento.
5.3.1 Dithering
Para minimizar dicho ruido se usa la técnica llamada dithering que consiste en añadir un
ruido aleatorio para que el redondeo sea más natural y no resulte molesto al escucharlo.
Así que la música en lugar de sonar áspera y enrejada, la distorsión por truncamiento se
convierte en un silbido analógico constante, de bajo nivel.
28
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
El bitrate o tasa de bits es el número de bits transmitido por unidad de tiempo. Se mide
en bits por segundo o bps. El bitrate en audio digital se calcula con la siguiente fórmula:
Por norma general, cualquier tipo de códec consiste en un conjunto de algoritmos que
proporcionan una reducción en la tasa de bits (bitrate), es decir, que comprimen el flujo
de datos. Es decir, el objetivo esencial no es otro que conseguir que los archivos
multimedia sean más pequeños y que, de este modo, no ocupen tanto espacio en los
dispositivos y sean más fáciles de transferir. Esta compresión puede ser sin pérdidas
(lossless) o con pérdidas (lossy).
El tipo de códec que se utilice en audio va a depender del tipo de proyecto que se esté
realizando. Hay codecs que realizan su tarea a gran velocidad pero la calidad del archivo
final no es muy alta, que se utilizan para las telecomunicaciones en tiempo real
(streaming, podcasting, radio digital, audio para televisión digital y especialmente para
videoconferencia y telefonía). Por otro lado, existen codecs que son más lentos pero
obtienen una calidad muy alta en el archivo final, éstos son los que se utilizan para la
generación de copias, para almacenar, distribuir, etc.
Estos codecs pueden recuperar la señal original completamente. Los codecs que
comprimen sin pérdidas suelen tener una ratio de compresión baja, por lo que la
reducción de la bitrate es menor. Existen varias técnicas (codificación Huffman, la
29
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
Aparte de estas organizaciones existen muchas empresas que han creado sus propios
codecs por lo que hace años era difícil para el usuario medio saber interpretar las
características e incluso poder reproducir con éxito muchos archivos de audio. Sin
embargo, en la actualidad existe multitud de software para poder realizar conversiones
de formatos, así como software lector de archivos de audio que aceptan gran cantidad de
codecs. Así, salvo excepciones (aplicaciones muy específicas), no tendremos problemas
para reproducir o procesar los archivos de audio digital.
30
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
Son los formatos que contienen la información de audio digital extraída con el. método
de modulación de código de impulsos PCM (Pulse-code modulation)En un flujo PCM,
la amplitud de la señal analógica se muestrea regularmente a intervalos uniformes, y cada
muestra se cuantifica al valor más cercano dentro de un rango de pasos digitales o
números de bits establecido. Es decir, la codificación tal y como la hemos visto
anteriormente.
Los formatos PCM o LPCM que se utilizan a mayor escala y con un ámbito más amplio de
distribución dentro del mundo del audio digital profesional son:
WAV - Waveform Audio Format (.wav) (.wave) desarrollado por Microsoft e IBM.
AIFF - Audio Interchange File Format (.aif) desarrollado por Apple.
31
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
BWF - Broadcast Wave Format (.bwf) es una extensión del formato de audio WAV
de Microsoft. Es el formato de grabación de la mayoría de las grabadoras digitales
utilizadas para la producción de películas, radio y televisión.
Otra forma de codificar sin comprimir es el DSD (Direct Stream Digital)(.dsd) desarrollado
por Sony y Philips Electronics para un nuevo formato de disco de audio de alta resolución
SACD (Super Audio Compact Disc). El SACD está diseñado para proporcionar audio de alta
resolución tanto en estéreo como en modos de sonido envolvente de hasta 5.1 canales. El
proceso conocido como DSD para codificar audio tiene una frecuencia de muestreo de
2822,4 kHz y la resolución es de 1 bit. Las grabaciones en SACD pueden tener una
frecuencia y un rango dinámico más amplios que los CDs convencionales. Nunca llegó a
ser un estándar en el mercado y se ha quedado para equipos muy exclusivos.
En muchas aplicaciones, el flujo de bits generado por la codificación PCM se hace inviable,
en términos de ancho de banda, espacio de almacenamiento o tiempo de transferencia.
Es aquí donde necesitamos comprimir los datos de audio y los codecs se hacen
necesarios. Como hemos visto, la compresión puede ser sin pérdidas (lossles) o con
pérdidas (lossy). Los formatos de audio comprimido más comunes son:
32
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
Para que nuestros oídos puedan captar la señal de audio digital hay primero que volverla
a convertir en señal de audio analógica y en presión sonora. Para ello partiremos de los
datos numéricos que representa la señal digital y en varios pasos la iremos
transformando en una señal analógica de voltaje o corriente y posteriormente en una
señal de sonido. En esencia, la conversión D/A es el proceso de tomar un valor
representado en código digital y convertirlo en un voltaje o corriente proporcional al
valor digital.
Profundidad de bits. Los DACs están preparados para trabajar con distintas
cantidades de bits, es decir, en sonido puede haber DACs de 8, 16, 24 o 32 bits.
33
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
encuentra en su valor máximo se dice que es la salida a plena escala (Full Scale).
La resolución puede venir expresada en porcentaje. Conociendo el voltaje de
salida FS y el tamaño del escalón, podemos hallar dicho porcentaje con una simple
regla de tres.
Primer paso. La señal digital llega en forma de datos, o lo que es lo mismo, una
sucesión de ceros y unos. Dicha sucesión irá siendo cortada en intervalos de datos
según la profundidad de bits que estemos utilizando. Este ritmo es sincronizado
por un reloj digital (clock). Por ejemplo, si estamos trabajando a 24 bits, irá
cortando la cadena de datos en intervalos de 24 datos que podrán ser ceros o
unos.
Segundo paso. Un contador de bits separará cada uno de los valores
estableciéndolos como LSB y MSB, según la profundidad de bits con la que trabaje
nuestro DAC. Si la señal tiene más bits de los que posee nuestro DAC se produce el
truncamiento. Es decir, si nuestra señal tiene 24 bits pero nuestro DAC es de 16
bits, se desecharán los 8 de la derecha y se presentará el nº 9 por la derecha como
el LSB.
Tercer paso. El DAC tendrá un valor de Voltaje de Referencia, es decir, un rango de
voltaje para darle a cada valor de bit. Por ejemplo, si la señal de voltaje de
referencia es de 16V, los valores de voltaje que podrán tomar los bits irán de 0-
15V. El DAC tomará en cuenta dicho valor y los bits y establecerá la resolución.
Con la resolución ya puede saber qué vale cada cadena de valor de bits desde el
LSB y hasta el MSB.
Una vez que tenemos el valor de voltaje de cada bit, siendo el bit más
significativo (MSB) el que tome un valor de tensión mayor y el bit menos
significativo (LSB) el que tome el valor de la resolución o valor más bajo, se suman
todas las contribuciones de cada bit en un circuito y el valor resultante es lo que se
toma como voltaje analógico.
Por ejemplo, supongamos que tenemos un sistema de 4 bits con una resolución
de 1V (15V). En este caso, los valores de voltaje establecidos para cada bit serían
los siguientes:
MSB = 8 V
3º LSB = 4 V
2º LSB = 2 V
LSB = 1 V
Nuestros 4 bits han tomado los siguientes valores de los 16 posibles, procedentes
de nuestra señal de audio digital:
34
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22
1001 – 9
1100 – C
1101 – D
0101 – 5
En este ejemplo, la señal de audio digital tendría los siguientes valores en una
señal de audio analógica:
6. WEBGRAFÍA/BIBLIOGRAFÍA
https://www.hispasonic.com/tutoriales/conceptos-basicos-sobre-distorsion/
https://www.thomann.de/es/index.html
https://rotel.com/es/faq/what-sacd-disc
Martín Díaz, D.A., Sevilla Jiménez, J.A, Hernández Pérez, E. (2017) Electroacústica. Altaria
35