0% encontró este documento útil (0 votos)
21 vistas35 páginas

Ut. 1 Sonido Y Audio Analógico Y Digital: Electroacústica

El documento es un módulo de Electroacústica del IES Néstor Almendros que cubre aspectos fundamentales del sonido y audio, incluyendo la diferencia entre sonido y audio, la naturaleza de las ondas sonoras, y sus parámetros y magnitudes. Se exploran conceptos como el decibelio, la digitalización de la señal de audio, y se presentan detalles sobre la conversión de señales analógicas a digitales. Además, se discuten los parámetros musicales que caracterizan el sonido, como el tono, sonoridad, timbre, duración y espacialidad.

Cargado por

javi rodriguez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
21 vistas35 páginas

Ut. 1 Sonido Y Audio Analógico Y Digital: Electroacústica

El documento es un módulo de Electroacústica del IES Néstor Almendros que cubre aspectos fundamentales del sonido y audio, incluyendo la diferencia entre sonido y audio, la naturaleza de las ondas sonoras, y sus parámetros y magnitudes. Se exploran conceptos como el decibelio, la digitalización de la señal de audio, y se presentan detalles sobre la conversión de señales analógicas a digitales. Además, se discuten los parámetros musicales que caracterizan el sonido, como el tono, sonoridad, timbre, duración y espacialidad.

Cargado por

javi rodriguez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

IES NÉSTOR ALMENDROS TOMARES (SEVILLA)

UT. 1 SONIDO Y AUDIO


ANALÓGICO Y DIGITAL
ELECTROACÚSTICA

FPIGS de Sonido para Audiovisuales y Espectáculos


Curso 2021-22
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

Índice de la Unidad de Trabajo

1. INTRODUCCIÓN .............................................................................................................. 4
2. EL SONIDO ...................................................................................................................... 4
2.1 La onda sonora........................................................................................................ 4
2.2 Parámetros y magnitudes del sonido ..................................................................... 5
2.2.1 Parámetros musicales...................................................................................... 5
1. Tono (altura) ........................................................................................................... 6
2. Sonoridad (dinámica) .............................................................................................. 7
3. Timbre ..................................................................................................................... 7
4. Duración y espacialidad .......................................................................................... 8
2.2.2 Magnitudes físicas ........................................................................................... 8
1. Longitud de onda (λ) ............................................................................................... 9
2. Periodo (T)............................................................................................................. 10
3. Frecuencia (f) ........................................................................................................ 10
4. La amplitud (A) ...................................................................................................... 11
5. Fase (φ) ................................................................................................................. 13
3. EL DECIBELIO ................................................................................................................ 14
3.1 El decibelio acústico .............................................................................................. 15
3.2 El decibelio eléctrico - electrónico ........................................................................ 16
3.3 El decibelio digital ................................................................................................. 16
4. LA SEÑAL DE AUDIO ..................................................................................................... 17
4.1 Dinámica (margen dinámico) ................................................................................ 17
4.2 Ancho de banda .................................................................................................... 18
4.3 Parámetros ADSR .................................................................................................. 18
4.3.1 Ataque (Attack).............................................................................................. 19
4.3.2 Decaimiento (Decay) ..................................................................................... 19
4.3.3 Sostenimiento (Sustain)................................................................................. 19
4.3.4 Relajación (Release)....................................................................................... 20

2
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

4.4 Distorsión .............................................................................................................. 20


4.4.1 Distorsión lineal ............................................................................................. 20
4.4.2 Distorsión no lineal ........................................................................................ 21
5. DIGITALIZACIÓN DE LA SEÑAL AUDIO .......................................................................... 23
5.1 Fundamentos conversión A/D y D/A .................................................................... 23
5.2 Conversión A/D ..................................................................................................... 24
5.2.1 Muestreo o sampling ..................................................................................... 24
5.2.2 Cuantificación (Profundidad de bits) ............................................................. 25
5.2.3 Codificación ................................................................................................... 27
5.3 Distorsión por truncamiento ................................................................................ 28
5.3.1 Dithering ........................................................................................................ 28
5.4 Bitrate o tasa de bits ............................................................................................. 29
5.5 Codecs de audio digital ......................................................................................... 29
5.5.1 Compresión sin pérdida (lossless) ................................................................. 29
5.5.2 Compresión con pérdidas (lossy) .................................................................. 30
5.5.3 Parámetros más importantes de un códec ................................................... 30
5.6 Formatos de archivos de audio digital .................................................................. 31
5.6.1 Formatos de audio sin compresión ............................................................... 31
5.6.2 Formatos de audio con compresión .............................................................. 32
5.7 Conversión D/A ..................................................................................................... 33
5.7.1 Características de un DAC.............................................................................. 33
5.7.2 Proceso de la conversión D/A........................................................................ 34
6. WEBGRAFÍA/BIBLIOGRAFÍA.......................................................................................... 35

3
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

1. INTRODUCCIÓN

Un técnico de sonido debe tener muy claro la diferencia entre sonido y audio. Debe saber
que el sonido (ondas sonoras / sensación fisiológica en el cerebro) sólo puede ser
analógico y que es lo que oímos. Por otro lado, también debe saber que el audio (señal
eléctrica) es su elemento de trabajo, ya que, una vez captado el sonido con un
transductor (acústico-eléctrico), todo el procesado se realiza sobre la señal de audio. En
los equipos actuales digitales también se trabaja con el audio, pues es esta señal de
voltaje la que se convierte en código binario para su procesamiento digital.

Por último, el técnico de sonido debe saber que el audio ya procesado hay que volver a
convertirlo en energía acústica (sonido), mediante transductores electroacústicos, para
poder ser captado por nuestro sistema de escucha y procesado por nuestro cerebro.

2. EL SONIDO

El sonido podemos estudiarlo desde dos puntos de vista:

 Como fenómeno físico: Ondas sonoras que produce las vibraciones de un cuerpo
y que necesitan de un medio elástico para llegar al oído humano.
 Como fenómeno fisiológico: Sensación que se produce en nuestro cerebro
cuando procesa la información que le llega desde nuestros oídos.

En el módulo de Electroacústica nos vamos a centrar sobre todo en el sonido como


fenómeno físico, sin perder de vista que nuestra función principal es hacer llegar al
cerebro de nuestros oyentes la sensación sonora que nosotros deseamos.

Los elementos básicos del proceso de sonido son tres: un emisor (fuente sonora) que
vibra produce ondas de sonido, un medio elástico a través del cual se propagan dichas
ondas y un receptor (oído humano) que capte dichas ondas.

2.1 La onda sonora

La ciencia que estudia el sonido, su generación, propagación, propiedades y fenómenos


asociados recibe el nombre de acústica.

El sonido se manifiesta en forma de ondas sonoras, es decir, de la variación periódica de


la presión de las partículas (moléculas) de un medio. Cuando la fuente sonora produce la
vibración mecánica, las partículas del medio van a oscilar en su punto de equilibrio,
dentro de su posición, variando la presión existente en ese punto con respecto a la
presión atmosférica, produciendo de esta manera zonas de alta presión (compresiones) y
zonas de baja presión (dilataciones).

4
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

La definición exacta de la onda sonora es: onda mecánica elástica longitudinal.

Una onda mecánica necesita de un medio para propagarse. Es decir, las ondas sonoras no
se propagan en el vacío, por ejemplo, en el espacio no existe el sonido. En
contraposición, están las ondas electromagnéticas (la luz) que sí lo hacen porque no
necesitan de un medio.

El medio por el que pueden propagarse las ondas sonoras puede ser sólido, líquido o
gaseoso. La velocidad de propagación del sonido variará dependiendo de la densidad y
elasticidad de dicho medio. Es decir, dicha velocidad va a depender de cómo de juntas
están las moléculas del medio y con qué facilidad se transmite la presión entre ellas. De
esta manera, la velocidad del sonido es mayor en los cuerpos sólidos (mayor densidad)
con una gran elasticidad. Por ejemplo, en el agua (más densa que el aire) la velocidad del
sonido es de unos 1.500 m/s y en los materiales metálicos el sonido se propaga a
velocidades muy superiores, por ejemplo, en el acero lo hace a 5.000 m/s.

Además de las propiedades del medio de propagación, la velocidad del sonido también
varía según las condiciones ambientales de temperatura (a mayor temperatura mayor
velocidad) y humedad (en menor medida).

La velocidad del sonido que se toma de referencia (c) para realizar todos los cálculos es
la que se recoge a 20°C y a 1 at. (101.325 Pa): 343 m/s.

En las ondas sonoras, la oscilación de las partículas del medio se realiza de forma
paralela a la dirección de propagación de la onda, por ello se les denomina
longitudinales. El otro tipo más común de onda son las transversales cuyo movimiento de
partículas se hace de forma perpendicular a la dirección de la propagación (ondas
transversales, p.ej. la luz).

2.2 Parámetros y magnitudes del sonido

Cuando un técnico de sonido habla con un músico, en la mayoría de las ocasiones, los
parámetros que utilizan son extraídos del lenguaje musical. Estos parámetros coinciden
con algunas de las magnitudes del sonido que un técnico debe controlar. Conociendo
unos y otras el técnico de sonido puede actuar sobre las ondas sonoras para lograr el
sonido que los músicos quieren.

2.2.1 Parámetros musicales

Los parámetros fundamentales que caracterizan a un sonido son el tono, la sonoridad, el


timbre y la duración.

5
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

1. Tono (altura)

El tono de un sonido (también llamado altura) queda determinado por la frecuencia


fundamental de las ondas sonoras que componen un sonido.

Todos los sonidos que podemos oír son sonidos complejos, es decir, están formados por
la superposición de infinitos tonos puros, con frecuencias infinitamente próximas y de
amplitudes diferentes.

Un tono puro es aquel que emite una única frecuencia. Un sonido totalmente puro solo
se puede conseguir artificialmente (diapasón).

El tono de un sonido permite clasificar los sonidos en graves, medios y agudos,


dependiendo de su frecuencia fundamental.

 Los graves: de baja frecuencia


 Los medios: de frecuencia media
 Los agudos: de frecuencia alta

Gráficamente y con valores aproximados:

El margen de frecuencias de la voz humana está comprendido aproximadamente entre


los 300 Hz y los 3.400 Hz.

6
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

2. Sonoridad (dinámica)

Cuando un músico habla de dinámica generalmente está haciendo referencia a la


diferencia de niveles (sonoridad, volumen) que existe en la interpretación. La sonoridad
(también llamada intensidad) está relacionada con la amplitud de la onda sonora.

La dinámica o sonoridad señala lo fuerte o débil que es un sonido. En una interpretación


musical hay momentos fortissimo y otros pianissimo.

En la sonoridad influyen las capacidades propias y subjetivas de cada oyente, como la


memoria acústica del individuo, su propia fisiología o la constante comparación que hace
el oído de la escucha según las ondas que le lleguen. Por ejemplo, en una prueba audición
de frecuencias los bajos tonos parecen que tienen menos volumen que los altos.

3. Timbre

El timbre de un sonido es la cualidad que nos permite distinguir el sonido de dos fuentes
diferentes aunque éstas tengan el mismo tono y volumen.

El timbre es la característica que permite identificar los diferentes instrumentos


musicales de diferente naturaleza aunque toquen un mismo tono y con igual intensidad.
Una guitarra, un piano o una flauta pueden producir la misma nota, por ejemplo un LA,
que correctamente afinado se corresponde con una frecuencia de 440 Hz. que será la que
consideremos como la frecuencia fundamental del sonido emitido por el instrumento.
Tanto la guitarra, como el piano y la flauta emiten sonidos complejos, por lo que
producirán otras muchas frecuencias junto con la fundamental, a las que se les
denomina armónicos. La amplitud de todas estas frecuencias será distinta dependiendo
del instrumento que utilicemos para producir el LA. La variación de amplitud de los
armónicos dependerá de variantes como la caja de resonancia, los materiales utilizados
en su construcción, los años del instrumento, las condiciones del entorno, etc. De esta
forma, dos pianos diferentes en los que toquemos la misma nota tocada exactamente de
la misma forma y con la misma intensidad, no producirán el mismo timbre.

Cada instrumento tiene una forma de onda diferente y esta viene determinada por la
cantidad y amplitud de los armónicos que componen la señal.

7
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

Los armónicos son tonos (frecuencias) por encima (múltiplos) o debajo (submúltiplos)
exactos de la frecuencia fundamental de dicho tono.

4. Duración y espacialidad

Podemos definir la duración de un sonido como el intervalo de tiempo en el que lo


podemos percibir, desde que llega a nuestros oídos, hasta que deja de llegar la onda o
cuando pasa a ser tan débil que queda por debajo del umbral de audición. Los sonidos
pueden ser continuos o impulsivos.

Puede que un sonido deje de emitirse y aún sea percibido por el oyente. Esto se debe a
que su propagación no ha terminado. Aquí entra en juego la espacialidad del sonido.
Podemos definir la espacialidad de un sonido como la característica que permite al
cerebro del oyente interpretar una imagen acústica modelando un entorno coherente
con distancias y superficies acordes a lo que escucha. La espacialidad depende,
principalmente, de dos factores:

 Distancia y posición relativa entre fuente y oyente (sonido directo).


 Reflexiones (sonido reflejado).

2.2.2 Magnitudes físicas

Una magnitud es cada una de las características de un objeto de estudio que se pueden
medir, es decir, las que se pueden definir de forma numérica. Las principales magnitudes

8
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

físicas asociadas al sonido como onda sonora son la longitud de onda, el periodo,
periodo la
frecuencia, la amplitud y la fase.

1. Longitud de onda (λ)

Es la distancia física entre dos puntos similares en dos ondas contiguas


contiguas. En las ondas
sonoras equivale a la distancia entre dos compresiones o dos dilataciones contiguas. En
sonido se define como la distancia lineal ocupada por una onda completa. Se mide en
metros (m) y se indica con la letra griega λ (lambda).

Existe una importante relación entre la longitud de onda, la velocidad del sonido y la
frecuencia:

λ=c/f
c=f·λ
f=c/λ
λ = longitud de onda (m)
c = velocidad del sonido (m/s)
f = frecuencia (Hz)

De ahí podemos deducir que la relación entre frecuencia y longitud de onda es


inversamente proporcional, o lo que es lo mismo, a mayor frecuencia menor longitud de
onda y a menor frecuencia mayor longitud de onda. Las longitudes de onda que se
corresponden con el margen de frecuencias audibles van de los 17 m (20 Hz) a 1,7 cm (20
kHz).

9
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

2. Periodo (T)

Es el intervalo de tiempo que tarda una onda en realizar un ciclo completo. Un ciclo
describe una única secuencia repetida de cambios de presión, desde presión cero a alta
presión, a baja presión y de nuevo a cero. Se mide en segundos (s) y se representa como
T.

Al hablar del periodo de una onda de sonido es muy común hablar de milisegundos (ms),
es decir de la milésima parte del segundo, p.ej. 23 ms son 0,023 s.

El periodo tiene una relación clara con la frecuencia que es la siguiente:

T=1/f
T = periodo (s)
f = frecuencia (Hz)

Para una frecuencia de 1000 Hz el periodo será T=1/1000 = 1 ms (0,001 s).

3. Frecuencia (f)

Es el número de ciclos u oscilaciones que una onda de sonido efectúa en un segundo. La


unidad correspondiente al ciclo por segundo es el hercio o Hertz (Hz) y se representa con
la letra f.

Como hemos visto, la frecuencia se relaciona con el periodo. En este caso la relación es la
siguiente:

f=1/T
T = periodo (s)
f = frecuencia (Hz)

El espectro audible es el conjunto de frecuencias que el oído humano es capaz de


percibir. Como norma general se considera el espectro audible para una persona sana el
margen de frecuencias que va desde los 20 Hz a los 20 kHz (1 kHz = 1.000 Hz). Por debajo

10
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

de los 20 Hz se habla de infrasonidos y por encima de los 20 kHz de ultrasonidos. Los


seres humanos somos especialmente sensibles a las frecuencias medias que van desde los
3.000 a los 5.000 Hz.

4. La amplitud (A)

Representa el grado de compresión (y descompresión) molecular que consigue una


determinada onda en un instante determinado (presión instantánea) y en un punto
concreto (punto de medida o escucha). Es decir, cómo de juntas o separadas estarán las
moléculas del medio en un determinado punto a causa de la perturbación de la fuente
sonora respecto a la presión atmosférica existente.

El valor instantáneo de cualquier punto de una señal sinusoidal se mide desde la línea
central y puede tener un valor negativo (-A), si el punto se encuentra de la línea hacia
abajo o un valor positivo (+A), si se encuentra de la línea hacia arriba. La amplitud de una
señal también puede evaluarse mediante su valor pico (Apico) o valor máximo tanto en la
parte negativa como en la positiva, o su valor eficaz (ARMS) es decir, la raíz del promedio
del cuadrado de los valores de sus puntos.

En el caso del sonido, las magnitudes relacionadas con la amplitud de la onda sonora
son la presión y la intensidad sonora. A mayor intensidad, mayor presión sonora y mayor
sensación auditiva.

 Presión sonora (p)

Cuando relacionamos amplitud con presión sonora ésta nos indica la fuerza que ejercen
las partículas de aire por unidad de superficie. Se mide en pascales (Pa) (newtons por
metro cuadrado (N/m2)).

p=F/S
p = presión sonora (Pa)
F = fuerza (N)
S = superficie (m2)

El rango de presiones acústicas que es capaz de percibir el sistema auditivo humano es


bastante amplio. La presión mínima, umbral de audición, que puede percibir es de

11
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

20 µPa (0,000020 Pa) para una frecuencia de 1 kHz. El umbral auditivo se corresponde
con 0 dB SPL.

Por otro lado, la presión máxima que puede soportar el oído humano, umbral de dolor,
es de 20 Pa para una onda acústica de 1 kHz, que se corresponde con un nivel de 120 dB
SPL. En ocasiones se considera el nivel de 140 dB como el umbral de dolor (aunque varía
con la frecuencia) a partir del cual los daños ocasionados al oído son irreparables en
cualquier frecuencia.

 Intensidad sonora (I)

La intensidad sonora se define como la energía acústica que atraviesa una superficie. Se
mide en vatios por metro cuadrado (W/m2). Los principales factores de los que depende
la intensidad del sonido son los siguientes:

 Potencia de la fuente sonora. Cuanto mayor sea la potencia sonora de la fuente,


mayor será la intensidad sonora percibida por un oyente.
 Distancia a la fuente sonora. La energía vibratoria emitida por la fuente se
distribuye uniformemente en ondas esféricas a media que se propaga por el
espacio, cuya superficie aumenta proporcionalmente al cuadrado de sus radios,
ley inversa del cuadrado.
 Naturaleza del medio de transmisión. En el espacio libre las ondas se atenúan por
la pérdida de energía debida a la fricción de las partículas. La elasticidad del medio
influye en la atenuación de las ondas.

Si consideramos una fuente puntual que emite por igual en todas las direcciones
(superficie esférica), su intensidad sería:

I = W / S = W / 4πd2
I = intensidad sonora (W/m2)
W = energía acústica (W)
S = superficie (m2)
d = distancia al oyente (m)

12
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

5. Fase (φ)

La fase nos indica el instante exacto dentro del ciclo de una onda periódica. Así pues,
determina el punto de inicio de un ciclo de una señal respecto a un punto de origen de
referencia. La fase relaciona una onda en tiempo y espacio, así que se utiliza como
herramienta para medir las diferencias que poseen varias ondas entre sí (desfase) en un
mismo instante y punto de medida.

Generalmente se mide en grados, siendo 0° el instante inicial, 90°, un cuarto de ciclo;


180°, medio ciclo; 270°, tres cuartos de ciclo; y 360°, el ciclo completo que coincidirá con
el valor 0° del siguiente ciclo.

Se dice que dos sonidos están en fase cuando coinciden sus semiciclos positivos y
negativos exactamente en el tiempo y en el espacio.

De esta manera, si se suman dos ondas exactamente iguales que además estén en fase,
obtendremos una onda de la misma frecuencia, pero con amplitud doble (+6dB).

En el momento en que ambas ondas no coincidan, aunque sea mínimamente, se dice que
están desfasadas. En este caso, si se suman la amplitud será inferior a los 6dB.

13
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

Si el desfase alcanza los 180°, se dice que las dos ondas están en contrafase, es decir, que
el semiciclo positivo de la primera onda coincide con el semiciclo negativo de la
segunda. En este caso, si las ondas se unen y se restan una a la otra, se anulan entre las
dos y se cancela el sonido.

Evidentemente, entre la suma total y la cancelación total, existen infinitos posibles


resultados de sumas y cancelaciones parciales debido a las interacciones concretas en
cada caso. Esto, además en sonidos complejos (compuestos por muchas frecuencias), se
complica considerablemente, ya que, en determinados puntos, para determinadas
frecuencias, las cancelaciones o sumas variarán a las producidas en un punto diferente o
en un tiempo distinto.

3. EL DECIBELIO

En acústica y en otras disciplinas, normalmente no se utilizan las unidades del Sistema


Internacional para hablar de ciertas magnitudes. En su lugar se utiliza el decibelio.

El decibelio es una relación logarítmica entre una cantidad y otra de referencia, que se
utiliza en diferentes campos de la ciencia para evaluar las magnitudes de importancia.
Como el decibelio es adimensional y relativo, para medir valores absolutos se necesita
especificar a qué unidades está referida la media. Dicha referencia equivale al 0 dB de la
escala.

Matemáticamente, el decibelio es diez veces el logaritmo en base diez del cociente


entre dos números. La expresión general es la siguiente:

X(dB) = 10 log (X / X0)


X (dB) = valor de la magnitud medida (dB)
X = valor de la magnitud en su unidad
X0 = valor de la magnitud de referencia

14
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

También sirve para comparar dos valores, como, por ejemplo, potencias. Con esa misma
fórmula podemos calcular la ganancia (X1>X2) o atenuación (X1<X2) de potencia de
cualquier dispositivo.

X(dB) = 10 log (X1 / X2)


X (dB) = valor de la magnitud medida (dB)
X1 = valor de la magnitud de salida
X2 = valor de la magnitud de entrada

3.1 El decibelio acústico

Con el decibelio, en sonido medimos principalmente los niveles de tres magnitudes:

 Nivel de presión sonora (Lp o LSPL)


Como vimos, la fuerza que ejercen las partículas de aire por unidad de superficies se mide
en Pa (N/m2). El nivel de presión sonora (Lp o LSPL) evalúa dicha fuerza utilizando los
decibelios. Como nivel de presión sonora de referencia (P0) se fijan los 2·10-5 Pa.

LP = 20 log (P / P0)
Estos decibelios se denominan dB SPL (Sound Pressure Level).

 Nivel de intensidad sonora (LI o LSIL)


La cantidad de energía acústica (potencia sonora) que atraviesa una superficie se mide en
W/m2. El nivel de intensidad sonora (Ll o LSIL) permite evaluar la intensidad sonora
utilizando como unidad de medida el dB. Como nivel de referencia (I0) se utiliza la
intensidad umbral de audición que se corresponde con 10-12 W/m2.

LI = 10 log (I / I0)
Estos decibelios se denominan dB SIL (Sound Intensity Level).

 Nivel de potencia sonora de una fuente (LW o LSWL)


La cantidad de energía acústica irradiada por una fuente al medio por unidad de tiempo
se mide en vatios (W). El nivel de potencia sonora (Lw o LSWL) permite evaluar la potencia
sonora utilizando como unidad de medida el dB. Como nivel de referencia (W0) se utiliza
la potencia umbral de audición que son 10-12 W.

15
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

Lw = 10 log (W / W0)
Estos decibelios se denominan dB SWL (Sound Power Level).

3.2 El decibelio eléctrico - electrónico

Existen actualmente en la industria y entre los fabricantes de equipos dos estándares de


decibelios eléctricos extraídos de dos referencias de voltaje (tensión) diferentes:

 El dBV (1 V)
La medida del voltaje en decibelios toma como referencia el voltio. Es decir, V0 = 1V

X dBV = 20 log (V / 1 (V0))


 El dBu (0,775 V)
En este caso, la referencia (V0), es decir, los 0 Db, se van a situar en un valor de 0,775
voltios.

X dBu = 20 log (V / 0,775 (V0))


Para medir la potencia eléctrica se utilizan otros dos tipos de referencias:
 El dBW (1 W)
En este caso, la referencia (W0), se sitúa en 1 vatio.

X dBW = 10 log (W / 1 W (W0))


 El dBm (1 mW)
En este caso, la referencia (W0), se sitúa en 1 milivatio.

X dBm = 10 log (W / 0,001 W (W0))


3.3 El decibelio digital

El decibelio Full Scale (dBFS) es el utilizado en sistemas que trabajan con señales de audio
digital. Los dBFS miden el nivel de señal o amplitud pico (Apico)de la onda. En este caso, los
0 dBFS toman como valor de referencia el máximo nivel posible en el sistema que en el
mundo digital, que es el valor 1. De esta manera la escala de dBFS va a mostrarnos
mayoritariamente valores de decibelios negativos, ya que el mayor rango de amplitud de

16
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

la onda digital tendrá dicho valor. Todos los demás niveles estarán representados por
valores menores de 1.

4. LA SEÑAL DE AUDIO

El convertir una señal sonora en una señal de audio, nos va a permitir almacenarla,
reproducirla o transmitirla. Lo que llamamos audio es una señal eléctrica (voltaje) que
contiene la información de presión sonora y que podemos grabar, editar y procesar antes
de transmitirla o enviarla para su conversión en ondas de presión nuevamente para poder
ser oída, mediante la utilización de dispositivos de almacenamiento, reproducción o
transmisión.

La señal de audio es analógica, o sea, puede tomar infinitos valores para cada momento
del tiempo. Es decir, es una señal continua o constante que se caracteriza por su
dinámica, su frecuencia y su tiempo.

Los valores de la señal de audio van de los milivoltios de los micrófonos (Señal Mic), a los
más de 1 voltio en los que trabaja la mayoría de los aparatos de audio, tales como
reproductores de CD u otros equipos Hi-Fi (Señal Line). También existe la señal de
instrumento (Señal Hi-Z) que es la producida por teclados, sintetizadores, módulos y o
hasta las tarjetas de audio de los ordenadores.

La señal de audio analógica es a priori una señal eléctrica similar a la señal sonora que la
generó. Es decir, las formas de onda deberían ser muy similares entre sí, aunque en todo
el proceso sufrirán distorsiones de varios tipos que modificarán en cierta medida la
información original, por muy bien que hagamos las cosas y por muy bueno que sea el
equipamiento y las condiciones de trabajo.

Las principales características de una señal de audio tienen que ver con la amplitud, la
frecuencia y la fase (tiempo).

4.1 Dinámica (margen dinámico)

Se denomina dinámica a la diferencia entre el nivel (amplitud) que la señal alcanza en


sus pasajes de mayor intensidad (valor máximo) sin llegar a saturar, y los pasajes más
débiles (valor mínimo) en un instante.

17
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

El rango dinámico es la relación entre el nivel más alto de señal (nivel pico) y nivel
mínimo sin ruido. Un gran contraste entre sonidos fuertes y débiles nos dará un rango
dinámico muy elevado y difícil de controlar con los equipos de audio. Un vinilo podía
soportar un margen dinámico de 40 dB, una cinta de cassette 60 dB. En la actualidad los
equipos pueden soportar valores por encima de 100 dB.

En una señal de audio también tenemos que tener en cuenta la relación S/N. Una señal
de audio inevitablemente va contener ruido (del ambiente o debido a los equipos de la
cadena de sonido). El ruido es una señal no deseada que interfiere en la señal que
deseamos.

La relación señal-ruido (Signal Noise Ratio - SNR) es la diferencia entre el valor


instantáneo de la señal en un momento dado y el ruido.

La señal de audio será mejor cuanto mayor sea el nivel S/N, ya que habrá una mayor
cantidad de señal válida por encima del valor del ruido. Se suele medir en decibelios de
voltaje.

4.2 Ancho de banda

Como sabemos el espectro audible está recogido entre los 20 Hz y los 20.000 Hz. Para su
procesamiento como señal de audio este rango se divide en bandas de frecuencia o
ancho de banda. Se usan dos tipos de bandas: Bandas de octava y bandas de tercio de
octava.

4.3 Parámetros ADSR

La envolvente de un sonido o de una señal de audio es una forma de analizar la dinámica


de una señal dividiendo sus cambios de volumen en pasos temporales.

18
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

La señal de audio presenta unos parámetros temporales medibles que facilitan una
actuación sobre la señal más eficiente. No todos los sonidos tiene por qué tener todas
estas fases, por ejemplo, muchos instrumentos de percusión sólo tiene prácticamente
ataque y relajación. Estos parámetros son:

4.3.1 Ataque (Attack)

Acústicamente, es el tiempo que tarda una señal en alcanzar o sobrepasar un


determinado nivel o el nivel máximo que tendrá la señal. Una señal tendrá un ataque más
rápido cuanto más impulsiva sea, como por ejemplo, el sonido de la caja de una batería.

También puede tener un ataque lento si el aumento de nivel es más pausado. Por
ejemplo, el caso de un instrumento de cuerda frotada, como puede ser el chelo.

4.3.2 Decaimiento (Decay)

En acústica, el tiempo que tarda la señal en descender desde su nivel máximo hasta el
nivel de sostenimiento. Hay algunos sonidos más secos y otros dan sensación de
continuidad, por ejemplo, la voz de un hablante o el sonido de un triángulo.

4.3.3 Sostenimiento (Sustain)

Denota el período de tiempo durante el cual el sonido permanece regular hasta que cesa
la vibración que lo produce o se hace inapreciable. Es el tiempo que la señal de audio se
mantiene con el mismo volumen.

En un sintetizador o en un teclado eléctrico, por ejemplo, el sostenimiento perdurará


hasta que dejemos de pulsar la tecla. En una guitarra acústica el tiempo de sostenimiento
será mayor que en una eléctrica sin amplificar porque esta última no tiene caja de
resonancia. En un piano se regula el sostenimiento con un pedal que dejará vibrar las
cuerdas en mayor o menor medida.

19
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

4.3.4 Relajación (Release)

Marca el tiempo que tarda en caer el nivel de una señal desde el punto de sostenimiento
hasta llegar a desaparecer. El tiempo en el que el sonido tarda en desaparecer desde que
finaliza la vibración que lo producía.

En un sonido electrónico, el tiempo de relajación puede llegar a ser mínimo (en cuanto
levantemos el dedo de una tecla en un sintetizador con un sonido seco dejará de sonar).
En cambio, en instrumentos acústicos que además tengan cajas de resonancia, como un
contrabajo, el tiempo de relajación es mayor.

4.4 Distorsión

La distorsión se define como la alteración no deseada de la forma de onda de la señal.


Expresa la diferencia entre la señal que entra a un equipo o sistema y la salida del mismo,
debido a una respuesta imperfecta, la cual deforma la señal debido a las características
propias del sistema. Cuanto menor distorsión hay mayor fidelidad de reproducción tendrá
el equipo o sistema. Hay distorsión en amplificadores, previos, sintetizadores, módulos de
efectos, grabadoras, micrófonos…

La distorsión puede afectar a la amplitud, la fase o la frecuencia. Existen dos grandes tipos
de distorsiones:

4.4.1 Distorsión lineal

En este tipo de distorsión puede haber un realce o rebaje del nivel de unas componentes
frecuenciales respecto a otras y/o puede haber un retraso temporal diferente de unas
componentes frecuenciales frente a otras. Pero este tipo de distorsión no da lugar a la
aparición de componentes nuevas. Sólo afecta modificando la amplitud o la fase
(alineamiento temporal) de las componentes que llegan a su entrada. Hablamos de
distorsión de amplitud o distorsión de fase porque hay una modificación, un cambio, pero
es una modificación ‘ligera’, que se limita a alterar la amplitud y/o fase de lo que ya
existía en la entrada, sin ‘inventar’ o ‘añadir’ nada nuevo.

20
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

Entre las distorsiones lineales más frecuentes podemos encontrar:

 Distorsión de frecuencia. Este tipo de distorsión se manifiesta cuando el


equipo refuerza o elimina señales de determinadas frecuencias. Podemos
verificar este tipo de distorsión simplemente analizando la curva de respuesta
de frecuencia del equipo.

 Distorsión de fase. Este tipo de distorsión ocurre cuando el ángulo de fase


entre la frecuencia fundamental de la señal a la entrada y cualquiera de sus
armónicos se modifica, o bien cuando en la reproducción, el ángulo de fase
entre señales de frecuencia diferentes se altera. Puede ocurrir una alteración
selectiva de las fases de las señales conforme su frecuencia, llegando incluso a
producirse el corte de ciertas frecuencias.

4.4.2 Distorsión no lineal

La característica principal en cualquier distorsión no lineal es el hecho de que aparecen


componentes nuevas, es decir, estos equipos añaden por sí mismos componentes que
no estaban en la señal de origen. El paso por el equipo no se limita a modificar lo que ya
había (la señal original) sino que crea componentes nuevas. La distorsión que aplica un
pedal de guitarrista es un ejemplo de distorsión no lineal.

Las distorsiones no lineales más comunes son:

 Distorsión armónica. La distorsión armónica se produce cuando a la salida de


un amplificador, además de la señal original amplificada, aparecen algunos
de sus armónicos que, aunque de valor reducido, distorsionan la señal del
sonido. La manera de indicar este tipo de distorsión es mediante un parámetro
denominado distorsión armónica total (THD Total Harmonic Distorsion). La
medida llamada THD se basa en atacar el equipo con una señal senoidal (lo
más pura posible) y ver qué potencia agregada hay a la salida entre todos los
armónicos superiores (producidos por la distorsión) y qué potencia queda en
la frecuencia original. Se establece un cociente entre la potencia de los

21
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

productos de la distorsión y la potencia de la señal original. Los fabricantes


especifican la distorsión armónica total generalmente en porcentaje para una
frecuencia de referencia, por ejemplo 0,01% a 1 kHz. Cuanto menor sea el
dato mejor será el equipo.

 Distorsión de intermodulación (IMD). Si dos tonos son reproducidos a la vez,


pueden interactuar entre sí en el equipo y producir, asimismo, otros nuevos
tonos, que son ni más ni menos que la suma y la diferencia de los dos tonos
originales (es lo que se conoce como la frecuencia de batido o pulsaciones).
Generalmente, los nuevos tonos no son armónicos entre sí ni con los
anteriores. En otras palabras, en la distorsión IMD se crean frecuencias suma y
diferencia debido a interferencias. Es decir, se crea un nuevo timbre. La
distorsión de intermodulación a menudo se encuentra como una
especificación del amplificador o preamplificador, pero puede existir para
otros componentes de audio como altavoces, CD / DVD / reproductores
multimedia, etc. La IMD se mide con el método SMPTE (Society of Media
Professionals, Technologists and Engineers) por el que se realiza un test para
analizar la distorsión mezcla señales de 60 Hz y 7KHz con una relación de
amplitud de 4:1. El resultado se representa como un porcentaje y al igual que
con la distorsión armónica total, los números más bajos son mejores para
mejorar el rendimiento. Normalmente la distorsión IMD SMPTE suele ser tres
veces la THD.

 Distorsión de cruce (crossover). Es como se conoce a la distorsión de cruce


por cero de varios tipos de amplificadores. Esta distorsión consiste en una
pequeña discontinuidad en la señal de salida cuando la onda pasa por cero.
En otras palabras, se produce un ‘punto plano’ cuando se pasa de la zona
positiva a la negativa o viceversa en una señal alterna. En el momento que se
pasa por cero, la señal se distorsiona al mantenerse continua (banda muerta)
durante un instante en el nivel cero.

 Distorsión artística intencionada. Determinados previos y amplificadores son


preferidos a otros, precisamente por introducir algún tipo de distorsión ligera
pero que otorga un plus en el sonido resultante. Los pedales de una guitarra o
los módulos de efectos distorsionan la señal de audio original buscando
obtener un sonido especial. Y esa es una elección/decisión que viene también
asociada al estilo musical. Una distorsión para una guitarra jazz seguramente
busca un resultado más cálido, con cuerpo y ‘concentrada’ espectralmente,
mientras una distorsión para pop buscará a menudo el énfasis que pueda
lograrse en agudos (una distorsión más brillante y abierta).

22
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

5. DIGITALIZACIÓN DE LA SEÑAL AUDIO

El sonido por naturaleza es analógico (presión sonora), éste se capta y se convierte en


audio (señal eléctrica) que también es analógica. Es esta señal eléctrica, que puede tener
muchos valores posibles, la que se digitaliza convirtiéndola en una señal numérica binaria,
audio digital.

Una señal de audio digital es más inmune a los ruidos y puede ser reconstruida si ha sido
dañada por éste; su procesamiento es más fácil y se puede copiar tantas veces como sea
necesario, sin que se pierda ninguna información y puede ser comprimida y
descomprimida obteniendo la misma señal original, que se digitalizó.

5.1 Fundamentos conversión A/D y D/A

Como hemos visto, tanto la transmisión acústica como las electrónicas son analógicas y
en ellas el medio de transmisión juega un papel fundamental. Éste uso forzoso de un
medio de transmisión afecta a ambas señales. Sin embargo, el audio digital es
independiente del medio ya que lo que acontece en este caso es una transmisión de
datos en circuitos digitales.

Los circuitos digitales o circuitos lógicos, son aquellos que manejan la información de
forma binaria; es decir, su lenguaje de codificación se basa en el “0” y el “1”, estos dos
niveles de voltaje representan:

1 nivel alto o ‘high’.

0 nivel bajo o ‘low’.

Los circuitos electrónicos digitales cuentan con una mayor fiabilidad en el procesamiento
de la información, de modo que una pequeña degradación de la señal no influye en el
sistema digital. Por otro lado los circuitos analógicos sí sufren pérdidas de información;
por ejemplo, las interferencias que se presentaban comúnmente en las radios y
televisiones antiguas.

Por otro lado, disponen de un soporte matemático adecuado para el desarrollo. En


concreto, trabajan con el álgebra de Boole, un modelo matemático que se utiliza para la
informática y la electrónica digital.

Para convertir el audio en audio digital, la señal eléctrica analógica habrá pasado por un
codificador, encoder o ADC. Una vez que la señal eléctrica ha sido convertida en datos,
da igual el cable de transmisión que utilicemos ya sea fibra óptica, un cable Ethernet de
cobre o si la transmisión se hace vía wifi o bluetooth. Las características del medio no

23
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

afectarán en ningún caso a la respuesta en frecuencia de la señal. Esto no quiere decir


que no pueda haber pérdidas de transmisión en este tipo de cables, pero sus efectos no
afectan a la calidad de la señal, sino más bien a su ‘existencia’ o no.

Para poder escuchar dicha señal de audio digital, al final de su procesamiento habrá un
decodificador, decoder o DAC.

5.2 Conversión A/D

El proceso de conversión de analógico a digital de una señal de audio consta de tres


etapas:

5.2.1 Muestreo o sampling

Se trata de tomar una muestra (sample) de la señal eléctrica cada cierto tiempo. El
conversor A/D se ocupa de realizar un rastreo de los niveles de voltaje a lo largo de una
serie de intervalos regulares de tiempo.

Ese intervalo de tiempo se denomina frecuencia de muestreo (sample rate). La


frecuencia de muestreo define cada cuanto tiempo se miden los niveles de voltaje que
entran en un conversor A/D, es decir, la velocidad a la que vamos a tomar muestras de la
señal.

Cuanto mayor es el sample rate más altas son las frecuencias que pueden ser capturadas
o sampleadas. Del mismo modo, cuanto más alta sea la velocidad de muestreo, más se
asemejará la forma de la onda digital a la forma de la onda analógica original. Las
velocidades de muestreo bajas pueden dar como resultado la pérdida de información de
la señal original.

Para elegir la frecuencia de muestreo, se establece como base el Teorema de Nyquist-


Shannon, el cual señala que si se quiere digitalizar señales analógicas y luego poderlas
reconstruir con una calidad óptima, hemos de elegir una frecuencia de muestreo que sea
como mínimo el doble de la frecuencia más alta a digitalizar. Aplicado al mundo del
audio digital, cualquier señal sonora continua en el tiempo con una frecuencia máxima ‘X’
puede ser reconstruida con fidelidad a partir de una serie de samples o muestras si la
frecuencia de muestreo es, como mínimo dos veces la mayor frecuencia de la señal en

24
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

cuestión ‘2X’. Como la frecuencia más alta que percibe el oído humano son los 20kHz,
para digitalizar una señal de audio con fidelidad en todas las frecuencias que puede
contener nuestra señal, la frecuencia de muestreo será como mínimo de 40kHz, según el
criterio de Niyquist.

Cuando nuestra onda sonora contiene frecuencias superiores al Nyquist rate y éstas son
también muestreadas lo que ocurre es que se generan señales de frecuencias que antes
no estaban (distorsión no lineal). A éstas se les denominan ‘alias’ y a su efecto aliasing
(ruido). Un filtro anti-aliasing (paso bajo) elimina las frecuencias superiores al criterio de
Nyquist.

En muchas ocasiones se proporciona una frecuencia de muestreo superior a la definida


por el teorema de Nyquist, a este proceso se le denomina oversampling. Esto se hace por
muchos motivos, por ejemplo para evitar el aliasing, aunque el más común es tener una
señal más completa que la estrictamente necesaria para que los procesados posteriores
sean más precisos y completos. Por lógica, cuanto mayor número de muestras se tomen
en un segundo, la señal digital será más ‘pesada’, ocupará más y más difícil de tratar será.

Las frecuencias de muestreo más utilizadas en el mundo del audio digital profesional son:

 Compact Disc (CD): 44,1kHz. Es una frecuencia que cumple el criterio de Nyquist,
es como mínimo el doble de la frecuencia máxima del espectro audible (20kHz) y
es una frecuencia múltiplo de 50 y 60 Hz, frecuencia de refresco de los sistemas de
televisión analógica PAL y NTSC, respectivamente.
 Digital Audio Tape (DAT): 48kHz. Es una frecuencia que cumple el criterio de
Nyquist, es el doble de la frecuencia máxima del espectro audible (20kHz) y es
además múltiplo de 24, que es la frecuencia de refresco del cine (24 fps), de esta
manera cada frame se corresponde con un número entero de samples.
 Digital Versatile Disc (DVD): Admite los múltiplos de las dos anteriores.
Múltiplos de CD: 88,2 kHz y 176,4 kHz.
Múltiplos de DAT: 96 kHz, 192 kHz y 384 kHz.
A día de hoy el uso de estos sample rates se reduce prácticamente al mastering, la
digitalización con fines históricos o a la producción de formatos de directo muy
especializados. Aunque seguramente con el tiempo su implantación seguro
aumentará.

5.2.2 Cuantificación (Profundidad de bits)

La cuantificación lo que hace es convertir una sucesión de muestras de amplitud en una


sucesión de valores finitos preestablecidos según la resolución de la codificación, es decir,
según la profundidad de bits (bit deph).

25
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

El casi todas las áreas del audio digital se han estandarizado los 24 bits. Respecto al
estándar anterior más extendido de 16 bits la mejora principal que se obtiene es un
mayor SNR (menor ruido de fondo inducido por el conversor).

16 bits – 32.768 valores positivos y otros 32.768 valores negativos – 96 dB

24 bits – 8.388.608 valores positivos y 8.388.608 valores negativos – 144 dB

Otra de las ventajas de tener mayor bit deph es el aumento del rango dinámico de
nuestra señal digital. Como sabemos, el rango dinámico es la diferencia entre los pasajes
con más y menos amplitud en una señal de audio. Cada género musical tiene diferente
rango dinámico.

Por ejemplo, la música clásica tiene un rango dinámico alto. Tiene pasajes muy suaves y
puede llegar a otros muy fuertes. El rock duro a menudo tiene un rango dinámico bajo, el
sonido es potente y todos los instrumentos dan la impresión de estar constantemente a
todo volumen.

Una profundidad de bits más alta proporciona más valores de amplitud posibles, lo que
produce un rango dinámico más grande, una base de ruido inferior y mayor fidelidad.

Valores más comunes de profundidad de bits, según la calidad del audio digital que
queramos obtener:

26
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

La cuantificación también puede producir otro tipo de distorsión. Si el nivel de amplitud


obtenido no coincide exactamente con ninguno de los establecidos, se toma como valor
el inferior más próximo. Así pues, la señal digital que resulta tras la cuantificación es
sensiblemente diferente a la señal eléctrica analógica que la originó (distorsión lineal),
por lo que siempre va a existir una cierta diferencia entre ambas que es lo que se conoce
como error de cuantificación.

5.2.3 Codificación

La codificación consiste en la traducción de los valores de tensión eléctrica analógicos


que han sido cuantificados al sistema binario, mediante códigos preestablecidos.

Se define el término bit (binary digit) como la unidad mínima de información empleada
en el entorno digital. Esta entidad solamente puede tomar dos valores 0 o 1. Cada
profundidad de bits tendrá un número de valores igual a multiplicar 2 por el número de
bits, o lo que es lo mismo, n bits = 2n valores posibles.

Un bit = 2 valores

Dos bits = 2x2 valores

Tres bits = 2x2x2 valores

Cuatro bits = 2x2x2x2 valores

27
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

Ocho bits = 2x2x2x2x2x2x2x2 = 256 valores.

Los bits se agrupan en otras entidades superiores que son la suma de las combinaciones
de esos valores, por ejemplo, un byte son 8 bits, por lo que los valores totales de un byte
son 28, que es igual a 256 valores posibles. En general n bits = 2n

Cómo hemos dicho, cuanta más profundidad de bits (valores que se puedan utilizar)
tenga nuestra codificación más se acercará la señal digitalizada a la señal analógica. Por
ejemplo, si consideramos una bit deph de 4 bits, tendremos 16 valores posible en código
binario. De esta manera:

0000 – 0 0100 – 4 1000 – 8 1100 – C

0001 – 1 0101 – 5 1001 – 9 1101 – D

0010 – 2 0110 – 6 1010 – A 1110 – E

0011 – 3 0111 – 7 1011 – B 1111 – F

En las agrupaciones de bits, el bit que queda más a la derecha se le denomina LSB (Less
Significan Bit) o bit menos significativo. Por otro lado, el que queda más a la izquierda es
el MSB (More Significant Bit) o bit más significativo, es decir es el dígito de más valor.

5.3 Distorsión por truncamiento

Una señal analógica puede ser digitalizada en un conversor de 24 bits, por lo que cada
muestra consta de un valor formado por 24 bits. Si posteriormente esa señal digital
queremos grabarla en un CD que solo soporta una bit deph de 16 bits, nuestro software
de grabación tiene que ir recortando de cada valor 8 bits. La forma más habitual de
hacerlo es eliminar los 8 bits menos significativos, los LSB y redondear los datos al
menor número de bits disponibles. A este mecanismo de recorte de bits se le denomina
truncamiento.

El truncamiento produce un ruido digital que resulta molesto al escucharlo en pasajes de


poca amplitud. Y aunque en música normalmente esté tapado con la misma, se suele
decir que la distorsión por truncamiento hace que la música suene más áspera en general.

5.3.1 Dithering

Para minimizar dicho ruido se usa la técnica llamada dithering que consiste en añadir un
ruido aleatorio para que el redondeo sea más natural y no resulte molesto al escucharlo.
Así que la música en lugar de sonar áspera y enrejada, la distorsión por truncamiento se
convierte en un silbido analógico constante, de bajo nivel.

28
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

Los software y plugins suelen incluir la opción de incluir dithering.

5.4 Bitrate o tasa de bits

El bitrate o tasa de bits es el número de bits transmitido por unidad de tiempo. Se mide
en bits por segundo o bps. El bitrate en audio digital se calcula con la siguiente fórmula:

Bitrate = frecuencia de muestreo x profundidad de bits x canales

Por ejemplo, en un CD donde la frecuencia de muestreo es de 44,1 kHz, la profundidad de


bits es de 16 y tiene dos canales (estéreo) el bitrate sería:

44.100 x 16 x 2 = 1.411.200 bps

5.5 Codecs de audio digital

Un códec es una aplicación informática capaz de codificar y decodificar un flujo de datos


digitales. La palabra códec viene de COdificador-DECodificador. Si un formato es una
especie de contenedor para almacenar los datos en un fichero, un códec es el software
que tenemos que tener instalado para que nuestro equipo pueda interpretar dicho
formato de audio, es decir, es el elemento capaz de leer y escribir en estos ficheros.

Por norma general, cualquier tipo de códec consiste en un conjunto de algoritmos que
proporcionan una reducción en la tasa de bits (bitrate), es decir, que comprimen el flujo
de datos. Es decir, el objetivo esencial no es otro que conseguir que los archivos
multimedia sean más pequeños y que, de este modo, no ocupen tanto espacio en los
dispositivos y sean más fáciles de transferir. Esta compresión puede ser sin pérdidas
(lossless) o con pérdidas (lossy).

El tipo de códec que se utilice en audio va a depender del tipo de proyecto que se esté
realizando. Hay codecs que realizan su tarea a gran velocidad pero la calidad del archivo
final no es muy alta, que se utilizan para las telecomunicaciones en tiempo real
(streaming, podcasting, radio digital, audio para televisión digital y especialmente para
videoconferencia y telefonía). Por otro lado, existen codecs que son más lentos pero
obtienen una calidad muy alta en el archivo final, éstos son los que se utilizan para la
generación de copias, para almacenar, distribuir, etc.

5.5.1 Compresión sin pérdida (lossless)

Estos codecs pueden recuperar la señal original completamente. Los codecs que
comprimen sin pérdidas suelen tener una ratio de compresión baja, por lo que la
reducción de la bitrate es menor. Existen varias técnicas (codificación Huffman, la

29
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

codificación aritmética o la RLE – Run Length Encoding) que suelen aprovechar la


redundancia que en determinadas ocasiones se da en la señal de audio para realizar ahí la
compresión.

5.5.2 Compresión con pérdidas (lossy)

Si se utilizan estos codecs a la hora de la codificación del audio digital, no se podrá


recuperar la señal original de ningún modo. Los codecs con pérdidas generalmente
hacen uso de las limitaciones del aparato auditivo humano y sus variables psicoacústicas
para sacar el máximo provecho de ellas y desechar todo aquello que no es perceptible o
incluso, aunque lo sea, permita aún cierta calidad de escucha (asumen esta pérdida
porque es más importante reducir al máximo el tamaño del archivo).

 MQA - Master Quality Autenticated (Calidad Máster Autentificada) Tecnología


de codificación de audio que logra archivos de pequeño tamaño. Creado para
archivos de alta fidelidad de audio digital, streaming y descarga de archivos.

5.5.3 Parámetros más importantes de un códec

Hay dos organizaciones que dominan la estandarización de los codificadores de audio:

 ITU-T (Unión Internacional de las Telecomunicaciones) dentro del conjunto de


normas H.320 y H.323 donde se definen los estándares para videoconferencia y
telefonía IP G.7xx.
 ISO/IEC (Organización Internacional de la Estandarización y Comisión
Electrotécnica Internacional). MPEG.

Aparte de estas organizaciones existen muchas empresas que han creado sus propios
codecs por lo que hace años era difícil para el usuario medio saber interpretar las
características e incluso poder reproducir con éxito muchos archivos de audio. Sin
embargo, en la actualidad existe multitud de software para poder realizar conversiones
de formatos, así como software lector de archivos de audio que aceptan gran cantidad de
codecs. Así, salvo excepciones (aplicaciones muy específicas), no tendremos problemas
para reproducir o procesar los archivos de audio digital.

En cualquier caso, los parámetros más importantes de cualquier códec son:

 Frecuencia de muestreo: Determina la calidad percibida, por lo tanto cuanto más


alta sea mayor será la fidelidad de la señal obtenida respecto a la original.
 Profundidad de bits: Determina la precisión con la que se reproduce la señal
original y el rango dinámico de la misma. Valores típicos aceptados por la industria
son 8, 16, 20 o 24 bits.

30
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

 Tipo de compresión: Distingue entre compresión sin pérdidas (lossless) y con


pérdidas (lossy). En esta última suele aparecer la ratio o relación de compresión.
 Tasa de bits: Determina el número de bits de información necesarios por unidad
de tiempo. Al utilizar un tipo de codificación más compleja, la tasa de bits
dependerá de las características del códec (con pérdidas, sin pérdidas, ratio de
compresión, etc.) Además, según el códec, la tasa de bits puede ser constante
(CBR) o variable (VBR).
 Número de canales: Depende del número de señales de audio simultáneas que
contiene el flujo de datos y que el códec puede manejar. Puede ser mono (1
canal), estéreo (2 canales) o multicanal como 5.1 (seis canales) o 7.1 (ocho
canales), etc.

5.6 Formatos de archivos de audio digital

Cuando la señal de audio está en el mundo digital se aparece en forma de archivos de


datos. Estos archivos los podemos encontrar en distintos tipos de formatos de audio.
Cuando hablamos de formato, nos referimos al formato contenedor multimedia, ya que
además de la información de audio, pueden contener metadatos, información de
sincronización, corrección de errores, etc.. Según lo que alojen en su interior y su
configuración pueden ser de distintos tipos:

5.6.1 Formatos de audio sin compresión

Son los formatos que contienen la información de audio digital extraída con el. método
de modulación de código de impulsos PCM (Pulse-code modulation)En un flujo PCM,
la amplitud de la señal analógica se muestrea regularmente a intervalos uniformes, y cada
muestra se cuantifica al valor más cercano dentro de un rango de pasos digitales o
números de bits establecido. Es decir, la codificación tal y como la hemos visto
anteriormente.

También lo encontraremos como LPCM (Linear Pulse-Code Modulation) o PCM Lineal. Es


la forma estándar de los datos digitales de audio utilizados en soportes como el CD, el
DVD y el Blu-ray Disc. Se trata del formato “bruto” y sin compresión de las señales
digitales de audio que son introducidas en los procesadores digitales de audio o DAC’s a
través de las entradas S/PDIF (tanto no balanceada como balanceada), TosLink y PC-USB.

Los formatos PCM o LPCM que se utilizan a mayor escala y con un ámbito más amplio de
distribución dentro del mundo del audio digital profesional son:

 WAV - Waveform Audio Format (.wav) (.wave) desarrollado por Microsoft e IBM.
 AIFF - Audio Interchange File Format (.aif) desarrollado por Apple.

31
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

 BWF - Broadcast Wave Format (.bwf) es una extensión del formato de audio WAV
de Microsoft. Es el formato de grabación de la mayoría de las grabadoras digitales
utilizadas para la producción de películas, radio y televisión.

En general, todos estos formatos de archivo de audio admiten diferentes frecuencias de


muestreo (como 44.1, 48, 96 ó 192kHz) y bits de resolución (como 16 ó 24 bits). Todos
utilizan RIFF (el Formato de Archivo para Intercambio de Recursos), que a su vez se basa
en datos fragmentados o chunks. De ese modo tendremos en su interior una gran
cantidad de categorías de información. Son capaces de alojar múltiples canales de audio,
desde uno solo como canal mono, a los dos típicos canales estéreo, o incluso audio
envolvente en 5.1 canales, 7.1, o más.

Otra forma de codificar sin comprimir es el DSD (Direct Stream Digital)(.dsd) desarrollado
por Sony y Philips Electronics para un nuevo formato de disco de audio de alta resolución
SACD (Super Audio Compact Disc). El SACD está diseñado para proporcionar audio de alta
resolución tanto en estéreo como en modos de sonido envolvente de hasta 5.1 canales. El
proceso conocido como DSD para codificar audio tiene una frecuencia de muestreo de
2822,4 kHz y la resolución es de 1 bit. Las grabaciones en SACD pueden tener una
frecuencia y un rango dinámico más amplios que los CDs convencionales. Nunca llegó a
ser un estándar en el mercado y se ha quedado para equipos muy exclusivos.

5.6.2 Formatos de audio con compresión

En muchas aplicaciones, el flujo de bits generado por la codificación PCM se hace inviable,
en términos de ancho de banda, espacio de almacenamiento o tiempo de transferencia.
Es aquí donde necesitamos comprimir los datos de audio y los codecs se hacen
necesarios. Como hemos visto, la compresión puede ser sin pérdidas (lossles) o con
pérdidas (lossy). Los formatos de audio comprimido más comunes son:

 Lossless (sin pérdidas)


 FLAC – Free Lossless Audio Codec (.flac) Formato abierto (de código libre) que
puede reducir hasta un 60% el tamaño del archivo original. Permite la
incorporación de metadatos.
 ALAC - Apple Lossless Audio Codec (.m4a) Desarrollado por Apple. De código
libre desde 2011.

 Lossy (con pérdidas)


 AAC - Advanced Audio Coding (.aac) Desarrollado por Dolby, Sony, ATT y el
Instituto Fraunhofer, su característica más destacable es que se trata de un
formato multicanal, aceptando hasta cuarenta y ocho canales con 24 bits y
hasta 96 kHz.

32
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

 MP3 – MPEG-2 Audio Layer 3 (.mp3). Desarrollado por el Moving Picture


Experts Group (MPEG) es decir por el Instituto Fraunhofer en colaboración de
Thomson Multimedia. Es de licencia gratis al caducar su patente en 2017.
Permite ratios de compresión de 10:1, para solo dos canales manteniendo una
buena calidad. Es desde hace años el formato digital de audio más popular a
nivel mundial.
 OGG - Ogg Vorbis Audio File (.ogg) es un formato contenedor abierto creado
bajo patentes de software no restringidas por la Xiph.Org Foundation. Es
multicanal y al tener menor ratio de compresión que el MP3 puede tener
mayor calidad. Es el formato que más se utiliza en Spotify.
 WMA – Windows media Audio (.wma) Desarrollado por Microsoft como
respuesta empresarial al MP3. Es similar a este formato pero acepta audio
multicanal.

5.7 Conversión D/A

Para que nuestros oídos puedan captar la señal de audio digital hay primero que volverla
a convertir en señal de audio analógica y en presión sonora. Para ello partiremos de los
datos numéricos que representa la señal digital y en varios pasos la iremos
transformando en una señal analógica de voltaje o corriente y posteriormente en una
señal de sonido. En esencia, la conversión D/A es el proceso de tomar un valor
representado en código digital y convertirlo en un voltaje o corriente proporcional al
valor digital.

El DAC (Digital-Analogic Converter) es el dispositivo preparado para convertir una señal


digital formada por ceros y unos en una señal de voltaje o corriente analógica
proporcional al valor digital.

5.7.1 Características de un DAC

 Profundidad de bits. Los DACs están preparados para trabajar con distintas
cantidades de bits, es decir, en sonido puede haber DACs de 8, 16, 24 o 32 bits.

 Resolución. La resolución de un convertidor D/A se define como el cambio más


pequeño que puede producir en el voltaje en la salida analógica como resultado
de cada uno de los valores de la entrada digital. La resolución es igual a la
ponderación del LSB con respecto al valor de voltaje de referencia. También se le
conoce como Tamaño del Escalón ya que es la cantidad de voltaje que cambiará
en la salida analógica a medida que cambie de un valor a otro en la entrada digital,
de ahí que digamos que la forma de onda de la salida del DAC es del tipo de una
escalera que avanza un escalón según su resolución. Cuando la salida del DAC se

33
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

encuentra en su valor máximo se dice que es la salida a plena escala (Full Scale).
La resolución puede venir expresada en porcentaje. Conociendo el voltaje de
salida FS y el tamaño del escalón, podemos hallar dicho porcentaje con una simple
regla de tres.

5.7.2 Proceso de la conversión D/A

 Primer paso. La señal digital llega en forma de datos, o lo que es lo mismo, una
sucesión de ceros y unos. Dicha sucesión irá siendo cortada en intervalos de datos
según la profundidad de bits que estemos utilizando. Este ritmo es sincronizado
por un reloj digital (clock). Por ejemplo, si estamos trabajando a 24 bits, irá
cortando la cadena de datos en intervalos de 24 datos que podrán ser ceros o
unos.
 Segundo paso. Un contador de bits separará cada uno de los valores
estableciéndolos como LSB y MSB, según la profundidad de bits con la que trabaje
nuestro DAC. Si la señal tiene más bits de los que posee nuestro DAC se produce el
truncamiento. Es decir, si nuestra señal tiene 24 bits pero nuestro DAC es de 16
bits, se desecharán los 8 de la derecha y se presentará el nº 9 por la derecha como
el LSB.
 Tercer paso. El DAC tendrá un valor de Voltaje de Referencia, es decir, un rango de
voltaje para darle a cada valor de bit. Por ejemplo, si la señal de voltaje de
referencia es de 16V, los valores de voltaje que podrán tomar los bits irán de 0-
15V. El DAC tomará en cuenta dicho valor y los bits y establecerá la resolución.
Con la resolución ya puede saber qué vale cada cadena de valor de bits desde el
LSB y hasta el MSB.
Una vez que tenemos el valor de voltaje de cada bit, siendo el bit más
significativo (MSB) el que tome un valor de tensión mayor y el bit menos
significativo (LSB) el que tome el valor de la resolución o valor más bajo, se suman
todas las contribuciones de cada bit en un circuito y el valor resultante es lo que se
toma como voltaje analógico.
Por ejemplo, supongamos que tenemos un sistema de 4 bits con una resolución
de 1V (15V). En este caso, los valores de voltaje establecidos para cada bit serían
los siguientes:
MSB = 8 V
3º LSB = 4 V
2º LSB = 2 V
LSB = 1 V

Nuestros 4 bits han tomado los siguientes valores de los 16 posibles, procedentes
de nuestra señal de audio digital:

34
IES Néstor Almendros Módulo: Electroacústica
Tomares (Sevilla) Curso: 2021-22

1001 – 9
1100 – C
1101 – D
0101 – 5

En este ejemplo, la señal de audio digital tendría los siguientes valores en una
señal de audio analógica:

1001 – 1/8V + 0/4V + 0/2V + 1/1V = 9V


1100 – 1/8V + 1/4V + 0/2V + 0/1V = 12V
1101 – 1/8V + 1/4V + 0/2V + 1/1V = 13V
0101 – 0/8V + 1/4V + 0/2V + 1/1V = 5V

 Cuarto Paso. La señal eléctrica que produce el DAC es de voltaje continuo y no de


señal escalonada o stepping. Los cambios o saltos de voltaje que hemos visto
(stepping digital) se suavizan con un filtro paso bajo (low-pass) que no deja pasar
los cambios demasiado rápidos o pronunciados obteniendo una señal de voltaje
continuamente variable.

6. WEBGRAFÍA/BIBLIOGRAFÍA

https://www.hispasonic.com/tutoriales/conceptos-basicos-sobre-distorsion/

https://www.thomann.de/es/index.html

https://rotel.com/es/faq/what-sacd-disc

Fries, B. y Fries, M. (2005) Audio digital práctico. Anaya Multimedia.

Martín Díaz, D.A., Sevilla Jiménez, J.A, Hernández Pérez, E. (2017) Electroacústica. Altaria

Millán Esteller, J. M. (2014) Instalaciones de megafonía y sonorización. Paraninfo.

Pueo Ortega, B. y Romá Romero, M. (2003) Electroacústica, altavoces y micrófonos.


Pearson Prentice Hall.

Ramírez, R. (2005) Sistemas de radiocomunicaciones. Madrid, España: Ediciones


Paraninfo, S.A.

Watkinson, J (2002) El arte del audio digital. IORTV

35

También podría gustarte