Música electrónica
Para otros usos de este término, véase Música electrónica (desambiguación).
Música electrónica
Orígenes culturales Finales del siglo XIX, a comienzos
del siglo XX
Instrumentos comunes Instrumentos musicales electrónicos
Popularidad Alta en todo el mundo
Subgéneros
Música electroacústica, musique concrète, música
industrial, wonky, dub, ambient, bass, breakbeat, chiptune, trip
hop, downtempo, drum and
bass, electro, electrónica, EDM, EBM, IDM, glitch, hardcore, house,
synth-pop, techno, jungle dubstep, hardstyle, trance
[editar datos en Wikidata]
La música electrónica es aquel tipo de música que emplea para su producción e
interpretación instrumentos musicales electrónicos y tecnología musical electrónica. En
general, puede distinguirse entre el sonido producido utilizando medios electromecánicos de
aquel producido utilizando tecnología electrónica que también puede ser mezclada. Ejemplos
de dispositivos que producen sonido electro-mecánicamente son el telarmonio, el órgano
Hammond y la guitarra eléctrica. La producción de sonidos puramente electrónica puede
lograrse mediante aparatos como el theremin, el sintetizador de sonido y el ordenador.
La música electrónica se asoció en su día exclusivamente con una forma de música
culta occidental, pero desde finales de los años 1960, la disponibilidad de tecnología musical a
precios accesibles permitió que la música producida por medios electrónicos se hiciera cada
vez más popular. En la actualidad, la música electrónica presenta una gran variedad técnica y
compositiva, abarcando desde formas de música culta experimental hasta formas populares
como la música electrónica de baile.
Índice
[ocultar]
1Finales del siglo XIX hasta comienzos del siglo XX
2Nueva estética de la música
3Futurismo
41920-1930
51940-1950
o 5.1Música concreta
o 5.2Elektronische Musik
o 5.3Música electrónica
o 5.4Música electrónica estadounidense
o 5.5Música estocástica
o 5.6Mediados hasta finales de los 1950
61960-1970
o 6.1Música por ordenador
o 6.2Electrónica en vivo
o 6.3Sintetizadores
71970-1980
o 7.1Nacimiento de la música electrónica popular
o 7.2Nacimiento del MIDI
o 7.3Síntesis digital
81980 - 1990
o 8.1Crecimiento de la música dance
o 8.2Avances
92000 - 2010
10Véase también
11Referencias
12Bibliografía
13Enlaces externos
Finales del siglo XIX hasta comienzos del siglo
XX[editar]
Telharmonium, Thaddeus Cahill, 1897.
La habilidad de grabar sonidos suele relacionarse con la producción de música electrónica, si
bien no es absolutamente necesaria para ello. El primer dispositivo conocido capaz de grabar
sonido fue el fonoautógrafo, patentado en 1857 por Édouard-Léon Scott de Martinville. Podía
grabar sonidos visualmente, pero no estaba hecho para reproducirlos de nuevo.1
En 1878, Thomas A. Edison patentó el fonógrafo, que utilizaba cilindros similares al aparato
de Scott. Aunque se siguieron utilizando los cilindros durante algún tiempo, Emile
Berliner desarrolló el fonógrafo de disco en 1887. Un invento significativo, que posteriormente
tendría una gran importancia en la música electrónica, fue la válvula audión, del tipo tríodo,
diseñada por Lee DeForest. Se trata de la primera válvula termoiónica, inventada en 1906,
que permitiría la generación y amplificación de señales eléctricas, la emisión de radio, la
computación electrónica, y otras variadas aplicaciones.
Con anterioridad a la música electrónica, existía un creciente deseo entre los compositores de
utilizar las tecnologías emergentes en el terreno musical. Se crearon multitud de instrumentos
que empleaban diseños electromecánicos, los cuales allanaron el camino para la aparición de
instrumentos electrónicos. Un instrumento electromecánico llamado Telharmonium (en
ocasiones Teleharmonium o Dynamophone) fue desarrollado por Thaddeus Cahill en los años
1898-1912. Sin embargo, como consecuencia de su inmenso tamaño, nunca llegó a
adoptarse. Se suele considerar como el primer instrumento electrónico el Theremin, inventado
por el profesor Léon Theremin alrededor de 1919–1920.2 Otro primitivo instrumento electrónico
fue el Ondes Martenot, que se hizo conocido al ser utilizado en la obra Sinfonía
Turangalila por Olivier Messiaen. También fue utilizado por otros compositores, especialmente
franceses, como Andre Jolivet.
Nueva estética de la música[editar]
En 1907, justo un año después de la invención del tríodo audion, Alexander iskenderian
publicó Esbozo de una Nueva Estética de la Música, que trataba sobre el uso tanto de fuentes
eléctricas como de otras en la música del futuro. Escribió sobre el futuro de las escalas
microtonales en la música, posibles gracias al Dynamophone de Cahill: "solo mediante una
larga y cuidadosa serie de experimentos, y un continuo entrenamiento del oído, puede
hacerse este material desconocido accesible y plástico para la generación venidera, y para el
arte".
Como consecuencia de este escrito, así como a través de su contacto personal, tuvo Busoni
un profundo efecto en multitud de músicos y compositores, especialmente en su
discípulo Edgard Varèse.
Futurismo[editar]
Artículo principal: Futurismo
En Italia, el futurismo se acercó a la estética musical en transformación desde un ángulo
diferente. Una idea fuerza de la filosofía futurista era la de valorar el "ruido", así como dotar de
valor artístico y expresivo a ciertos sonidos que anteriormente no habían sido considerados ni
siquiera remotamente como musicales. El "Manifiesto Técnico de la Música Futurista" de
Balilla Pratella, publicado en 1911, establece que su credo es: "presentar el alma musical de
las masas, de las grandes fábricas, de los trenes, de los cruceros transatlánticos, de los
acorazados, de los automóviles y aeroplanos. Añadir a los grandes temas centrales del poema
musical el dominio de la máquina y el victorioso reinado de la electricidad".
El 11 de marzo de 1913, el futurista Luigi Russolo publicó su manifiesto "El arte de los ruidos"
(en italiano en original, "L'arte dei Rumori"). En 1914, organizó el primer concierto del "arte de
los ruidos" en Milán. Para ello utilizó su Intonarumori, descrito por Russolo como "instrumentos
acústico ruidistas, cuyos sonidos (aullidos, bramidos, arrastramientos, gorgoteos, etc.) eran
manualmente activados y proyectados mediante vientos y megáfonos". En junio se
organizaron conciertos similares en París.
1920-1930[editar]
Esta década trajo una gran riqueza de instrumentos electrónicos primitivos así como las
primeras composiciones para instrumentación electrónica. El primer instrumento, el theremin,
fue creado por Léon Theremin (nacido Lev Termen) entre 1919 y 1920 en Leningrad, aunque
fue posteriormente renombrado como el Theremin. Gracias a él se realizaron las primeras
composiciones para instrumento electrónico, opuestas a aquellas realizadas por los que se
dedicaban a crear sinfonías de ruidos. En 1929, Joseph Schillingercompuso su Primera Suite
Aerofónica para Theremin y Orquesta, interpretada por primera vez por la Orquesta de
Cleveland y Leon Theremin como solista.
Además del Theremin, el Ondes Martenot fue inventado en 1928 por Maurice Martenot, quien
debutó en París.3 El año siguiente, Antheil compuso por primera vez para dispositivos
mecánicos, aparatos productores de ruidos, motores y amplificadores en su ópera
inacabada Mr. Bloom.
La grabación de sonidos dio un salto en 1927, cuando el inventor estadounidense J. A. O'Neill
desarrolló un dispositivo para la grabación que utilizaba un tipo de cinta recubierta
magnéticamente. No obstante, fue un desastre comercial. Dos años más tarde, Laurens
Hammond abrió una empresa dedicada a la fabricación de instrumentos electrónicos.
Comenzó a producir el Órgano Hammond, basado en los principios del Telharmonium junto a
otros desarrollos como las primeras unidades de reverberación.
El método foto óptico de grabación de sonido utilizado en el cine hizo posible obtener una
imagen visible de la onda de sonido, así como sintetizar un sonido a partir de una onda de
sonido.
En la misma época, comenzó la experimentación del arte sonoro, cuyos primeros exponentes
incluyen a Tristan Tzara, Kurt Schwitters, Filippo Tommaso Marinetti y otros.
1940-1950[editar]
Música concreta[editar]
Artículo principal: Música concreta
Desde alrededor de 1900 se utilizaba el magnetófono de alambre magnético de baja fidelidad
(lo-fi).4 y a comienzos de los años 1930 la industria cinematográfica comenzó a convertirse a
los nuevos sistemas de grabación de sonido ópticos basados en células fotoeléctricas.5 En
esta época la empresa alemana de electrónica AEG desarrolla el primer magnetófono de cinta
práctico, el "Magnetophon" K-1, revelado en el Berlin Radio Show en agosto de 1935.6
Durante la Segunda Guerra Mundial, Walter Weber redescubrió y aplicó la técnica AC bias,
que incrementó dramáticamente la fidelidad de las grabaciones magnéticas al añadir una
frecuencia alta inaudible. Extendió en 1941 la curva de frecuencia del Magnetophone K4 hasta
10 kHz y mejoró la relación señal/ruido hasta 60 dB7 sobrepasando cualquier sistema de
grabación conocido en aquel tiempo.
En 1942, AEG ya estaba realizando pruebas de grabación en estéreo.8 No obstante, estos
dispositivos y técnicas fueron un secreto fuera de Alemania hasta el final de la Guerra, cuando
varios de estos aparatos fueron capturados y llevados a Estados Unidos por Jack Mullin y
otros. Estos grabadores capturados sirvieron de base para los primeros grabadores de cinta
profesionales que fueron comercializados en Estados Unidos, el Model 200 producido por la
empresa Ampex.
La cinta de audio magnética abrió un vasto campo de posibilidades sonoras para músicos,
compositores, productores e ingenieros. La cinta de audio era relativamente barata y muy
confiable, y su fidelidad en la reproducción mejor que cualquier otro medio de audio conocido
hasta la fecha. Más importantemente, y a diferencia de los discos, ofrecía la misma plasticidad
que la película: puede ser ralentizada, acelerada o incluso reproducirse al revés. Puede
editarse también físicamente, incluso sólo segmentos de la cinta. O unirse diferentes trozos de
cinta en loops infinitos que reproducen continuamente determinados patrones de material
pregrabado. La amplificación de audio y el equipo de mezcla expandieron todavía más allá las
posibilidades de la cinta como medio de producción, permitiendo que múltiples grabaciones
fueran grabadas a la vez en otra cinta diferente. Otra posibilidad de la cinta era su capacidad
de ser modificada fácilmente para convertirse en máquinas de eco para producir de modo
complejo, controlable y con gran calidad efectos de eco y reverberación (lo que es
prácticamente imposible de conseguir por medios mecánicos).
Pronto los músicos comenzaron a utilizar el grabador de cinta o magnetófono para desarrollar
una nueva técnica de composición llamada música concreta. Esta técnica consiste en la
edición de fragmentos de sonidos de la naturaleza o de procesos industriales grabados
conjuntamente. Las primeras piezas de "musique concrète" fueron creadas por Pierre
Schaeffer, quien colaboró con Pierre Henry. En 1950, Schaeffer dio el primer concierto (no
emitido) de música concreta en la École Normale de Musique de Paris. Posteriormente ese
año, Pierre Henry colaboró con Schaeffer en la Symphonie pour un homme seul (1950), la
primera obra importante de música concreta. En París en 1951, en lo que se convertiría en
una tendencia global, RTF creó el primer estudio para la producción de música electrónica.
También en 1951, Schaeffer y Henry produjeron una ópera, Orpheus, para sonidos y voces
concretos.
Elektronische Musik[editar]
Karlheinz Stockhausen en el Estudio de Música Electrónica de WDR, Colonia, en 1991
Artículo principal: Karlheinz Stockhausen
Karlheinz Stockhausen trabajó brevemente en el estudio de Schaeffer en 1952, y
posteriormente durante muchos años en el Estudio de Música Electrónica de
la WDR de Colonia en Alemania.
En Colonia, el que se convertiría en el estudio de música electrónica más famoso del mundo,
inició actividades en la radio de la NWDR en 1951, después de que el físico Werner Meyer-
Eppler, el técnico de sonido Robert Beyer y el compositor Herbert Eimert (que se convertiría
en su primer director, hasta 1962), convencieran al director de la NWDR, Hanns Hartmann, de
la necesidad de dicho espacio. El mismo año de su creación, 1951, fueron transmitidos los
primeros estudios de música electrónica en un programa vespertino de la propia radio y
presentados en los Cursos de Verano de Darmstadt. En 1953 hubo una demostración pública
en la sala de conciertos de la Radio de Colonia donde se dejaron escuchar siete piezas
electrónicas. Los compositores de los estudios electrónicos eran Herbert Eimert, Karel
Goeyvaerts, Paul Gredinger, Henry Pousseur y Karlheinz Stockhausen.
El programa comprendía las siguientes piezas:
Karlheinz Stockhausen: Estudio II
Herbert Eimert: Glockenspiel
Karel Goeyvaerts: Composición No. 5
Henry Pousseur: Sismogramas
Paul Gredinger: Formantes I y II
Karlheinz Stockhausen: Estudio I
Herbert Eimert: Estudio sobre mezclas de sonido
En su tesis de 1949, Elektronische Klangerzeugung: Elektronische Musik und Synthetische
Sprache, Meyer-Eppler concibió la idea de sintetizar música enteramente desde señales
producidas electrónicamente. De esta manera, la elektronische Musik se diferenciaba
abruptamente respecto a la musique concrète francesa, que utilizaba sonidos grabados a
partir de fuentes acústicas.
Con Stockhausen y Mauricio Kagel como residentes, el estudio de música electrónica de
Colonia se convirtió en un emblema del avant garde, cuando se empezó ya a combinar
sonidos generados electrónicamente con los de instrumentos tradicionales. Ejemplos
significativos son Mixtur (1964) y Hymnen, dritte Region mit Orchester (1967). Stockhausen
afirmó que sus oyentes le decían que su música electrónica les daba una experiencia de
"espacio exterior", sensaciones de volar, o de estar en "un mundo de ensueño fantástico".
Música electrónica[editar]
Si bien los primeros instrumentos eléctricos como el Ondes Martenot, el Theremin y
el Trautonium eran poco conocidos en Japón con anterioridad a la Segunda Guerra Mundial,
algunos compositores habían tenido conocimiento de ellos en su momento, como Minao
Shibata. Varios años tras la Segunda Guerra Mundial, diferentes músicos en Japón
comenzaron a experimentar con música electrónica, a lo que contribuyó el apoyo institucional,
lo que permitió a los compositores experimentar con el último equipamiento de grabación y
procesamiento de audio. Estos esfuerzos dieron lugar a una forma musical que fusionaba la
música asiática con un nuevo género y sembraría las bases del dominio japonés en el
desarrollo de tecnología musical durante las siguientes décadas.
Tras la creación de la compañía Sony (conocida entonces como Tokyo Tsushin Kogyo K.K.)
en 1946, dos compositores japoneses, Toru Takemitsu y Minao Shibata, de modo
independiente escribieron sobre la posibilidad de utilizar la tecnología electrónica para
producir música hacia finales de los años 1940. Hacia 1948, Takemitsu concibió una
tecnología que pudiera "traer ruido dentro de tonos musicales atemperados dentro de un
pequeño y complejo tubo", una idea similar a la musique concrète que Pierre Schaefferhabía
aventurado el mismo año. En 1949, Shibata escribió sobre su concepto de "un instrumento
musical con grandes posibilidades de actuación" que pudiera "sintetizar cualquier tipo de onda
de sonido" y que sea "manejado muy fácilmente," prediciendo que con un instrumento tal, "la
escena musical sería cambiada drásticamente". Ese mismo año, Sony desarrolló
el magnetófono magnético G-Type.
En 1950, el estudio de música electrónica Jikken Kobo sería fundado por un grupo de músicos
que querían producir música electrónica experimental utilizando magnetófonos Sony. Entre
sus miembros estaban Toru Takemitsu, Kuniharu Akiyama y Joji Yuasa, y estaba apoyado por
Sony, empresa que ofrecía acceso a la última tecnología de audio. La compañía contrató a
Takemitsu para componer música electroacústica electrónica para mostrar sus magnetófonos.
Más allá del Jikken Kobo, muchos otros compositores como Yasushi Akutagawa, Saburo
Tominaga y Shiro Fukai también estaban experimentando con música electroacústica entre
1952 y 1953.La música electrónica se asoció en su dia exclusivamente con una forma de
música culta occidental pero desde finales de los años 1990 la disponibilidad de tecnología
musical a precios accesibles permitió que la música por medios electrónicos se hicieran cada
vez más popular
Música electrónica estadounidense[editar]
En Estados Unidos, se utilizaban sonidos creados electrónicamente para diferentes
composiciones, como ejemplifica la pieza Marginal Intersection de Morton Feldman. Esta
pieza está pensada para vientos, metales, percusión, cuerdas, dos osciladores y efectos de
sonido.
El Music for Magnetic Tape Project fue formado por miembros de la Escuela de Nueva
York (John Cage, Earle Brown, Christian Wolff, David Tudor y Morton Feldman) y duró tres
años hasta 1954. Durante esta época, Cage completó su Williams Mix, en 1953.
Música estocástica[editar]
Artículo principal: Iannis Xenakis
Un importante desarrollo lo constituyó la aparición de ordenadores utilizados para componer
música, en contraposición de la manipulación o creación de sonidos. Iannis Xenakiscomenzó
lo que se conoce como "musique stochastique" o música estocástica, un método de componer
que emplea sistemas matemáticos de probabilidad estocásticos. Se utilizaban diferentes
algoritmos de probabilidad para crear piezas bajo un set de parámetros. Xenakis utilizó papel
gráfico y una regla para ayudarse a calcular la velocidad de las trayectorias de
los glissandos para su composición orquestal Metastasis (1953-1954), pero posteriormente
pasó a utilizar ordenadores para componer piezas como ST/4 para cuarteto de cuerda
y ST/48 para orquesta.
Mediados hasta finales de los 1950[editar]
En 1954, Stockhausen compuso su Elektronische Studie II, la primera pieza electrónica en ser
publicada como banda sonora.
En 1955, aparecieron más estudios electrónicos y experimentales. Fueron notables la
creación del Estudio de Fonología, un estudio en el NHK de Tokio fundado por Toshiro
Mayuzumi, y el estudio de Phillips en Eindhoven, Holanda, que se trasladó a la Universidad de
Utrecht como Instituto de Sonología en 1960.
La banda sonora de Forbidden Planet, de Louis y Bebe Barron, fue compuesta completamente
mediante circuitos caseros y magnetófonos en 1956.9
El primer computador del mundo en reproducir música fue el CSIRAC, que fue diseñado y
construido por Trevor Pearcey y Maston Beard. El matemático Geoff Hill programó el CSIRAC
para tocar melodías de música popular. No obstante, el CSIRAC reproducía un repertorio
estándar y no fue utilizado para ampliar el pensamiento musical o para tocar composiciones
más elaboradas.
El impacto de los computadores continuó en 1956. Lejaren Hiller y Leonard Isaacson
compusieron Iliac Suite para un cuarteto de cuerda, la primera obra completa en ser
compuesta con la asistencia de un computador utilizando un algoritmo en la composición.
Posteriores desarrollos incluyeron el trabajo de Max Mathews en Bell Laboratories, quien
desarrolló el influyente programa MUSIC I. La tecnología de vocoder fue otro importante
desarrollo de esta época.
En 1956, Stockhausen compuso Gesang der Jünglinge, la primera gran obra del estudio de
Colonia, basado en un texto del Libro de Daniel. Un importante desarrollo tecnológico fue la
invención del sintetizador Clavivox por Raymond Scott, con ensamblaje de Robert Moog.
El sintetizador RCA Mark II Sound Synthesizer apareció en 1957. A diferencia de los primeros
Theremin y Ondes Martenot, era difícil de usar, requería una extensa programación, y no
podía tocarse en tiempo real. En ocasiones denominado el primer sintetizador electrónico, el
RCA Mark II Sound Synthesizer utilizaba osciladores de válvula termoiónica e incorporaba el
primer secuenciador. Fue diseñado por RCA e instalado en el Columbia-Princeton Electronic
Music Center, donde sigue actualmente. Posteriormente, Milton Babbitt, influenciado en sus
años de estudiante por la "revolución en el pensamiento musical" de Schoenberg, comenzó a
aplicar técnicas seriales a la música electrónica.
1960-1970[editar]
Estos fueron años fértiles para la música electrónica, no solo para la música académica sino
también para algunos artistas independientes a medida que la tecnología del sintetizador iba
volviéndose más accesible. Hacia esta época, una poderosa comunidad de compositores y
músicos trabajando con nuevos sonidos e instrumentos se había establecido y estaba
creciendo. 1960 fue testigo de la composición Gargoyle de Luening para violín y cinta, así
como la premiere de Kontakte de Stockhausen para sonidos electrónicos, piano y percusión.
En Kontakte, Stockhausen abandonó la forma musical tradicional basada en un desarrollo
lineal y en un clímax dramático. En este nuevo acercamiento, que él denominó como "forma
momento", recuerda a las técnicas de "cinematic splice" del cine de principios del siglo veinte.
El primero de estos sintetizadores en aparecer fue el Buchla. Apareciendo en 1963, fue
producto del esfuerzo del compositor de música concreta Morton Subotnick.
El theremin había sido utilizado desde los años 20, pero mantenía una cierta popularidad
gracias a su utilización en numerosas bandas sonoras de películas de ciencia ficción de los
años 50 (por ejemplo The Day the Earth Stood Still de Bernard Herrmann). Durante los años
60, el theremin hizo apariciones ocasionales en la música popular.
En el Reino Unido, en este período, el BBC Radiophonic Workshop (creado en 1958) emergió
como uno de los estudios más productivos y renombrados del mundo, gracias a su labor en la
serie de ciencia ficción Doctor Who. Uno de los artistas electrónicos británicos más influyentes
de este período fue Delia Derbyshire. Es famosa por su icónica ejecución en 1963 del tema
central de Doctor Who, compuesto por Ron Grainer, según algunos la pieza más conocida de
música electrónica del mundo. Derbyshire y sus colegas, entre los que se encuentran Dick
Mills, Brian Hodgson (creador del efecto de sonido TARDIS), David Cain, John Baker, Paddy
Kingsland y Peter Howell, desarrollaron un amplio cuerpo de trabajo que incluye bandas
sonoras, atmósferas, sintonías de programas y efectos de sonido para BBC TV y sus emisoras
de radio.
El compositor israelí Josef Talen el Electronic Music Studio de Jerusalén (~1965). A la derecha, el
sintetizador Hugh Le Caine.
En 1961 Josef Tal creó el Centre for Electronic Music in Israel en la Universidad Hebrea, y en
1962 Hugh Le Caine llegó a Jerusalén para instalar su Creative Tape Recorder en el centro.10
Milton Babbitt compuso su primer trabajo electrónico utilizando el sintetizador
(llamada Composition for Synthesizer), que fue creado mediante el RCA en el CPEMC. La
colaboraciones ocurrían superando las barreras de los océanos y de los continentes. En 1961,
Ussachevsky invitó a Varèse al Columbia-Princeton Studio (CPEMC). Fue asistido por Mario
Davidovsky y Bülent Arel. La intensa actividad del CPEMC y en otros sitios inspiró la creación
en San Francisco del Tape Music Center en 1963 por Morton Subotnick, con otros miembros
adicionales como Pauline Oliveros, Ramón Sender, Terry Riley y Anthony Martin. En el otro
lado del Atlántico tuvo lugar el Primer Seminario de Música Electrónica, en 1964
en Checoslovaquia, organizado en el Radio Broadcast Station de Plzen.
Se siguieron desarrollando nuevos instrumentos. Uno de los más importantes avances tuvo
lugar en 1964, cuando Robert Moog introdujo el sintetizador Moog, el primer sintetizador
analógico controlado por un sistema integrado modular de control de voltaje. Moog
Music introdujo posteriormente un sintetizador más pequeño con un teclado,
llamado Minimoog, que fue utilizado por multitud de compositores y universidades, haciéndose
muy popular. Un ejemplo clásico del uso del Moog de gran tamaño es el álbum Switched-On
Bach de Wendy Carlos.
En 1966, Pierre Schaeffer fundó el Groupe de Recherches Musicales (Grupo de Investigación
Musical) para el estudio y la investigación de la música electrónica. Su programación está
estructurada a partir de un compromiso en los procesos de difusión, investigación y creación
de la música contemporánea y las tendencias en videoarte e imagen más actuales. Sus
exhibiciones y conciertos son reproducidas en tiempo real mediante dispositivos electrónicos,
interfícies de audio-video y una plantilla de músicos y video artistas nacionales e
internacionales abiertos al uso de tecnologías punta.
Música por ordenador[editar]
CSIRAC, el primer computador en tocar música, lo hizo públicamente en agosto de 1951. 11
Una de las primeras demostraciones a gran escala de lo que se conoció como computer
music (en inglés, "música por ordenador") fue una emisión nacional pre grabada en la
red NBC para el programa Monitor el 10 de febrero de 1962. En 1961, LaFarr Stuart programó
el ordenador CYCLONE de la Universidad del Estado de Iowa (un derivado del Illiac) para
tocar canciones sencillas y reconocibles a través de un altavoz amplificado adherido a un
sistema originalmente utilizado para temas administrativos y de diagnóstico.
Los últimos 50, los años 60 y la década de los 70 vieron también el desarrollo de grandes
marcos operativos para síntesis informática. Desde 1957, Max Mathews de Bell Labs
desarrolló los programas MUSIC, culminando en MUSIC V, un lenguaje de síntesis directa
digital.
En París, IRCAM se convirtió en el principal centro de investigación de música creada por
computador, desarrollando el sistema informático Sogitec 4X,12 que incluía un revolucionario
sistema de procesamiento de señal digital en tiempo real. Répons (1981), obra para 24
músicos y 6 solistas de Pierre Boulez, utilizó el sistema 4X para transformar y dirigir a los
solistas hacia un sistema de altavoces.
Electrónica en vivo[editar]
En Estados Unidos, la electrónica en directo fue llevada a cabo por primer vez en los años
1960 por miembros del Milton Cohen's Space Theater en Ann Arbor, Míchigan, entre los que
estaban Gordon Mumma y Robert Ashley, por individuos como David Tudor hacia 1965, y The
Sonic Arts Union, fundada en 1966 por Gordon Mumma, Robert Ashley, Alvin Lucier y David
Behrman. Los festivales ONCE, que mostraban música multimedia para teatro, fueron
organizados por Robert Ashley y Gordon Mumma en Ann Arbor entre 1958 y 1969. En
1960, John Cage compuso Cartridge Music, una de las primeras obras de electrónica en vivo.
Los compositores y músicos de jazz, Paul Bley y Annette Peacock, fueron de los primeros en
tocar en concierto utilizando sintetizadores Moog hacia finales de los 1960. Peacock hacía un
uso regular de un sintetizador Moog adaptado para procesar su voz tanto en el escenario
como en grabaciones de estudio.
Sintetizadores[editar]
Véanse también: Minimoog y Korg.
Moog, a finales de 1963, conoció al compositor experimental Herbert Deutsch, quien, en su
búsqueda por sonidos electrónicos nuevos, inspiró a Moog a crear su primer sintetizador, el
"Sintetizador Modular Moog" (en inglés: Moog Modular Synthesizer).13
El Moog, aunque era conocido con anterioridad por la comunidad educativa y musical, fue
presentado en sociedad en el otoño de 1964, cuando Bob hizo una demostración durante la
Convención de la Sociedad de Ingeniería de Audio (Audio Engineering Societen) celebrada en
Los Ángeles. En esta convención, Moog ya recibió sus primeros pedidos, y el negocio
despegó.
La compañía Moog Music creció de forma espectacular durante los primeros años,
haciéndose más conocida cuando Wendy Carlos edita el álbum Switched on Bach. Bob diseño
y comercializó nuevos modelos, como el Minimoog la primera versión portátil del Moog
Modular, el Moog Taurus (teclado de pedales de una octava de extensión, con transposición
para bajos y agudos), el PolyMoog (primer modelo 100% polifónico), el MemoryMoog
(polifónico, equivalía a seis MiniMoog's en uno), el MinitMoog, el Moog Sanctuary, etc.
Moog no supo gestionar bien su empresa y ésta pasó de tener listas de espera de nueve
meses a no recibir ni un sólo pedido. Agobiado por las deudas, perdió el control de la
empresa, que fue adquirida por un inversionista, aunque continuó diseñando instrumentos
musicales para él hasta 1977, cuando abandonó Moog Music y se mudó a un pequeño
poblado en las montañas Apalaches. Sin Bob, la Moog Music se fue a pique poco después.
En 1967, Kato se acercó al Ingeniero Fumio Mieda, quien deseaba iniciarse en la construcción
de teclados musicales. Impulsado por el entusiasmo de Mieda, Kato le pidió construir un
prototipo de teclado y 18 meses después Mieda le presentó un órgano programable. La
compañía Keio vendió este órgano bajo la marca Korg, hecha de la combinación de su
nombre con la palabra órgano, en inglés (Organ).
Los órganos producidos por Keio fueron exitosos a finales de los años 60 y principios de los
70 pero, consciente de la competencia con los grandes fabricantes de órganos ya
establecidos, Kato decidió usar la tecnología del órgano electrónico para construir teclados
dirigidos al mercado de los sintetizadores. De hecho, el primer sintetizador de Keio (MiniKorg)
fue presentado en 1973. Después del éxito de este instrumento, Keio presentó diversos
sintetizadores de bajo costo durante los años 70 y 80 bajo la marca Korg.
1970-1980[editar]
Jean-Michel Jarre, uno de los destacados precursores de la música electrónica de los 70 y 80.
En 1970, Charles Wuorinen compuso 'Time's Encomium', convirtiéndose en el primer
ganador Premio Pulitzer por una composición completamente electrónica. Los años 1970
también vieron como se generalizaba el uso de sintetizadores en la música rock con ejemplos
como Pink Floyd, Tangerine Dream, Yes y Emerson, Lake & Palmer.
Nacimiento de la música electrónica popular[editar]
Véanse también: Rock progresivo, Escuela de Berlín, Krautrock, Space rock y Synthpop.
A lo largo de los años 70, bandas como The Residents y Can abanderaron un movimiento de
música experimental que incorporaba elementos de música electrónica. Can fue uno de los
primeros grupos en utilizar loops de cinta para la sección de ritmo y The Residents crearon
sus propias cajas de ritmos. También en los años 70 diferentes bandas de rock,
desde Genesis hasta The Cars, comenzaron a incorporar sintetizadores en sus arreglos de
rock.
En 1979, el músico Gary Numan contribuyó a llevar la música electrónica a un público más
amplio con su hit pop "Cars" del álbum The Pleasure Principle. Otros grupos y artistas que
contribuyeron en esta época significativamente a popularizar la música creada exclusiva o
fundamentalmente de modo electrónico fueron Kraftwerk, Depeche Mode, Jean Michel
Jarre, Mike Oldfield o Vangelis.
Nacimiento del MIDI[editar]
Artículo principal: MIDI
En 1980, un grupo de músicos y fabricantes se pusieron de acuerdo para estandarizar una
interfaz a través del que diferentes instrumentos pudieran comunicarse entre ellos y el
ordenador principal. El estándar se denominó MIDI (Musical Instrument Digital Interface). En
agosto de 1983, la especificación 1.0 de MIDI fue finalizada.
La llegada de la tecnología MIDI permitió que con el simple acto de presionar una tecla,
controlar una rueda, mover un pedal o dar una orden en un micro ordenador se pudieran
activar todos y cada uno de los dispositivos del estudio remotamente y de forma sincronizada,
respondiendo cada dispositivo de acuerdo a las condiciones prefijadas por el compositor.
Miller Puckette desarrolló un software para el procesamiento gráfico de señal de 4X
llamado Max, que posteriormente sería incorporado a Macintosh (Dave Zicarelli lo extendió
a Opcode)14 para control de MIDI en tiempo real, haciendo que la composición algorítmica
estuviera disponible para cualquier compositor que tuviera un mínimo conocimiento de
programación informática.
Síntesis digital[editar]
Véase también: Sample
En 1979, la empresa australiana Fairlight lanzó el Fairlight CMI (Computer Musical
Instrument), el primer sistema práctico de sampler polifónico digital. En
1983, Yamaha introdujo el primer sintetizador digital autónomo, el DX-7. Utilizaba síntetis de
modulación de frecuencia (síntesis FM), probada por primera vez por John Chowning en
Stanford a finales de los años 1960.
1980 - 1990[editar]
Crecimiento de la música dance[editar]
Artículo principal: Música electrónica de baile
Véanse también: Música electro, Techno, Música house y Acid house.
Véanse también: Rave, Jungle, Drum and Bass y Música trance.
Hacia finales de los años 80, los discos de música de baile que utilizaban instrumentación
exclusivamente electrónica se hicieron cada vez más populares. Esta tendencia ha continuado
hasta el presente, siendo habitual escuchar música electrónica en los clubs de todo el mundo.
Avances[editar]
En los años 1990, comenzó a ser posible llevar a cabo actuaciones con la asistencia de
ordenadores interactivos. Otros avance reciente es la composición Begin Again Again de Tod
Machover (MIT y IRCAM) para hyper chelo, un sistema interactivo de sensores que miden los
movimientos físicos del chelista. Max Methews desarrolló el programa "Conductor" para
control en tiempo real del tempo, la dinámica y el timbre de un tema electrónico.
2000 - 2010[editar]
Qlimax, un evento de música electrónica masivo que se celebra anualmente en los Países Bajos.
A medida que la tecnología informática se hace más accesible y el software musical avanza, la
producción musical se hace posible utilizando medios que no guardan ninguna relación con
las prácticas tradicionales. Lo mismo ocurre con los conciertos, extendiéndose su práctica
utilizando ordenadores portátiles y live coding. Se populariza el término Live PA para describir
cualquier tipo de actuación en vivo de música electrónica, ya sea utilizando ordenador,
sintetizador u otros dispositivos.
En las décadas de 1990 y 2000 surgieron diferentes entornos virtuales de estudio construidos
sobre software, entre los que destacan productos como Reason de Propellerhead y Ableton
Live, que se hacen cada vez más populares. Estas herramientas proveen de alternativas útiles
y baratas para los estudios de producción basados en hardware. Gracias a los avances en la
tecnología de microprocesadores, se hace posible crear música de elevada calidad utilizando
poco más que un solo ordenador. Estos avances han democratizado la creación musical
llevando a un incremento masivo en la producción musical casera disponible para el público
en internet.
El avance del software y de los entornos de producción virtuales ha llevado a que toda una
serie de dispositivos antiguamente solo existentes como hardware estén ahora disponibles
como piezas virtuales, herramientas o plug ins de los software. Algunos de los softwaresmás
populares son Max/Msp y Reaktor, así como paquetes de código abierto tales como Pure
Data, SuperCollider y ChucK.
Los avances en la miniaturización de los componentes electrónicos, que en su época
facilitaron el acceso a instrumentos y tecnologías usadas solo por músicos con grandes
recursos económicos, han dado lugar a una nueva revolución en las herramientas electrónicas
usadas para la creación musical. Por ejemplo, durante los años 90 los teléfonos móviles
incorporaban generadores de tonos monofónicos que algunas fábricas usaron no solo para
generar los Ringtones de sus equipos, sino que permitieron a sus usuarios algunas
herramientas de creación musical. Posteriormente, los cada vez más pequeños y potentes
computadores portátiles, computadores de bolsillo y PDA´s abrieron camino a las
actuales Tablets y teléfonos inteligentes que permiten no solo el uso de generadores de tono,
sino el de otras herramientas como samplers, sintetizadores monofónicos y
polifónicos, grabación multipista etc. que permiten la creación musical en casi cualquier lugar.