A contratiempo revista digital

A Contratiempo
Viernes 26 de Abril del 2024
ISSN 2145-1958 | RSS

Sobre música electrónica

György Ligeti, Traducción de: Carlos Hidalgo

2014-06-25
Untitled Document Sobre música electrónica1

La música concreta, y en especial la música electrónica, se encuentran rodeadas para el espectador desprevenido por el aura de la tecnología. Los compositores de este tipo de música son considerados más como ingenieros o mezcladores de ruidos, que como artistas. Algunos incluso opinan que esa música es la expresión de la era atómica, en cierto modo debido a la malversación del término “electrónico”.

El momento técnico no es en absoluto lo primordial en este género. Lo técnico se encuentra únicamente al servicio de la manifestación de la imaginación musical, que no puede hacerse realidad con medios instrumentales y vocales convencionales. Como manifestaciones acústicas, los sonidos producidos por medios electrónicos no difieren en esencia de los vocales o instrumentales. Todos ellos están compuestos de oscilaciones de aire. El resultado sonoro sucede de una parte por cuerpos fijos que son transformados en vibración por medios mecánicos, como cuerdas o cuerdas vocales; y por otra parte, como consecuencia del movimiento de la membrana de un altavoz debido a un cambio de corriente. La separación de los dos procesos en naturales (en el caso de música instrumental y vocal) y artificial-técnico (en el caso de la música electrónica) no es justificada. Los dos son artificiales. La naturaleza conoce sonidos musicales solo en ciertas excepciones y contextos musicales en ninguna. Conoce también el ruido, un fenómeno acústico que es atacado como lo más antinatural por quienes propagan la “naturalidad” de la música.

Más allá de este principio común fundamental hay un aspecto importante que diferencia la música electrónica de la música instrumental y vocal. Sonidos instrumentales y vocales poseen colores sonoros específicos (Klangfarbe) y solamente variaciones al interior de ciertos rangos -si pensamos en el sonido de las cuerdas, que si bien es transformado por medio de diferentes técnicas de ejecución como sobre la cejilla, sobre el mástil, flautando, etc., nunca puede adquirir las características sonoras de un oboe o una celesta. Por el contrario, en la producción de sonidos electrónicos, las posibilidades de variar el espectro del color sonoro (Klangfarbe) son ilimitadas.

Esto significa que se pueden crear colores sonoros no escuchados hasta nuestros días e inclusive transformaciones continuas y discontinuas del mismo. En realidad, por el momento, la tendencia es la investigación de las posibilidades de la música electroacústica para disponer de ilimitados colores sonoros en la composición.

Un tono está compuesto por una altura fundamental y una cantidad de alturas parciales. Para aclarar que un sonido es en realidad una estructura compuesta, se le denomina actualmente -análogo al espectro de color óptico- espectro sonoro. Los espectros sonoros son por lo general armónicos, lo que significa que las frecuencias de las alturas parciales son múltiplos enteros de la frecuencia de la altura fundamental. Los armónicos existentes en un espectro sonoro y la proporción de las intensidades de los parciales armónicos entre sí como oposición a la nota fundamental determinan el color-sonoro (Klangfarbe).

Esta proporción no permanece constante durante la duración del sonido. El ataque en particular, tiene oscilaciones de intensidad irregular de los parciales armónicos que se forman a velocidad diferente. Este fenómeno se llama estado transiente y es una característica especial del color sonoro respectivo. Si se graban por ejemplo un sonido de un piano en el registro medio y un sonido de una flauta -dos sonidos cuyo color sonoro es completamente diferente- y se separan los estados transientes, o sea los ataques del piano y de la flauta cortando la banda, apenas se puede diferenciar el origen de los dos sonidos y su color sonoro aún con mayor dificultad.

Tanto las proporciones espectrales como los estados transientes de sonidos producidos por medio vocal o instrumental están ya predispuestos. Pero con medios electrónicos de generación de sonido se puede realizar cualquier cantidad de espectros y transientes, así como también es posible determinar exactamente para cada parcial armónico por separado tanto su ataque, como su duración y su resonancia. En principio la cuestión es muy fácil: por medio de un generador se produce un cambio de corriente y se envía a la membrana de un altavoz. Así, cuando la frecuencia de ese cambio de corriente se encuentra entre 20 y 20.000 vibraciones por segundo -o sea al interior de los límites dentro de los cuales las vibraciones son audibles- es como por el cambio de corriente la vibración en el desplazamiento de la membrana de un altavoz produce un sonido correspondiente. Debido al estado de desarrollo de la electrónica, no solo se puede determinar exactamente la frecuencia de un cambio de corriente, sino también la forma de onda; es posible continuar influyendo el tono o sonido en todos sus componentes espectrales.

Además, se pueden producir oscilaciones que contengan un número determinado de parciales armónicos y luego por medio de filtros eléctricos reducir o eliminar por completo los armónicos no deseados. Mejor todavía, aun cuando el proceso requiere más tiempo, es factible no obtener directamente sonidos complejos compuestos por armónicos parciales, sino producir parciales armónicos individuales por separado con un generador de ondas sinusoidales. Como se sabe, las ondas sinusoidales son absolutas, sin ondas parciales que sirvan como tal. De esos tonos absolutos se pueden construir en detalle sonidos con proporciones dinámicas y transformaciones deseadas; de esta forma se crean los estados transientes. Además, no se está limitado a parciales armónicos, sino que también se puede crear cualquier combinación de alturas de cualquier tono en cualquier proporción. Por medio de generación de sonidos electrónicos, se da la posibilidad de componer en campos microscópicos de la música las relaciones al interior de un espectro.

La Música Electrónica es un producto de los años cincuenta. ¿Por qué surge en algunos compositores la necesidad de incluir micro relaciones de la música en la creación compositiva? ¿Qué circunstancias produjeron esa necesidad? ¿Se produjo por medio del desarrollo de las posibilidades técnicas, o por el contrario sirvió la situación de la composición en aquel entonces al desarrollo de medios de realización técnicos adecuados?

Generalmente se establecen herramientas al servicio de una determinada finalidad. Pero muchas veces su mera existencia genera otra herramienta que da inicio a un desarrollo inesperado. Productos técnicos concebidos por la mente humana, afectan a la inversa el desarrollo mental. La conciencia transformada inventa nuevos productos técnicos y se sirve de nuevos métodos. De esa manera, arte y ciencia se encuentran en continua interacción. El arte emplea los resultados de la técnica, en tanto ellos sean necesarios para la realización de la idea artística. Por otra parte, nuevos medios técnicos pueden estimular las categorías mentales originadas y con ello nuevas pretensiones e ideas artísticas. Es así como el origen de la música electroacústica dependió sin duda del desarrollo de la técnica de grabación, en particular del invento del magnetófono. Como suele pasar al comienzo de una fase de desarrollo, también aquí los primeros intentos no estaban dirigidos a un objetivo particular, sino que resultaban de estímulos curiosos. La ya mencionada transformación en el pensamiento musical que de manera consciente interviene a nivel microscópico el sonido, solo se desarrolla posteriormente. Los primeros experimentos provienen de los Estados Unidos, donde los aparatos de cinta magnética ya se habían expandido antes que en Europa. La simple manipulación de la cinta conducía de inmediato a la idea de tocar las grabaciones de manera inversa, eliminar algunas secciones y montarlas en otra parte, cortar sonidos por separado y superponer procesos musicales independientes, de tal manera que pueda sonar en conjunto lo que aparece en ese momento. Vladimir Ussachevsky y Otto Luening abordaron esta tarea de manera sistemática a finales de los años cuarenta en Columbia University de New York. Lo que ellos produjeron no era aún música electrónica, ya que los sonidos fueron obtenidos por instrumentos musicales. La sustancia musical era bastante tradicional. Ussachevsky y Leuning sometieron las grabaciones instrumentales a las manipulaciones de cinta ya mencionadas y el resultado -que llamaron “music for tape record”- fue un producto que en su apariencia sobrepasaba a la música instrumental.

En forma paralela a los experimentos en los Estados Unidos e independientemente de ellos, en Europa se llevaron a cabo experimentos de montajes sonoros considerados fructíferos en desarrollos posteriores. Entre ellos estaban los experimentos de Pierre Schaeffer en los estudios de radio en París que igualmente comenzaron a finales de los años cuarenta. No obstante, Schaeffer toma otro punto de partida al de Luening y Ussachevsky. Él no emplea música instrumental, sino fundamentalmente ruidos. Fondos sonoros de ruido e inclusive complejos montajes de ruido hacían parte desde hacía mucho tiempo de los requisitos en la radio, pero hasta entonces no habían sido utilizados en obras musicales autónomas.

Aparte de la radio, ya existían algunos ejemplos de composición con ruidos. En la época del futurismo, después de 1910, Luigi Russolo experimentó con instrumentos de ruido fabricados por él mismo y a comienzos de los años treinta Edgar Varèse compuso Ionisation para ensamble de percusión, sirena y piano. A la postre, esta obra resultó ser memorable, pues demuestra que una composición compleja y diferenciada se puede originar solamente en ruidos y no solo en los supuestos sonidos musicales.

Junto a Varèse, también John Cage compuso en los Estados Unidos música a partir de ruidos, como en First Construction (In Metal) de 1939 para instrumentos de percusión de metal, diferentes objetos de metal y piano. Schaeffer, sin embargo, traslada la composición por medio de ruidos al campo de la grabación musical. En sus primeros experimentos él no utiliza magnetófono, sino grabaciones de disco. Ese método se muestra pronto engorroso y en 1950 Schaeffer, junto a sus colaboradores Jacques Poullin y Pierre Henry, da el salto a la utilización del magnetófono.

Por medio del montaje de cintas intercaladas al interior y mezclas de ruidos grabados, así como por medio de procedimientos de transformación del sonido (como cambio de velocidad -lo que en la grabación de cinta significa al mismo tiempo transposición- filtración, resonancia y diferentes métodos para transformar amplitud y frecuencia) fue posible disponer, aunque de manera limitada, de una gama de ruidos para la composición.

Los compositores del grupo de París utilizaron, además de ruidos, otros materiales para las transformaciones de la cinta: sonidos vocales e instrumentales. Y finalmente también el lenguaje hablado. Ese género se denominó “Musique concrète”, para indicar que los sonidos y los ruidos del entorno real sirven como material acústico inicial. Así, la Musique Concrète no es todavía música electrónica. Constituye, sin embargo, el pre-estadium más importante, en cuanto por una parte explora la técnica de la cinta con fines de composición y, por otra parte, por medio de la relevancia del hasta entonces poco considerado campo de diferenciados y complejos ruidos, da propuestas a la imaginación de colores sonoros sutiles, que serán desarrollados más adelante en la música electrónica.

La técnica del condicionamiento previo inmediato para producir música electrónica surge de la unificación de dos campos hasta entonces separados: la generación de sonido por medios electrónicos y la técnica de cinta magnetofónica. Hacia los años veinte ya existía un gran número de diferente tipo de instrumentos electrónicos -los más conocidos son Theremin, Trautonium y Ondas Martenot. Si bien su sonido se produce por un cambio de electricidad, la música producida por esos instrumentos no es todavía lo que se suele llamar “música electrónica”. Para evitar confusiones en la terminología, se debe precisar que bajo el término de música electrónica solamente se entiende la música cuyo resultado sonoro se logra con electrónica, pero no por un intérprete que toca directamente, sino en un estudio de grabación, donde los componentes sonoros son sintetizados; por consiguiente, es música existente en una cinta.

El proceso de síntesis es muy laborioso, ya que los componentes sonoros más precisos deben producirse a menudo por separado. De inmediato surge la pregunta de por qué ello fue necesario. Aunque los instrumentos electrónicos disponen de un mayor ámbito de color sonoro que los instrumentos tradicionales acústicos y por lo que concierne a ellos presentan también un progreso significativo como la predeterminación del espectro sonoro al interior de ciertos límites, no permiten en realidad la intervención de la composición en la microestructura de la música. Ésta se puede configurar en determinados espectros, que estén acoplados a la nota fundamental, lo que al fin y al cabo no sobrepasa -aunque considerablemente amplía- la manera de fijar los registros de un órgano. Ya que los instrumentos electrónicos se tocan de igual manera que los instrumentos tradicionales, la música queda limitada a la ejecución de los intérpretes.

Justamente para romper con esos límites, fue necesaria la incorporación de la cinta magnética. Así fue posible juntar sonidos, e inclusive creaciones musicales complejas y estructuras de componentes precisos, en organizaciones de precisa diferenciación. Ahora se podía fijar a la cinta cada componente y cada sonido parcial por separado. Era viable, del medido plan de composición, determinar el desarrollo de dichos componentes con exactitud. Surgía la posibilidad de construir la composición paso a paso desde sus microcomponentes al cortar y pegar las partes de cinta correspondientes que los contenían, así como por superposición de copias.

Independientemente del estado de desarrollo de la electrónica y la grabación de sonido, la situación para la composición se había transformado profundamente. El comienzo de los años cincuenta fue una época de cambio hacia la madurez de un campo completamente nuevo de la música, sobre todo a través de la expansión de la composición serial. Con base en la organización serial de alturas, el principio de la organización previa tendió a expandirse a la totalidad de la forma. Organización serial significa que un continuo de ciertas proporciones sean distribuidas adecuadamente, de tal manera que se puedan transformar en elementos discretos de dimensiones diferentes. Después esos elementos son unidos en una serie y la forma es construida con base en combinaciones determinadas de esa serie.

Con los tonos la cuestión fue un poco complicada. Pues si bien ellos constituyen igualmente una serie, la tradicional y regulación indeterminada en la afinación de instrumentos permite la subdivisión de la octava solamente en doce intervalos iguales. Otras divisiones, por ejemplo de cinco o trece intervalos en partes iguales o incluso desiguales, no eran posibles. Para poder aplicar el principio de la serie dodecafónica sobre cualquier proporción de altura -lo que también en el campo de las alturas cobró vigencia, ya que la restricción a “doce” en el terreno del ritmo y la dinámica de todas maneras había sido abolida- se realizaba la producción de sonidos electrónicos, pues solo con su ayuda se estructura la continuidad de las alturas.

Todavía más apremiante era la intervención en el terreno del color sonoro. Hasta entonces no era posible trazar valores transitorios entre colores sonoros de dos instrumentos. ¿Qué podía mediar, por ejemplo, entre el sonido de un piano y el de un corno? Los colores sonoros no formaban una continuidad, ellos eran, a diferencia de los cuantitativos y constatables terrenos de duración, altura e intensidad, solamente cualitativamente determinables, por lo tanto se oponían a la organización serial. Ese fue el punto crucial, en el que la discrepancia entre las dimensiones individuales de composición podía ser eliminada por la producción de sonido electrónico, que permitió transformaciones continuas al hasta entonces espectro indivisible dentro el terreno del color sonoro. Entre dos espectros cualesquiera se podían lograr ahora transiciones tanto continuas como graduales por medio de espectros intermedios, o sea colores sonoros de valores intermedios.

Aparte de eso, fue posible cerrar la brecha aparente entre el ruido y los llamados sonidos musicales (espectro armónico). También se podía aumentar de forma gradual el componente de ruido de un sonido, o sea superposiciones cada vez mayores de alturas parciales, lo cual siempre originaba muchas vibraciones. Por el contrario, partiendo del ruido y por medio de filtros respectivos, se podían obtener ámbitos aislados de frecuencias y de esa manera reducir el ruido a bandas de frecuencia muy estrechas que casi corresponden a alturas sinusoidales por separado.

Otro factor contribuyó además al origen de la música electrónica hacia 1950: el estado en que se encontraba el estudio de la fonética. El análisis del lenguaje hablado por medio de filtros electrónicos y habla sintética artificial se encontraba en el punto central de los experimentos de investigación del lenguaje. Sus elaborados métodos pudieron ser utilizados también en música. De esta manera, no es casualidad que una parte importante en la génesis de la música electrónica se deba a la fonética. Werner Meyer Eppler, profesor de la Universidad de Bonn, ya había desarrollado experimentos en ese campo hacia 1949. Él impulsó, junto con los compositores Herbert Eimert y Robert Beyer, la fundación de un estudio de música electrónica. Ese plan pudo llevarse a cabo con rapidez, gracias a Hanns Hartmann, entonces director artístico de la Radio de Colonia. En 1951 Hartmann puso a disposición los aparatos correspondientes en los salones de la Radio, de tal manera que era posible dar inicio a la composición de música electrónica dentro de los estudios. La dirección de ese primer estudio fue asumida por Herbert Eimert y sus asistentes permanentes fueron Karlheinz Stockhausen hacia 1953 y Gottfried Michael Koenig hacia 1955.

El estudio de la Radio de Colonia fue el único en su especie hasta 1955, cuando la Radio italiana de Milán fundó el Studio di fonología musicale, en donde trabajaron principalmente Luciano Berio y Bruno Maderna. Desde entonces, muchas Radiodifusoras organizaron sus propios estudios de electrónica, tal como la industria productora de aparatos electrónicos impulsó en gran parte dichos estudios. Entre ellos están Philips en Eindhoven, la Sociedad APELAC en Bruselas (cuyo estudio dirigió Henri Pousseur, quien ya había realizado varias obras electrónicas en Colonia y Milán) y la Simens en Munich. El estudio de Munich ya contaba a su disposición con equipos automáticos, que facilitaban los procesos de realización de composiciones electrónicas. Similares y aún con equipos de mayor complejidad, son los estudios de la Universidades de Princeton y Columbia en New York, dirigidos por Milton Babbit y Vladimir Ussachevsky.

Con la creciente expansión de la música electrónica es inevitable encontrar trivialidades. Por medio de la música electrónica son utilizados fragmentos para la producción de fondos sonoros en radio-teatro, por una parte degradados, y por otra parte no funcionales para obras tradicionales, aunque solo parezcan decoración externa. Dichos fragmentos niegan el proceso histórico, que por necesidad condujo a la música electrónica. Sin embargo, esas trivialidades no son alarmantes. Nuevos pensamientos tienen y han tenido siempre la suerte de ser acaparados por epígonos inmediatamente después de su origen y perder su significado original. No obstante, siempre aparecen nuevos pensamientos, que no decaen a pesar de la acumulación de desechos.

A comienzos de los años cincuenta, en los estudios de la radio de Colonia se intentaron utilizar sonidos complejos fijos en la cinta, que habían sido producidos por instrumentos electrónicos como punto de partida para la composición electroacústica. Un paso decisivo para la producción consecuente y funcional de música electrónica fue innovación de Stockhausen en 1953. Él renunció por completo a los instrumentos electrónicos convencionales y utilizó solamente generadores; sobre todo, aquellos que producen una onda sinus pura. De esa manera, se garantizaba el control absoluto descrito anteriormente. Pronto se demostró, sin embargo, que ese concepto purista no se puede perfeccionar. Por una parte, se encuentra pronto el límite que estaba condicionado por medio de la imperfección de los medios técnicos -la cantidad de parciales armónicos que podrían ser superpuestos debe ser reducida para obtener un resultado limpio- por eso, espectros más complejos y combinación de alturas no fueron sintetizados. Por otra parte, queda comprobado el control absoluto como una utopía. Ya que para casi toda síntesis no se establecen procesos de sonido estrictamente determinados, es decir en especial en la resonancia de los espectros resultantes y mezclas de sonido; un proceso que debido a fundamentos técnicos y de sonoridad era inevitable. De esta forma, no era posible aferrarse al concepto de organización total y fue pertinente incluir procesos aleatorios dentro de la composición -lo que ulteriormente fue muy fructífero.

Tras la renuncia del control total, también se abre la posibilidad de expandir la música electrónica sobre cada campo sonoro, que debido al control delimitado había estado hasta entonces excluido del nuevo desarrollo, a saber: sonoridades vocales e instrumentales. En Gesang der Jünglinge (1955-1956), Karlheinz Stockhausen combinó sonidos electrónicos con una voz cantada, y como consecuencia surgió poco después una gran serie de experimentos intermedios entre sonidos vocales e instrumentales por una parte y sonidos electrónicos por otra; por ejemplo, Rimes pour différentes sources para Orchesta y sonidos electrónicos de Henri Pousseur. De 1954 proviene el mayor ejemplo de combinación entre Musique concrète y orquesta: Déserts de Edgar Varèse. La separación entre Musique concrète y música electrónica continuó aboliéndose. Berio compuso su obra Tema (Omaggio a Joyce), en la cual el material musical no es producido por la electrónica, sino que está compuesto exclusivamente de lenguaje hablado; no obstante, ese material es elaborado por medios electrónicos.

Paralelamente al desarrollo de la música electrónica e influenciada por esa evolución, la concepción en la composición serial se transformó y con el distanciamiento de la minuciosa organización total (campo de realización de origen completamente serial), la música electrónica se transformó de nuevo profundamente en su función. Debido a que se trata de tendencias completamente nuevas, no resulta fácil emitir pronósticos. Lo cierto es que la práctica de música electrónica nos abrió el pensamiento para enriquecer nuevas categorías musicales y nuevos mundos de fantasía sonora y formal.

1. El presente artículo fue escrito por Ligeti en 1961 para la revista austriaca Forvm. Aunque algunos de los aspectos técnicos mencionados por el autor han sufrido una transformación sustancial causada por el avance vertiginoso de la tecnología, el texto tiene un gran valor desde el punto de vista histórico y estético. En este sentido, sus ideas continúan siendo tan vigentes como cuando se escribieron.

 


ImprimirInicio