Uncategorized

¿PODEMOS ARREGLARLO EN LA MEZCLA?

Las consecuencias de "arreglarlo en la mezcla" con técnicas comunes de ecualización se evalúan científicamente en este articulo.

Este artículo describe algunas técnicas comunes de ecualización que se emplean regularmente y analiza su impacto en el sonido reproducido general. Los estudios de forma de onda de muestra y las recomendaciones publicadas se utilizan para resaltar las formas de evitar el uso incorrecto y excesivo de la ecualización analógica y digital. Este artículo se extiende aún más para dar explicaciones científicas sobre qué efectos se pueden escuchar y ver en el nivel de la forma de onda cuando la ecualización se implementa incorrectamente.

Las consecuencias de “arreglarlo en la mezcla” con técnicas comunes de ecualización se evalúan científicamente en este articulo.

Introducción

Un mito común que muchos productores e ingenieros inexpertos creen es que el audio mal grabado se puede “arreglar en la mezcla”. Aquellos que han intentado “mezclar-arreglar” generalmente estarán de acuerdo en que no hay sustituto para el audio de calidad grabado desde la fuente. Esto significa usar el micrófono correcto para el trabajo, ajustando meticulosamente y revisando las técnicas de colocación para obtener el sonido deseado y, en muchos casos, el uso de un equipo analógico agradable para agregar carácter al sonido antes de enviar la señal para la grabación.

Actualmente, la mayoría de los productores utilizan técnicas de grabación digital, por lo que, a menos que los efectos de mezcla avanzada sean un elemento integral de la pieza artística, generalmente tiene sentido acercarse lo más posible al sonido final deseado antes de que se realice la digitalización. Muchos productores, sin embargo, todavía no son conscientes del impacto científico del procesamiento excesivo de audio en el nivel de la forma de onda; el conocimiento de tales consecuencias podría persuadir a algunos a volver a evaluar sus métodos.

Este artículo describe algunas técnicas de ecualización comunes (EQ) que se emplean regularmente y analiza su impacto en el sonido reproducido general. Por ejemplo, la conformación simple de EQ se puede usar para agregar efectivamente ‘punch’ a un sonido de bajo o agregar ‘aire’ a una pista vocal. Sin embargo, si este tipo de aplicación de ecualización se utiliza en exceso o se implementa incorrectamente, puede haber un impacto perjudicial en la calidad del sonido final.

Las recomendaciones publicadas de productores y expertos de la industria se utilizan para resaltar las formas de evitar el uso incorrecto y excesivo de la ecualización analógica y digital. Los productores experimentados y exitosos generalmente están acostumbrados a los efectos sónicos positivos y adversos del EQ utilizado en la grabación y la mezcla. Este artículo, sin embargo, se extiende aún más para dar explicaciones científicas sobre qué efectos se pueden escuchar y ver en el nivel de la forma de onda cuando la ecualización se implementa incorrectamente.

Todo necesita un pequeño ecualizador, ¿no?

Ecualizar o no ecualizar?

La ecualización se usa para mejorar o reducir los efectos de frecuencias específicas presentes en una sección de audio. Esto es obviamente muy útil para hacer que los sonidos se destaquen entre sí en una mezcla completa y para reducir el efecto del ruido no deseado o las frecuencias de resonancia desarrolladas por el entorno de grabación. Sin embargo, el ecualizador y el filtrado, por su propia naturaleza, agregan ruido, retardo y distorsión de fase a un sonido. El filtrado digital también introduce cuantificación y ruido de truncamiento debido al gran procesamiento multiplicativo involucrado.

Muchos productores estarían de acuerdo en que evitar el uso de EQ al obtener el sonido grabado correcto en primer lugar es una solución mucho mejor:

La ecualización debe emplearse solo después de que se hayan realizado todos los esfuerzos para obtener el mejor sonido de la fuente.

El productor Jim Abbiss explica que el EQ innecesario se puede evitar usando más de un micrófono para grabar una fuente de audio. El balance de los micrófonos elegidos se puede ajustar para lograr los atributos sónicos y espectrales deseados en la mezcla. ” Para las guitarras generalmente empiezo con un SM57 y un Royer 121 juntos, colocados ligeramente descentrados. Es la combinación perfecta: si quiero aclarar el sonido, voy a subir el 57, si quiero calor, voy a subir el Royer. Esto en lugar de EQ cosas”.

Sobreuso de EQ

En muchos casos, el uso excesivo de EQ en la mezcla se debe a limitaciones de tiempo y descuidos en la etapa de grabación. Los ingenieros a veces pueden estar tan enfocados en capturar el audio de manera precisa y eficiente, que pasan por alto el hecho de que durante el proceso de grabación el sonido se forma o se define más de lo que nunca será en la mezcla.

La principal contribución a la composición sónica de cualquier sonido grabado es el entorno en el que se graba el audio. Los principales componentes son:

  • La calidad del sonido que se proyecta desde la fuente de música
  • La calidad y la idoneidad del micrófono utilizado para capturar el audio
  • La ubicación de la grabación y las características acústicas del entorno ambiental

Entonces, por ejemplo, si un cantante con talento se graba con un micrófono de calidad adecuada en un ambiente acústicamente amable, no debería haber una necesidad esencial de usar EQ en la mezcla. A veces, los proyectos están limitados por los micrófonos disponibles y las ubicaciones de grabación, en cuyo caso la única solución podría ser un uso considerable de EQ en la mezcla. Pero los mejores ingenieros y productores tratarán de resolver estos problemas en la práctica, en lugar de confiar en EQ para cubrir las deficiencias. En muchos casos, esto puede requerir probar muchos micrófonos diferentes para encontrar el resultado más complementario, o reposicionamiento dentro de la sala para evitar frecuencias problemáticas y para lograr la característica de reverberación deseada.

Desafortunadamente, la disponibilidad de sistemas de EQ modernos y la apatía de algunos ingenieros de grabación llevan a utilizar EQ como solución, lo que puede tener consecuencias adversas. Este punto es discutido persistentemente por el productor Joe Boyd. “En la actualidad, la mayoría de los ingenieros se enfrentan con un desagradable alcance de sonido para las perillas de la consola y ajustan las frecuencias altas, medias o bajas. Cuando ese proceso se inflige en más y más pistas de una grabación multicanal, el sonido pasa a través de docenas de transistores, dando como resultado un sonido más estrecho y confinado. Con las limitaciones adicionales del sonido digital, se obtiene una grabación brillante, chillona, fina y bidimensional. Obviamente esto es para mis oídos, de todos modos”.

El uso excesivo de EQ digital puede tener efectos similares con retardo adicional y distorsión de fase. Esto finalmente se presta a un sonido menos cohesivo y la posibilidad de introducir el filtrado de peine.

Espaciado espectral de instrumentos mediante el uso de EQ

Uno de los muchos usos del ecualizador analógico o digital es separar los instrumentos dentro de una sección mixta de audio. Por ejemplo, si hay dos guitarristas tocando secciones similares, entonces las guitarras se pueden separar en la mezcla agregando un refuerzo tonal a cada instrumento a diferentes frecuencias. Esto puede ayudar a equilibrar el contenido espectral general de la mezcla al asegurar que las dos guitarras no ocupen las mismas bandas de frecuencia. Gibson, sin embargo, afirma que esto se debe hacer con mucho cuidado con la ecualización: ” EQ funcionará, pero rápidamente hará que tu sonido no sea natural. Es realmente fácil dejarse seducir por la claridad que has logrado y olvidarse de notar que tu instrumento ahora suena como si saliera de un megáfono”.

Se podría argumentar que un método comparable es garantizar que los dos guitarristas utilicen diferentes configuraciones de guitarra para lograr el mismo efecto de separación espectral. Esto requiere un poco más de análisis del sonido antes de la grabación, pero el beneficio puede ser bien balanceado, audio de calidad que requiere menos procesamiento en la mezcla. Las posibilidades para el maquillaje tonal con una configuración de guitarra son infinitas, con múltiples combinaciones de cuerpo, captación y amplificador. Es una oportunidad desperdiciada no considerar este enfoque y optimizar los dos instrumentos en el contexto de la canción durante la grabación.

Problemas Comunes de EQ

Delay y Distorsión de Fase

Los sistemas de ecualización y filtros analógicos y digitales estándar agregan un pequeño retraso al audio procesado. Esto se debe a que la mayoría de los filtros analógicos y digitales se basan en la información recursiva, por lo que la salida deseada del filtro no se produce de inmediato. La Figura 1 muestra una señal de audio sin procesar y filtrada. Se puede ver que los puntos de cruce por cero en el audio procesado (aproximadamente a los 3, 6 y 9 ms) van por detrás de los datos sin procesar. Un problema adicional es que la salida de un filtro generalmente no se retrasa en una cantidad constante en todo el espectro de frecuencia, lo que “puede llevar a una pérdida de profundidad y claridad”.

Esta es una razón por la cual ciertos filtros y sistemas de ecualización suenan subjetivamente mejor que otros. Las imprecisiones de algunos filtros son más duras que otras, y algunas realmente dan una mejora percibida. En algunos casos, la demora inherente y la distorsión de fase de un filtro pueden agregar una mejora subjetiva al sonido; este efecto está particularmente asociado con los filtros analógicos clásicos.

Se han desarrollado filtros de software avanzados que pueden lograr el filtrado de fase lineal. Según lo discutido por Walker (2006), los transitorios y armónicos emergen de los filtros de fase lineal con “mucha mayor transparencia y detalle”. Lamentablemente, hay un precio que pagar; los filtros EQ de fase lineal son propensos a sonar a su propia frecuencia de resonancia y pueden generarse artefactos pre-eco no deseados. Estos tipos de filtros EQ también requieren un cálculo matemático detallado que es excepcionalmente pesado en la carga de procesamiento de la computadora y también puede dar lugar a errores de cuantificación y truncamiento, como fue discutido por Miller (2005).

Una técnica para reducir los efectos de distorsión de fase de la ecualización no lineal es “difuminado” como lo describe Owsinski (2000, p17). Un ejemplo de cambio de paso es descrito por Owsinski como …

… en lugar de agregar + 3dB a 100Hz, agrega + 1.5dB a 100Hz y 0.5dB a 80Hz y 120Hz. Esto reduce el cambio de fase provocado al usar ecualizadores analógicos y da como resultado un sonido más suave.

Una pequeña cantidad de error de fase o distorsión de fase generalmente es aceptable en una pista de audio individual. Sin embargo, cuando se ecualizan muchas fuentes de audio, se procesan (quizás con muchos efectos de audio diferentes) y luego se mezclan, existe la posibilidad de causar un filtrado de peine (Katz, 2002, p45). El filtrado de peine ocurre cuando las frecuencias fuera de fase se mezclan juntas, el resultado es una cancelación drástica de cualquier componente de frecuencia fuera de fase. Esto puede dejar el sonido de audio mezclado hueco e incompleto. Es imposible anticipar el filtrado de peine sin el uso de herramientas avanzadas de análisis de señal. Un oído entrenado puede identificar el filtrado de peine, pero un oído no entrenado escuchará un audio deficiente. Por esta razón, es aconsejable evitar el procesamiento de efectos innecesarios siempre que sea posible.

EQ Impacto en Headroom y sobrecarga

Como con todos los procesos de amplificación activos, la ecualización aplicada incorrectamente puede inducir sobrecarga y recorte a ciertas frecuencias. De hecho, los productores de música a menudo enfatizan que la ecualización debería usarse generalmente para cortar o reducir el efecto de las frecuencias de problemas en lugar de usar EQ para aumentar las frecuencias débiles (White, 1997). La clave de cualquier proceso de amplificación es garantizar que el margen de maniobra esté lo suficientemente disponible para evitar el recorte. Katz (2002, p67) explica que los circuitos de amplificación suenan “bastante desagradables” cuando se usan cerca de su nivel de sobrecarga, y quizás el margen adicional provisto por los circuitos de válvulas de alto voltaje es una razón clave para que muchos productores de música prefieran los amplificadores de válvulas por encima de los sistemas de transistores.

Las bajas frecuencias de graves pueden causar problemas considerables, ya que el oído humano se vuelve mucho menos sensible a medida que la frecuencia disminuye. Por lo tanto, los sistemas EQ con refuerzo de graves se deben usar con precaución y con un sistema de monitoreo de alta calidad para evitar la creación de “problemas graves” (Katz, 2002, p106). Incluso una señal seca puede contener sobrecargas de baja frecuencia que pasan desapercibidas en un sistema de monitoreo de baja calidad. Dichas señales podrían ser inducidas por subarmónicos de un instrumento musical o, de hecho, ruido de tráfico distante o vibraciones de construcción que son captadas por micrófonos sensibles. Por lo tanto, puede ser necesario utilizar un filtro de corte bajo para eliminar los altos niveles de energía que son evidentes por debajo del rango musical (es decir, por debajo de 40 Hz) para mejorar el sonido general.

Bob Katz (2002, p63) explica además que los sistemas de ecualización y filtro aún pueden causar sobrecargas incluso cuando el filtro está configurado para cortar o atenuar. Los filtros digitales y analógicos tienen sus propias características de resonancia que pueden inducir el timbre de una señal de audio. El resultado aquí es que cortar una frecuencia con un ecualizador particular puede causar un timbre en una frecuencia diferente, por lo tanto, inducir un impulso que puede causar sobrecarga, como explica Katz: ” Contrariamente a la creencia popular, se puede generar un exceso (recorte) incluso si un filtro está configurado para atenuación en lugar de refuerzo, porque los filtros pueden sonar; también pueden cambiar el nivel pico a medida que el balance de frecuencia se tuerce. Los procesadores digitales también pueden sobrecargar de manera indetectable con un medidor digital”.

La razón de que los sistemas digitales tengan problemas de sobrecarga adicionales es que los procesos matemáticos involucrados pueden crear truncamiento interno y cuantificación (redondeo) de los datos antes de que salgan del dispositivo. En cada etapa de procesamiento digital interno, dithering se debe utilizar para reducir el ruido de truncamiento. Sin embargo, muchos dispositivos de bajo estándar no proporcionan una gran oscilación matemática y el resultado puede ser una señal de salida que parece estar dentro del alcance, pero que ha experimentado una saturación y una sobrecarga interna.

Efectos de bypass

En el hardware externo, es bastante raro encontrar un sistema de “derivación verdadera”. Este también puede ser el caso con los procesadores de software digital. Esto significa que si el ecualizador está conectado, incluso si cada ajuste de ganancia está en cero, o si el ecualizador está “anulado”, normalmente habrá alguna forma de alteración sutil a la señal de salida. En el caso de los sistemas analógicos, esto puede deberse a que el audio todavía pasa a través de los transistores y componentes en los circuitos, incluso si los componentes no están activados para procesar la señal. Sin embargo, simplemente pasando audio a través de los componentes del circuito tendrá un efecto pequeño pero notable en el audio. Por esta razón, si se va a eludir EQ o cualquier otro proceso de efectos, se recomienda que los circuitos se eliminen por completo de la cadena de señal (Owsinski, 2000, p25).

El precioso rango medio

Debilitamiento Armónico

Está bien informado que las frecuencias musicales de rango medio (150 – 1000 Hz) son notoriamente delicadas cuando se utiliza la ecualización (Huber & Runstein, 2005, p452). De hecho, esto se debe a que las frecuencias en cuestión incluyen los tonos fundamentales en el rango musical de muchos instrumentos populares. La manipulación de frecuencias dentro del rango medio puede tener un efecto importante en la musicalidad de los instrumentos individuales. El uso de EQ para mejorar las cualidades tímbricas, como el calor percibido, la presencia y la profundidad, es ciertamente un ejercicio valioso. Sin embargo, si este proceso afecta el equilibrio del tono dentro de una frase musical, el resultado puede ser perjudicial para la calidad del audio procesado.

Un ejemplo simple es observar una sola nota musical y el efecto de la mejora de EQ dentro del rango musical. La Figura 2 muestra el espectro de frecuencia de una nota E4 tocada en la guitarra, y la de la misma señal impulsada paramétricamente alrededor del tono fundamental de 329.6 Hz. La adición de refuerzo de ecualización a tales frecuencias podría ser empleada para hacer que la guitarra aparezca más prominente dentro de una mezcla completa. Sin embargo, se puede ver en la Figura 2 que el efecto principal es reducir el equilibrio armónico de la nota que se está reproduciendo. La densidad relativa de los armónicos de frecuencia más alta de la nota de la guitarra que se muestra se debilita en última instancia al aumentar la fundamental. Esto da como resultado un sonido menos musical que representa más de cerca un solo tono sintetizado que una rica nota armónica de la guitarra con la que se creó originalmente.

Efectos Q-altos

El uso del ecualizador paramétrico dentro del rango medio también puede tener un efecto adverso en la musicalidad del audio procesado si el ajuste Q es alto. En general, una banda de EQ amplia en el rango medio da un resultado más natural y musicalmente agradable, mientras que el uso de un pico de EQ estrecho puede alterar fácilmente el equilibrio tonal (www.mackie.com, 2007). Si la configuración Q de cualquier ecualización paramétrica de rango medio es demasiado alta, entonces es posible degradar adversamente la composición musical de una colección de notas.

Por ejemplo, la Figura 3 muestra los espectros de frecuencia para audio de guitarra sin procesar y ecualizado. En este ejemplo de un acorde mayor E tocado en la guitarra, el audio procesado ha tenido atenuación paramétrica estrecha (-18db, Q = 10) en la frecuencia del tercio musical (G # 3, 208 Hz). Se puede ver que el audio procesado tiene una potencia de componente G # 3 reducida que hace que el audio procesado suene más como un acorde E5 (tercer tercio mayor eliminado) que el acorde principal E mayor.

El acorde de guitarra E5 a menudo se conoce como un acorde ‘power’ debido a su uso regular en la música de rock pesado. Por lo tanto, un productor debe tener mucho cuidado con el uso de EQ en las frecuencias de rango medio porque tiene la capacidad de alterar el equilibrio del tono dentro de una frase musical en la medida en que la identificación del audio procesado, para géneros musicales específicos, pueda malinterpretarse.

Tingen (2007) informa que el ingeniero Tom Elmhirst usa un número de atenuadores Q muy altos para reducir algunas frecuencias especialmente duras, evidentes en una pista vocal. En particular, se usa un atenuador notch de -18dB a 465 Hz, con una relación Q de 100. Este ecualizador de notch se usa para moldear y mejorar la tonalidad general de la grabación vocal. Sin embargo, el tono fundamental de la nota musical A # 4 está a 466 Hz y la potencia relativa de esta nota se verá afectada por el filtro EQ. El ancho del filtro es lo suficientemente estrecho como para no tener ningún efecto importante en ninguna otra frecuencia musical dentro del rango medio. Como consecuencia, el filtro de muesca reducirá efectivamente la dureza de la voz del vocalista. Pero, si la melodía vocal incluye el uso de la nota A # 4, entonces sin duda habrá una atenuación significativa para el período de esa nota en particular. Tingen explica que este tratamiento correctivo era necesario debido a problemas sónicos con la pista vocal grabada. En este caso, la “solución” requerida destaca los compromisos que deben realizarse cuando se agrega el tratamiento correctivo en una etapa tardía de la producción. Muchos sistemas de EQ de software digital permiten que se utilicen configuraciones tan extremas. Sin embargo, en muchos casos, el uso de estos ajustes extremos indica una falla en el proceso de producción en una etapa anterior.

De manera similar, es posible con EQ paramétrico con Q alto acentuar los componentes de frecuencia que no están específicamente en tonalidad con la música en cuestión. Considera la posibilidad de una señal de audio compleja que contiene un instrumento que reproduce una nota continua, digamos A4, que representa una frecuencia fundamental de 440 Hz. En realidad, la señal de audio contendría un espectro completo de componentes de frecuencia que están disponibles para ser manipulados por EQ. Si un ingeniero de mezcla descuida por completo la frecuencia de la nota que se está reproduciendo y agrega un ecualizador paramétrico muy estrecho para mejorar la señal a 430 Hz, podría producirse un efecto de inflexión de tono. Si la señal se mejoró lo suficiente a 430 Hz, entonces podría ser potencialmente más potente o más fuerte que la frecuencia de la nota que se está reproduciendo (en este ejemplo, 440 Hz). El resultado podría ser que la nota A4 parece estar desafinada o fuera de tono con la señal de audio completa.

Si el audio mezclado se procesa con una alta ecualización de Q en las frecuencias de rango medio, también es posible acentuar las frecuencias que no están en tonalidad con la pieza musical en cuestión. Esto puede tener efectos perjudiciales similares a los resaltados y también puede provocar resonancias que son musicalmente desagradables.

Ecualización de formas de onda transitorias

Discutiendo la ‘envolvente’ de datos transitorios

La ecualización se puede aplicar a formas de onda transitorias para mejorar características sonoras particulares. Una señal de datos transitoria es aquella que ocurre debido a un impulso o impacto repentino y existe solo por un período de tiempo finito; es decir, una señal transitoria decae con el tiempo (Thomson, 1993, p92). Por lo tanto, una forma de onda transitoria representa datos capturados de naturaleza transitoria. La mayoría de los sonidos musicales naturales decaen a nada con el tiempo, algunos más rápidos que otros. Cuando toda la señal musical deba discutirse como un todo, esto se puede denominar análisis transitorio o de “envolvente”.

El análisis de envolvente se discute con la ayuda del análisis detallado de formas de onda de muchos instrumentos por Howard y Angus (2006, p216-226). Se puede ver que el ataque o inicio de la música que se está reproduciendo es un atributo crítico y definitorio del timbre del sonido reproducido. La aparición de cualquier sonido se define como el perfil de la forma de onda durante el tiempo en que aparece el sonido y el momento en que alcanza su amplitud más alta (consulta la Figura 5). En las pruebas de audición, si se elimina el inicio de un sonido musical, a veces puede ser muy difícil identificar el instrumento que se está reproduciendo (Masri y Bateman, 1996).

Muchos instrumentos y músicos tienen la capacidad de producir un período de envolvente de estado estable durante el tiempo que deseen. Por ejemplo, un trompetista puede decidir si reproduce un breve estallido de sonido por menos de un segundo, o una nota sostenida durante un período de tiempo mucho más largo. Una vez que el músico completa su acción, el transitorio entra en su fase de disminución y la excitación del sonido vuelve al nivel del ruido ambiental.

Por el contrario, muchos instrumentos de percusión tienen poco o ningún estado estacionario o período de sostenimiento. Una vez que el sonido ha alcanzado su nivel más alto, el sonido entra inmediatamente en su fase de compensación y la forma de onda se desvanece. En el caso de los instrumentos de percusión, un ataque rápido puede producir un “chasquido” deseable en el sonido.

Experimentando con Frecuencias ‘Ausentes’

Se ha indicado anteriormente que EQ se utiliza para manipular los efectos de las frecuencias presentes en una sección de audio. Sin embargo, hemos descubierto históricamente que EQ también se puede utilizar para mejorar las frecuencias que nunca fueron particularmente evidentes en primer lugar. El término frecuencias “ausentes” se usará aquí para describir frecuencias fuera de las principales frecuencias fundamentales y armónicas del instrumento en cuestión. En ciertos casos, mejorar sutilmente las frecuencias ausentes o débiles puede agregar una mejora algo indescriptible al audio producido. Aquí hay dos ejemplos que aumentan el rango medio-alto de un sonido de bombo para mejorar el ataque y agregar “ajustar” o “hacer clic” al sonido o agregar “aire” de alta frecuencia a una pista vocal. Sin embargo, la base científica para este tipo de mejoras debe investigarse, a fin de comprender completamente las implicaciones de tales técnicas de EQ.

En la Figura 4 se muestra una forma de onda de bombo transitoria y su espectro de frecuencia correspondiente. El espectro de frecuencia se ha trazado en dos escalas diferentes para ayudar a identificar las siguientes observaciones:

  • La frecuencia fundamental del bombo es de aproximadamente 50 Hz
  • La excitación de frecuencia más densa ocurre entre aproximadamente 40 Hz y 220 Hz
  • Los niveles distintos pero bajos de excitación de frecuencia son aparentes en la banda 220 Hz – 1500 Hz
  • Hay muy poco contenido de frecuencia en la señal del bombo por encima de 1500 Hz

Lo siguiente también se puede observar desde el diagrama del dominio del tiempo:

  • El período de ataque dura aproximadamente 10 ms
  • El período de decaimiento dura aproximadamente 200 ms

Es bastante difícil especificar exactamente cuál es el período de decaimiento sin definir primero el ‘final’ de la forma de onda. Sin embargo, la definición exacta del período de disminución no es necesaria para este tipo de análisis, por lo que un valor de 200 ms es una aproximación adecuada.

Un inicio transitorio “mejorado” o “más ágil” generalmente se refiere a un aumento de ataque más rápido o un tiempo de ataque más corto. Muchos textos populares sugieren que EQ impulse el bombo en la región de 3-6 kHz como un método para mejorar el ataque de la señal o agregar un “chasquido” al sonido, por ejemplo, White (2003, p70) y Robinson (2006). Sin embargo, los perfiles de frecuencia que se muestran en la Figura 4 y los discutidos por Rossing (2000, p34) sugieren que hay poco que ganar en el impulso en esta región, ya que hay muy poco contenido para mejorar. El diseño mecánico del bombo no se presta a la excitación de componentes de vibración de muy alta frecuencia. Entonces, incluso si hay energía grabada alrededor de la región de 3-6 kHz, es posible que se derrame de los platillos o zumbe desde el resorte del pedal del bombo.

La Figura 5 muestra el efecto real de impulsar a 3 kHz en el ataque de la forma de onda del bombo.

Se puede ver que el impulso de 3 kHz saca un componente de alta frecuencia sinusoidal en la señal. Sin embargo, el tiempo necesario para que la señal alcance su valor máximo (el tiempo de ataque) en realidad no se ha visto afectado en absoluto. Además, se puede demostrar que el componente de 3 kHz se extiende y es evidente para la señal completa en el audio procesado, mientras que la intención real de esta técnica de refuerzo de alta frecuencia fue alterar solamente el ataque o período inicial de la forma de onda del bombo.

Parece que la adición de un componente de alta frecuencia a la señal proporciona una mejora psicoacústica al ataque de una forma de onda. Es decir que agregar este componente nos hace pensar que el ataque es más rápido o se ha agudizado. Se escucha un efecto psicoacústico similar al agregar ‘aire’ de alta frecuencia a una pista vocal.

La experiencia histórica y las pruebas auditivas simples pueden mostrar que esta técnica sí mejora nuestra percepción del ataque de la señal, pero se debe tener cuidado para garantizar que el resto de la forma de onda no se degrade a expensas de esta mejora. El sonido percibido del bombo pudo haber mejorado para el período inicial de inicio de 10-20 ms, pero ahora hay un componente de frecuencia de 3 kHz no deseado evidente en los otros 200 ms del decaimiento del bombo. De nuevo, simples pruebas de audición mostrarán que es posible mejorar el ataque de la señal, pero en muchos casos esta técnica puede manifestarse rápidamente como un zumbido intolerable de alta frecuencia en la señal, sin mencionar la distorsión de fase y los problemas de espacio libre también introducidos. mediante el uso de EQ. Además, el componente de 3 kHz será significativo y evidente dentro del piso de ruido incluso cuando el instrumento no se esté reproduciendo. Una activación cuidadosa puede reducir este efecto particular, pero en última instancia esto implica agregar otro procesador de audio a la cadena de señal, reduciendo aún más la calidad de audio final.

Se sugiere que para mejorar realmente el ataque de una señal transitoria mediante un método más efectivo, el objetivo debe ser aumentar la tasa de cambio de la forma de onda en el período inicial; hacer que el ataque y el inicio de la forma de onda ocurran más rápidamente. Al igual que muchas mejoras realizadas en el audio grabado, esto se puede hacer mejor y con el mínimo efecto en el audio mezclado mejorando físicamente el sonido del instrumento incluso antes de que se grabe. Con un bombo es posible aumentar el tiempo de ataque y mejorar el “chasquido” de la señal al alterar las propiedades vibrátiles de los materiales impactantes. Un pedal de bombo suave que impacte en un cabezal de tambor de holgura sin duda dará un ataque relativamente lento. Si el golpeador es un material duro y el punto de impacto específico también es difícil, el impulso y el cambio de impulso ocurrirán más rápidamente, por lo que el ataque se verá reforzado. Por lo tanto, es bastante posible mejorar el ataque de un instrumento transitorio considerando cuidadosamente la configuración previa a la grabación, como lo discutió White (2003, p71).

Procesamiento del dominio del tiempo

Si el procesamiento de audio se va a utilizar para mejorar el ataque del transitorio, entonces se sugiere que la manipulación de la señal se puede realizar sin la necesidad de depender de la frecuencia o los efectos basados en el espectro. Después de todo, la propiedad de señal a potenciar es la amplitud de forma de onda dinámica, es decir, la velocidad de cambio (el ataque) de la señal. Los algoritmos de procesamiento dinámico no tienen la sobrecarga de cómputo pesado de los métodos basados en frecuencia. Además, se evitan los problemas de distorsión de fase y ruido inducido que se encuentran con las técnicas de filtrado.

Es posible identificar técnicas de procesamiento dinámicas y basadas en el tiempo para mejorar el período de ataque de una forma de onda transitoria. Dos opciones para mejorar el ataque de una señal transitoria son cambio de tono y compresión. Sin embargo, los dispositivos de desplazamiento y compresión de tono estándar son insuficientes para este fin porque generalmente procesan toda la señal de audio. Mientras que potenciar el ataque de una señal transitoria solo requiere manipular los primeros 10-20ms. Una técnica descrita por Oswinski (1999, p55) discute un método para aislar el período de ataque de la señal para el procesamiento por separado. El método utiliza una gate de liberación corta en un canal duplicado para aislar el perfil de ataque de la forma de onda, que luego puede procesarse por separado y mezclarse nuevamente con la señal original.

Para mayor interés, se aplican ejemplos de técnicas de compresión y cambio de tono a la forma de onda del bombo analizada anteriormente, para resaltar la aplicabilidad de los métodos de procesamiento basados en el tiempo para aumentar la velocidad de cambio de un período de ataque transitorio. La Figura 6 muestra que la velocidad de cambio de la forma de onda puede aumentarse mediante el uso de compresión pesada. La comparación entre las formas de onda crudas y comprimidas a aproximadamente 7 ms muestra cómo el gradiente de la forma de onda se hace más pronunciado debido a la compresión. Además, este tipo de compresión actúa como distorsión controlada, que genera armónicos relacionados musicalmente con la forma de onda original. Por supuesto, la compresión no es necesaria para el período de decaimiento de la señal, por lo que un sistema de compresor estándar no sería suficiente para lograr este procesamiento.

La señal de cambio de tono (usando una técnica simple de remuestreo basado en el tiempo) también aumenta la velocidad de cambio de la señal durante el período de ataque. Además, la amplitud máxima se alcanza dentro de un marco de tiempo mucho más corto. Sin embargo, este enfoque altera la composición de frecuencia completa de la forma de onda, por lo que, al igual que con la técnica de compresión, no se desea continuar el cambio de tono durante toda la forma de onda. Como resultado, aunque es posible que se requiera hardware adicional y bloqueo de señal, se sugiere que los métodos descritos aquí se consideren en lugar de simplemente alcanzar el EQ para resolver todos los problemas de la mezcla posterior a la producción.

Discusiones y conclusiones

La adición de EQ al audio grabado tiene un efecto comprometido en el sonido reproducido. Agregar un poco de EQ a expensas de una pequeña distorsión de fase a menudo es más que aceptable. Sin embargo, hay muchos casos comunes en los que EQ se usa exclusivamente porque es la solución más conocida para el ingeniero de producción. Es posible grabar pistas de audio de calidad sin la necesidad de utilizar una ecualización pesada. De hecho, si el audio suena bien en vivo, entonces la necesidad de EQ en la etapa de mezcla indicaría una limitación en la configuración de la grabación. Se ha debatido que, siempre que sea posible, las cuestiones espectrales deberían reducirse al mínimo en la etapa de grabación mediante métodos prácticos. Aceptar una toma imperfecta con la intención de “arreglarlo en la mezcla” inevitablemente conduce a nuevas imprecisiones y pérdidas de calidad introducidas.

Se acepta que la configuración de grabación perfecta rara vez se puede lograr, por lo que a menudo será necesario algún grado de manipulación de la señal en la etapa de mezcla. Es una opción fácil de bucear con algún tipo de mejora de EQ, pero a menudo se pasan por alto los efectos negativos del audio demasiado ecualizador. En ocasiones, esto se debe a que el productor está tan enfocado en mejorar el elemento específico del sonido en cuestión, que es posible descuidar los artefactos creados en otras partes del audio. Se ha demostrado que el uso de EQ en las frecuencias musicales de rango medio es un tema delicado, con una ecualización paramétrica Q alta que tiene la capacidad de desequilibrar la composición tonal de sonidos musicales específicos. Además, el uso de EQ para mejorar las formas de onda transitorias dinámicas puede estar en desacuerdo con ciertas señales. Una señal basada en el tiempo dinámica con el contenido de frecuencia fundamental deseado a menudo es mejor por manipulación de dominio de tiempo como oposición a la manipulación basada en frecuencia recursiva.

A medida que las tecnologías en audio se desarrollan, el hecho es que el productor todavía tiene la capacidad de contrarrestar todos los beneficios obtenidos al trabajar con equipos avanzados a altas resoluciones, velocidades de bits y frecuencias de muestreo. Una simple supervisión con un EQ aplicado incorrectamente puede reducir la musicalidad y generar más ruido y distorsión de fase de lo que un procesador moderno puede superar. De hecho, podría argumentarse que las bajas calidades de ruido de los sistemas de grabación digital significan que los productores deberían ser aún más cuidadosos con el procesamiento posterior, ya que es probable que cualquier error sea más obvio. Los sistemas de ecualización modernos permiten que las bandas de frecuencia excepcionalmente ajustadas (hasta Q = 100) sean manipuladas por niveles que exceden los 20 dB. Si un sistema EQ necesita ser utilizado en estos ajustes extremos, esto podría indicar algún tipo de error o descuido en la etapa de grabación.

Del mismo modo, a medida que la tecnología avanzada de audio se vuelve cada vez más disponible para los productores domésticos, el tema de la educación se vuelve mucho más importante. Se ha discutido anteriormente que mejorar la educación y la transferencia de conocimiento es esencial para garantizar que los consumidores y los próximos productores aprecien la habilidad y la técnica involucradas en el proceso de producción de audio (Toulson, 2006, 2008). Se considera que las tecnologías de procesamiento avanzadas no deben utilizarse como reemplazo de técnicas de grabación de audio de calidad, y las técnicas de procesamiento avanzadas no deben reemplazar las habilidades de estudio humanístico. Además, los productores e ingenieros deberían adoptar los avances en tecnología para mejorar las habilidades existentes y así lograr una reproducción de audio de calidad.

Bibliografía

Bohn, D. A. (2005) Constant-Q Graphic Equalizers, Rane Notes 101 &107 combined, http://www.rane.com/note101.html, accessed June 2007.

Boyd, J. (2006) White Bicycles: making music in the 1960s, Serpents Tail, London.

Gibson, D. (2005) The Art of Mixing.  2nd Edition, Artist Pro.

Hood, J. L. (1999). Audio Electronics, Oxford, Newnes Publishing.

Huber, D. M. & Runstein, R. E. (2005) Modern Recording Techniques, 6th Edition, Oxford, Focal Press.

Katz, B. (2002) Mastering Audio, Focal Press.

Masri, P. and Bateman, A. (1996)  Improved Modelling of Attack Transients in Music Analysis-Resynthesis. Proceedings of the International Computer Music Conference (ICMC), 1996.

Mellor, D. (1995) EQ: How and when to use it, Sound on Sound, March 1995.

Miller, R. (2005) Second-Order Digital Filtering Done Right, RaneNote 157, http://www.rane.com/note157.html, accessed June 2007.

Owsinski, B. (1999) The Mixing Engineer’s Handbook, Auburn Hills, MixBooks.

Owsinski, B. (2000) The Mastering Engineer’s Handbook, Auburn Hills, MixBooks.

Robinson, A. (Editor) (2006) Creative EQ. Computer Music Special, Volume 19: The Essential Guide to Mixing, p30-35.

Tingen, P. (2007) Secrets of Mix Engineers: Tom Elmhirst. Sound on Sound, August 2007, p88-93.

Toulson, E. R. (2008) Managing Widening Participation in Music and Music Production, Proceedings of the Audio Engineering Society UK Conference, Cambridge, April 2008.

Walker, M. (2007) PSP Neon Linear Phase Equaliser Plug-ins, Sound on Sound, February 2007, p164-165.

White, P. (2003) Creative Recording – part one, effects and processors, 2nd Edition, London, Sanctuary.

www.mackie.com (2007) http://www.mackie.com/technology/practicaleq_sm.html, accessed August 2007.

Mostrar más

Juan Oscar Morat

Ingeniero de Sonido, Grabación, Mezcla y Mastering. Licenciatura en Música. Docente de la catedra de Ingenieria de Sonido y Grabación en UTN. Chief Engineer en Elektriqus Studius Chief Engineer en SONY/ATV (Arista Record) Chief Engineer en Estudios del Gnomo.

Artículos relacionados

Deja un comentario

Close