Articulos Consejos

Como reducir la latencia

Como reducir la latencia

La latencia es uno de los problemas más comunes a la hora de grabar en un homestudio o en un entorno casero de grabación en especial cuando lidiamos con interfaces de audio de gama baja o la que ya viene incorporada con la computadora (placa de sonido integrada). Veamos como podemos reducir la latencia en nuestras grabaciones y para eso empecemos por lo básico:

¿Qué es la latencia?

Es básicamente el período que transcurre entre que una señal ingresa y sale de un sistema determinado. En términos coloquiales viene siendo el tiempo transcurrido entre que una persona canta ante un micrófono y lo que cantó sale por los parlantes.

La latencia representa un gran problema en especial a la hora de monitorear lo que estamos grabando y es un problema que se agrava a mayor cantidad de pistas o procesos se hagan en simultáneo.

Pero no todas las latencias son iguales, tengamos en cuenta que nuestro cerebro usa la latencia para poder distinguir de donde provienen los sonidos de acuerdo a la diferencia de tiempo que hay entre que un sonido llega a nuestro oído izquierdo y el tiempo que demora en llegar al derecho.

Ahora, la latencia que nos preocupa a nosotros es la que hace imposible grabar cómodamente. A partir de una latencia de 25 milisegundos, nuestro cerebro detecta los sonidos como eco, para hacernos una idea algo similar al slapback delay. Muchos músicos son más sensibles a la latencia y se les dificulta grabar con latencias menores.

En términos prácticos mientras menor sea la latencia más cómodos nos sentiremos a la hora de grabar.  El problema es que mientras menor sea la latencia más sobrecargado estará el procesador de la computadora y por ende lo ideal es encontrar un balance entre el rendimiento del sistema y la latencia óptima para grabar.

¿Donde se genera la latencia?

Como sabemos, existen varios componentes en la cadena de grabación digital. Para empezar tenemos la fuente sonora, una voz por ejemplo, esa voz va hacía un micrófono que transduce la energía acústica en energía eléctrica, luego esa señal se dirige hacia la placa o interfaz de audio donde la señal atraviesa un proceso de conversión analógico/digital y posteriormente dicha señal es almacenada en el disco y procesada por la Estación de Trabajo de Audio Digital (DAW) quién se comunica a su vez con la interfaz para reconvertir la señal digital en analógica para que esta pueda ser amplificada y posteriormente reproducida por los parlantes.

El proceso como podemos observar es una suma de etapas y  cada etapa es un generador potencial de latencia, es decir que cada etapa tiene un cierto retardo. Algunas etapas son peores que otras en ese sentido pero todas generan algo de latencia.

Analicemos entonces los puntos donde se genera latencia:

Conversores analogico digitales: En cualquier sistema de audio digital tendremos como mínimo un conversor analogico/digital a la entrada y uno digital/analogico a la salida. Los conversores tienen latencia pero es mínima, del orden de los 0,5 milisegundos. En una inmensa mayoría de casos, los conversores no son el problema. Necesitariamos sumar muchos procesos de conversión AD/DA para que empecemos a notar la latencia.

Buffer: Una vez tenemos se realizó la conversión analógico digital, la información que representa el sonido que fue grabado debe ser manipulada y almacenada por nuestro sistema. Como podemos imaginarnos, la reproducción de audio digital requiere una comunicación intensiva y continúa entre el conversor A/D, el disco duro/memoria RAM y el conversor D/A.

Si queremos por ejemplo grabar algo al mismo tiempo que lo escuchamos la señal tiene que ser convertida de analógico a digital, almacenarse, convertirse de digital a analógico y reproducirse por los monitores. Este proceso no se puede realizar en un solo paso y para ello se usa algo que se denomina buffer que no es otra cosa que información que se guarda en la memoria RAM para ser usada mientras el sistema realiza otras tareas.

Para entender mejor el concepto de buffer me gusta imaginarlo como un balde que está al medio de ambos procesos. Cuando grabamos algo el sistema guarda en ese «balde» pedazos de información de audio, y la interfaz de audio usa lo que hay en el buffer para reproducir el sonido que se introdujo en el sistema, lo que hay en el balde será usado también por el sistema para almacenarlo en el disco rígido o hacer el proceso que corresponda con la información.

Ahora, el problema es que el tamaño del balde es determinante ya que si el balde es muy chico el mismo será vaciado (por el sistema) antes de que pueda ser llenado nuevamente (por la interfaz) y como resultado escucharemos clicks y pops que dificultan la grabación o el monitoreo. Por el contrario si el balde es demasiado grande el tiempo de comunicación se agranda ya que hay que esperar hasta que se llene para que se puedan oir los cambios. Ese tiempo transcurrido es lo que denominamos latencia.

Para solucionar este problema vamos a tener que negociar: Hay que elegir el buffer en función de nuestra computadora y del tiempo de latencia que querramos lograr.

Eligiendo el tamaño del buffer:

El tamaño de buffer que podemos elegir depende directamente de la capacidad de nuestro CPU, a mayor capacidad tiene el CPU menor puede ser el tamaño del buffer elegido y por tanto menor la latencia.

Una técnica apropiada para elegir un buffer que sea un buen compromiso entre baja latencia y una sobrecarga del CPU es ir bajando el tamaño hasta que empecemos a escuchar clicks y pops en el monitoreo. El punto en el que empezamos a escuchar esos defectos indica claramente que el CPU esta sobrecargado y que hemos elegido un buffer muy pequeño, por ende lo que tenemos que hacer es subir el tamaño del buffer hasta dejar de escuchar esos ruidos. En ese punto, podríamos decir que la latencia es la ideal para nuestro sistema.

De esta recomendación, se desprende claro está que si queremos monitorear en tiempo real varias pistas o usar muchos plugins y emulaciones vamos a necesitar una buena computadora, de lo contrario vamos a correr el riesgo de poder jugar una mano de Solitario en el tiempo que transcurre entre que tocamos una nota y la podemos escuchar por los monitores.

Si queremos una aproximación del tiempo de latencia que vamos a obtener para un tamaño determinado de buffer podemos usar el siguiente calculo.

Latencia = [(Tamaño del buffer * 2) / Frecuencia de muestreo    ]  + Latencia conversores

Asumamos que estamos grabando a 44100 Hz y que elegimos un tamaño de buffer de 256 muestras.

Latencia = (256*2) / 44100Hz

Latencia = 0.012 s

Si cambiamos la frecuencia de muestreo a 96000 Hz, la latencia será de 5 ms. Y si disminuimos el tamaño del buffer a la mitad, manteniendo la frecuencia de muestreo en 44100 Hz  una latencia similar 5-6ms.

La latencia y la frecuencia de muestreo:

Como observamos en el cálculo anterior, la latencia disminuye cuando aumenta la frecuencia de muestreo. Lo primero que se nos viene a la mente al conocer este dato es «Entonces doblo la frecuencia de muestreo y asunto solucionado» el problema es que al doblar la frecuencia de muestreo también aumentamos la cantidad de stress al que sometemos al procesador y por ende eso va a limitar la cantidad de pistas, efectos o procesos que podamos ejecutar en simultáneo.

Un consejo que puedo dar al respecto es que usemos la frecuencia de muestreo que nos permita trabajar cómodamente con las sesiones con las que planeamos grabar. El problema de la latencia es mejor resolverlo por otro lado, aunque para cierto tipo de sesiones livianas no es una mala idea usar una mayor frecuencia de muestreo si experimentamos problemas con la latencia.

¿Qué tienen que ver los drivers con la latencia?

Los drivers son muy importantes en el nivel de latencia que va a tener nuestro sistema debido a que son los encargados de comunicar a nuestra interfaz de sonido con el sistema operativo.

Para ponerlo de una manera más didáctica, los drivers son como traductores que se encargan de que el hardware y el software se entiendan.

Estos deben estar optimizados para el hardware que estemos usando ya que cada interfaz de audio se comunica con el sistema a su manera, por esto es necesario que siempre tengamos la última versión de los drivers de nuestra interfaz de audio ya que estos suelen solucionar los problemas de las versiones anteriores.

¿Qué es ASIO?

ASIO es una sigla que quiere decir Audio Stream Input/Output, es un controlador ideado por Steinberg que básicamente busca lidiar con el problema de latencia que hay en los drivers nativos de computadoras con Windows (DirectSound).

Lo que hace en esencia es simplificar la comunicación entre el sistema y la interfaz de audio, quitando muchos intermediarios que generan latencia y por ende dificultan enormemente el monitoreo en tiempo real de una grabación.

Cada modelo/fabricante de interfaz crea los drivers de sus dispositivos basándose en el estándar ASIO, esto implica que si bien el estándar es el mismo eso no quiere decir que los drivers sean intercambiables incluso entre distintos modelos de una misma marca.

¿Y que es ASIO4ALL?

Uno de los problemas más frecuentes cuando uno se inicia en esto del audio es que arrancamos a grabar usando la interfaz de sonido que viene integrada con la placa madre de nuestra computadora. El problema con la placa de sonido integrada es que no tiene drivers optimizados para reducir la latencia ya que no está pensada para un uso profesional o para monitorear en tiempo real.

La solución a este problema son los drivers ASIO4ALL, estos son drivers que se comportan básicamente como los drivers ASIO comunes pero que funcionan con cualquier interfaz de audio, aún con las que vienen integradas en las placas madres genéricas.

Para poder integrar los drivers ASIO4ALL en nuestro sistema  procedemos a bajarlos desde su sitio oficial (casualmente fueron actualizados recientemente después de 4 años):

Descargar Drivers ASIO4ALL

Una vez los bajemos y los instalemos procedemos a cambiar los drivers por defecto en el software que estemos usando. Si por ejemplo estamos usando el Cubase  para grabar con una interfaz de audio integrada tenemos que seleccionar los drivers ASIO4ALL como dispositivos de Entrada/Salida. De esta manera podremos saltearnos los drivers de Windows y usar una versión adaptada de los drivers ASIO que mejorarán mucho la performance en cuanto a latencia, aunque hay que aclarar que no son tan efectivos como los drivers de las interfaces de audio.

Distintas situaciones, distinta latencia:

Lo positivo de la optimización de la latencia es que no siempre vamos a tener que configurar el sistema de igual manera ya que cada situación es distinta.

Analicemos algunas situaciones posibles:

Grabación con monitoreo en tiempo real: Esta sin duda es la que más exige al sistema. Supongamos que queremos grabar las voces de un tema que ya tiene 24 pistas, como dijimos anteriormente la mejor manera de lograr una buena toma es que el intérprete se sienta cómodo y por ende para este tipo de configuraciones vamos a necesitar una latencia baja.

Lo ideal es que configuremos el buffer lo más bajo posible, para la mayor parte de las computadoras el buffer estará entre 128 y 256 muestras, suficiente para monitorear en tiempo real en la mayoría de las circunstancias.

Algo que hay que tomar en cuenta es tratar de no usar procesamiento en tiempo real a la hora de grabar porque eso aumenta considerablemente la latencia, lo ideal es usar dicho procesamiento en caso de absoluta necesidad, quizás algún reverb para el cantante y en el caso de tener muchas pistas tratar de dejar activas solamente las que sean necesarias para realizar la toma.

También es cierto que el nivel de latencia aceptable varía en función del instrumento que estemos grabando pero eso es más una cuestión de prueba y error en función de la comodidad del músico, lo que hay que tener en cuenta siempre es que a la hora de grabar voces la latencia debe ser mínima.

Mezcla o post-producción: Una vez en el proceso de mezcla podemos permitirnos el lujo de lidiar con un poco más de latencia. Esto porque no nos cambia la vida si las pistas demoran un segundo en empezar a reproducirse una vez apretamos play. Lo importante en estos casos es prestarle atención a la cantidad de procesos/pistas y también a la compensación de delay en caso de contar con ella (hablaré al respecto más adelante).

Conclusiones:

Optimizar la latencia de nuestro sistema se hace imprescindible para cualquier proceso de grabación con monitoreo. La única contra es que mientras menos latencia busquemos, más capacidad de procesamiento vamos a necesitar en nuestra computadora limitando así nuestras posibilidades de acuerdo a la computadora que tengamos.

El ajuste del tamaño del buffer es por lejos lo que más influencia tiene en la latencia de nuestro sistema, el  mejor método de ajuste es el de prueba y error y negociar el punto entre el que dejamos de escuchar clicks y pops (buffer muy chico) y el punto en el que hay mucha latencia (buffer muy grande).

Espero que se haya entendido y a grabar que se acaba el mundo!

 

 

Read More
5 minutos featured Tutoriales

Comprimiendo los micrófonos de ambiente

Comprimiendo los micrófonos de ambiente

Los micrófonos de ambiente, también conocidos como room-mics o micrófonos de sala son una de las herramientas más poderosas que tenemos para modificar el sonido de una batería. La cantidad de sonidos distintos que podemos obtener con la manipulación de los mismos es bastante importante y nos da en combinación con la manipulación de los micrófonos cercanos un abanico importante de posibilidades.

El uso de las técnicas acá explicadas depende de nuestro criterio y está claro que no se deben usar siempre o de usarse no necesariamente tienen que ser demasiado evidentes.

Los micrófonos de ambiente

La batería suele ser el instrumento para el que más micrófonos usamos, ya sea micrófonos para cada cuerpo, los overheads o aéreos y por lo general se graba además un micrófono, o dos si es una técnica estéreo de microfonía, para capturar el sonido ambiente de la sala.

Los room mics son muy importantes ya que nos ayudan a darle profundidad a la grabación de la batería y nos pueden servir como un elemento extra en la mezcla con el que podemos conseguir algunos efectos interesantes para salir un poco de lo tradicional.

Cuando la sala es de gran tamaño se  puede usar estos micrófonos para dar una sensación de ambiencia o reverberación, que enriquece el sonido y le provee más realidad.

Exagerando la sala

Una de las maneras para exagerar el tamaño de la sala y por lo tanto la sensación de ambiencia o reverberación es a través del uso de la compresión. En este caso la compresión debe tener unos parámetros de ataque y release específicos.

En principio lo que queremos es atenuar o quitar lo más posible el ataque del instrumento y dejar el sonido del ambiente, es decir necesitamos que el ataque sea muy rápido, por otro lado como queremos exagerar el ambiente necesitamos que el compresor deje de actuar rápido para poder aumentar el decaimiento o reverberación.

Por otro lado necesitamos colocar el umbral del compresor muy bajo y provocar que prácticamente el sonido esté distorsionado. Por último lo que hacemos es sumar el sonido de este micrófono comprimido con el resto de la batería y por arte de magia obtenemos una batería gigantesca.

El primer ejemplo es de un micrófono de Room mono con una compresión con ataque muy rápido y release rápido, el compresor usado fue el CLA-1176. Notese como la sala aparece de repente y suena con mucho más espacio.

Compresor para los room mic

Compresor usado para el canal de room de una batería. En verde resaltado el tiempo de ataque rápido y release.

Destruir para construir

Otra forma de obtener un sonido interesante y diferente de los micrófonos de room  es aplicar una distorsión para darle suciedad al sonido.

Si bien esto crea un efecto drástico, este puede ser lo que se necesita para dar un toque especial a alguna mezcla. Para que la distorsión suene cálida y más parecida a una analógica podemos usar un filtros pasa bajos inmediatamente después o en el plugin de distorsión.

En este ejemplo en particular se uso la distorsión de SansAmp y allí se aplico el filtrado de agudos mencionado. Para ajustar el nivel de suciedad se puede probar con la ganancia y con el drive de la distorsión que elijamos.

Distorsión room mic

Plugin de distorsión usado para agregar color al canal de room de una batería.

Sumando delays

Además de la distorsión se puede crear un efecto aún más imponente si usamos delays para complementar a la distorsión mezclados en una cantidad que va a depender del gusto de cada uno. En este caso el delay se colocó inmediatamente después de la distorsión y en serie, un caso especial de fx, por otro lado la mezcla se logró con el parámetro wet/dry.

 

Delay room mic

Plugin de delay usado para darle un sonido especial al canal de room de batería. Notar que se aplico como inserción sobre el canal y se mezclo con el parámetro wet/dry.

Dejando los room mics solos para dar impacto a una sección

Una derivación de esta estrategia es ubicar una parte de la canción distinta y usar los room mics como los únicos micrófonos de batería. Para ello debemos automatizar los demás canales y silenciarlos durante esta parte, asegurandonos que la transición entre partes es adecuada.

Si queremos tener una variación de este truco podemos usar distorsión y delay luego de la compresión para ensuciar el sonido y hacerlo del tipo baja fidelidad. Sin duda esta forma de tratar la pista es extrema pero nos da un sonido muy interesante.

Room mic procesamiento

Vista del orden del procesamiento en el canal de room mic de nuestro ejemplo.

Conclusiones:

Los micrófonos de ambiente o room mics de una batería son lo que le dan vida y ambiencia/reverberación a la mezcla de la misma. Al ser una señal extra tenemos la posibilidad de procesarlo de manera de crear un sonido con mucho caracter.

Si bien las técnicas aquí presentadas no son para todos los micrófonos room de todas las canciones que pasen por nuestras manos para mezclar, nos dan varias posibilidades para nuestra paleta de colores a la hora de mezclar.

Como es costumbre les sugiero que prueben estas técnicas y experimenten con ellas para llegar a algo que les sirva en sus producciones y puedan adoptarlas.

Read More
5 minutos featured Tutoriales

Como hacer que la voz resalte en la mezcla

voz-resalte-en-la-mezcla

Hacer una mezcla no es fácil y eso lo sabemos todos, el problema es hacer una mezcla que suene bien en todos lados pero darnos cuenta de que la voz no resalta como nosotros queremos. En inglés se suele hablar de «in your face vocals» que es una descripción bastante gráfica de lo que buscamos.

En este artículo vamos a aprender por qué es importante y como tenemos que hacer para que la voz resalte en la mezcla.

Siempre adelante del resto

La voz en la música popular en la inmensa mayoría de las situaciones es el elemento que prima por sobre los demás en la mezcla y que por lo tanto tiene un trato especial en todas las etapas de la cadena de grabación.

Al grabar voces usamos los mejores micrófonos y preamplificadores que tenemos, nos esmeramos mucho por lograr tomas que transmitan emoción.

En la etapa de la compilación vocal podemos pasar un tiempo importante escogiendo con criterio las mejores partes de cada toma, posteriormente nos podemos pasar un buen rato corrigiendo la afinación o ultimando detalles, pero todo este esfuerzo es inútil si no conseguimos que la voz sobresalga en nuestra mezcla.

Esto no quiere decir que nuestra mezcla tiene que sonar como un karaoke en donde las pistas de acompañamiento son un mero relleno, si no que tenemos que asegurarnos que del plano que tengamos con toda la música, la voz tenga al menos un poquito más.

A veces la mezcla se hace en torno a la voz, es decir ecualizar para que otros instrumentos cedan espacio frecuencial a la voz, panear los instrumentos que están interfiriendo a otro lugar y jugar con su nivel también.

El fader nuestro mejor aliado

La primera herramienta que tenemos a mano para lograr que nuestras voces resalten es el fader. La técnica que se usa para este fin se llama automatización o fader riding  y lo que se busca es nivelar la voz en toda la performance.

Lo que tenemos que hacer en la práctica es subir el nivel de las frases o palabras que suenan más despacio y bajar el nivel de las que suenan muy fuerte. Nos podemos ayudar con las formas de onda para saber con más precisión que partes son las problemáticas.

Un truco interesante es usar el modo de automatización touch, en el que se escribe solo cuando tocamos el parámetro a automatizar y luego retorna al valor por omisión o 0 dB. Por lo tanto las partes que necesiten reducción o aumento se modifican y las demás quedan en el nivel nominal de la pista. Personalmente recomiendo que automaticemos solo la instancia que necesitemos y una por vez.

Nota: Para habilitar las automatizaciones en las D.A.W hay que seleccionar el parámetro a automatizar, ya sea el volumen, paneo, los mutes, los envíos o los parámetros internos de los plugins. En Pro tools por ejemplo hay que ir a la ventana window y seleccionar automation y luego seleccionar el parámetro a automatizar. Es aconsejable habilitar las automatizaciones de un parámetro por vez para no confundirnos al hacerlo.

Automation window

Vista de la ventana de habilitación de automatización de pro tools. Notar que solo el volumen está habilitado.

 

Fader riding

Ejemplo de la técnica de fader riding o automatización del nivel de la voz. Notar que el canal a automatizar tiene que estar en un modo de automatización y hay que habilitar el parámetro a automatizar.

Comprimir luego de automatizar

Esta es una de las cosas que hacen una gran diferencia en el resultado final de las voces. Para hacerlo hay que primero resolver el tema de la automatización y luego crear una pista auxiliar que es alimentada por la salida de nuestra pista original vocal. En esta pista auxiliar es donde vamos a comprimir y debido a que está ya nivelada vamos a necesitar mucha menos reducción de ganancia.

Este detalle es muy importante ya que los compresores y plugins en general funcionan mejor cuando son trabajados de manera sutil o con pocos decibeles de atenuación, en el caso de los compresores.

Otra estrategia de mezcla para voces interesante es comprimir por etapas, es decir usar varios compresores en serie cumpliendo distintas funciones. Por ejemplo usar un compresor con un ataque y release rápidos para encargarse de los picos sobrantes de la señal, seguido de otro para controlar el RMS con un ataque y release más lento. Es además aconsejable usar razones de compresión suaves del orden de los 2:1 a 4:1 como máximo. Todo con el objetivo de lograr que suene lo más natural posible.

Compresión en serie

Ejemplo del uso de la compresión en serie luego de la automatización,como estrategia para suavizar los efectos de la compresión.

 

Sumar distorsión para cortar en la mezcla

Otra de las técnicas o estrategias que nos pueden ayudar a que la voz siempre resalte en una mezcla densa con muchos elementos es agregar distorsión a la voz.

Pero no hablo del tipo de distorsión que se usa para la guitarra, más bien me refiero a una distorsión aplicada en paralelo con muy poca saturación y filtrando gran parte del contenido de la señal, de tal manera de sumar a la voz un brillo extra que nos permite que siempre esté en primer plano ya que le agregamos armónicos de alta frecuencia que simplemente se notan cuando prestamos atención.

La idea es crear una pista auxiliar y enviar allí la voz, luego filtrar la señal en una frecuencia alta por ejemplo 500-1000 Hz y luego colocar la distorsión con poca saturación o ganancia. Finalmente sumamos la señal distorsionada a la voz y buscamos el nivel correcto para que haga el efecto sin ser notada.

Saturación Vocal

Vista de la ventana de mezcla de una D.A.W en donde se aplica la distorsión en la voz en paralelo, previo uso de filtros.

 

Conclusiones

Hacer que la voz resalte en la mezcla es quizás uno de las principales problemas que debemos enfrentar a la hora de mezclar, y que sin duda en la mayor parte de la música comercial la voz es la que manda y se debe entender por completo la letra, en el contexto de mezcla.

Es por eso que debemos tratar las voces con especial atención, debemos hacer que se sienta como que es el elemento número uno sin que los demás queden relegados a segundo plano. Lo importante de las técnicas mostradas acá es lograr el objetivo (en nuestro caso que la voz resalte y suene pareja siempre) sin que sea evidente que hay un proceso detrás.

Como siempre decimos experimenten con las técnicas que les mostramos, vean como funcionan y saquen sus conclusiones. Un saludo y a  mezclar!

 

Read More
5 minutos featured Tutoriales

Como hacer Bounce en tu D.A.W

Como hacer bounce en tu DAW

Una vez tenemos nuestra mezcla o masterización terminada y ha llegado la hora de exportar la pista maestra para que el mundo la escuche, es muy importante tener en cuenta la manera en que la exportamos para no perder la calidad que logramos.

El proceso de exportar la pista maestra se llama Bounce y hay distintas formas de hacerlo. En esta ocasión vamos a mostrarte como hacer para sacar el máximo partido de las mezclas en tu D.A.W. Veamos:

¿De dónde viene el término bounce?

La denominación de este proceso viene de los días de la grabación en cinta magnética y específicamente en sistemas de carrete abierto u «Open reel». En un principio no se tenía la posibilidad de grabar muchas pistas ya que por lo general se podían grabar solamente 4 pistas.

Ante la necesidad de grabar con overdubs usando la mayor cantidad de micrófonos posible se grababan por ejemplo la batería y el bajo en 4 pistas y posteriormente se mezclaban estas pistas en dos pistas o estéreo y dicha mezcla estéreo se volcaba en 2 pistas a otra grabadora dejando así dos pistas libres. Se liberaban 2 pistas para poder grabar guitarras, voces o cualquier otro instrumento necesario.

De la misma manera el volcado podía ser a una sola pista y entonces quedaban 3 pistas libres para su uso posterior. El nombre «Bounce» que en inglés quiere decir rebotar se refiere a como las pistas iban pasando desde 4 a 2  y así sucesivamente (como una pelota que rebota) la  técnica también se conocía como «ping pong recording»

maquinas de cinta carrete abierto

Vista de máquinas de grabación a cinta del tipo Reel to Reel o carrete abierto.

¿Qué es lo que se hace?

En este proceso lo que el programa hace es sumar todas las pistas que tenemos en la sesión de mezcla, que por ejemplo pueden provenir de los subgrupos de mezcla que hayamos creados y del master fader finalmente.

Como resultado se crea una pista estéreo que es el archivo que exportamos ya sea para masterizar o para su posterior distribución.

¿Cómo se hace?

La manera específica depende de la estación de trabajo que estemos usando pero en términos generales existen dos formas para hacerlo: una en la que el proceso se realiza fuera de línea, es decir se procesa pero no en tiempo real.

La segunda manera de hacerlo es en tiempo real: el proceso demora lo que dura la canción creando una nueva pista para grabar el audio resultante de la suma de los subgrupos o del master fader.

¿Cuál es la mejor forma?

Si bien cada una de las maneras antes mencionadas tiene sus adeptos, yo me inclino por hacerlo en tiempo real por varios motivos.

En primer lugar al hacerlo de esta forma nos obliga a escuchar el resultado. Puede suceder que pensamos que todo está bien pero al hacer el bounce nos damos cuenta que dejamos el retorno de un efecto en silencio o alguna pista deshabilitada. Al escuchar en tiempo real podemos saber rápidamente si se nos paso algo por alto.

Otra ventaja de hacerlo en tiempo real es que la pista que grabemos va a estar dentro de la sesión en la que estamos trabajando. Si bien parece trivial nos puede servir para escuchar las diferencias entre mezclas al momento de tener que hacer correcciones o si usamos algún hardware externo para asegurarnos de que el recall esté bien hecho.

Por otro lado algunas estaciones de trabajo al hacer el bounce fuera de línea degradan la calidad final del audio y acaba resultando un archivo que no tiene la calidad que nosotros pensamos que tenía.

Bounce fuera de línea

Si bien los detalles de este proceso dependen de la D.A.W que usemos, en general se nos va a requerir la pista o sumador de nuestra mezcla o buss de mezcla. Por ejemplo su usamos como salida de nuestro master fader las salidas 1-2 esta sería la que debemos elegir.

Bounce to disk pro tools

Vista de la pestaña de bounce to disk en Pro Tools.

Luego hay que especificar el tipo de archivo de audio con el que queremos exportar nuestra mezcla. Además hay que seleccionar si queremos que  el resultado de nuestro bounce sea un archivo Stereo interleaved,  Multiple mono o Mono. Por lo general lo que queremos es «Stereo Interleaved»

Bounce to disk pro tools

Vista de la ventana de diálogo para hacer Bounce to disk en Pro tools.

Luego tenemos que seleccionar la profundidad de bits y la frecuencia de muestreo. Si estamos en la mezcla por lo general se debe mantener la resolución en la que se trabajó. Es decir si grabamos y mezclamos a 24 bits y 44.1 kHz, elegimos estos parámetros para exportar, ya que para masterizar vamos a necesitar la mayor resolución posible.

Finalmente al aceptar  nos va a requerir que escojamos una carpeta o lugar para guardar el bounce y colocarle nombre. Es recomendable crear una carpeta dentro de la sesión de la mezcla que se llame mezclas o algo similar, para guardar todas las versiones de la mezcla y tenerlas a mano.

Guardar bounce to disk

Vista del cuadro de diálogo que abre Pro tools al hacer un bounce fuera de línea.

 

Bounce en tiempo real

En primer lugar tenemos que crear una pista de audio estéreo para grabar el resultado de nuestra mezcla. El nombre no es demasiado importante aunque se puede usar «REC» como en el ejemplo. A mi me resulta útil asignarle un color distinto para identificarla con facilidad.

La nueva pista estéreo debe tener como entrada un bus estéreo que debe ser el mismo que a la salida de nuestro master fader o subgrupo sumador. Esto para asegurarnos que todas las pistas que conforman la mezcla queden grabadas.

Bounce en tiempo real

Vista de la ventana de mezcla para hacer bounce en tiempo real a una pista de audio. En azul y rojo resaltado el camino de la señal hacia la pista REC.

Posteriormente hay que colocar la pista creada en Solo Safe y activar la grabación o colocar «REC Enable». Debemos en este punto asegurarnos que todas las pistas se dirigen hacia nuestros grupos de mezcla y que los mismos se dirigen a un sumador o master fader. En este punto debemos cuidar de que no hayan pistas sin asignar o que hayan quedado en «Solo» sin darnos cuenta.

Es buena idea  comenzar a grabar dejando un espacio antes de que comience la canción para de existir ruidos poder tener la posibilidad de removerlos durante la masterización. De la misma manera es indispensable al terminar la canción dejar todo el decaimiento natural de los instrumentos para poder hacer el fade final en la masterización, sin perder ni un solo segundo de música.

Pista rec o bounce

Vista de la pista de audio REC en la cuál se hace el bounce en tiempo real. Notar que la misma está en solo safe

También es recomendable escuchar atentamente mientras se graba el archivo ya que podemos encontrarnos con sorpresas. Es aconsejable usar audífonos como apoyo para cerciorarnos de que no hayan ruidos o cosas extrañas en el audio final.

Finalmente debemos darle un nombre a nuestra región de audio que coincida con el nombre de la canción que estamos mezclando y además colocarle la versión de la mezcla/masterización que estamos realizando. Esto por que si necesitamos revisiones más adelante es muy difícil hacerlas sin saber cual de nuestras mezclas era la primera o segunda. Para más información sobre convenciones de nombramiento pueden leer este otro artículo.

Cambiar nombre región Pro tools

Vista de la ventana de diálogo de Pro tools para cambiar el nombre a una región.

Exportando el Bounce

Una vez grabamos la pista y la nombramos correctamente es hora de exportarla fuera de nuestra D.A.W el archivo. Esta es otro paso que depende del programa que usemos pero en Pro Tools hay que seleccionar la región y seleccionar «Export Region as File». En otro software la opción puede tener otro nombre pero la idea es la misma.

Aquí se nos presentará un cuadro de diálogo similar al del bounce fuera de línea. Tenemos que seleccionar el tipo de archivo, la frecuencia de muestreo y la profundidad de bits haciendo que coincidan con los de la sesión para mantener la resolución.

Exportar bounce

Vista del cuadro de diálogo que abre Pro tools para exportar una región.

Es una buena idea crear una carpeta dentro del proyecto que se llame «Mezclas» para guardar todas las versiones que hagamos de las mezclas y de esta manera tener a mano para escuchar los cambios que hagamos.

Conclusiones

Muchas veces algo que parece trivial como exportar la mezcla de una canción tiene algunos conceptos detrás que hay que conocer y respetar para poder mantener la calidad de nuestro trabajo.

La sugerencia es buscar hacer nuestros bounce en tiempo real con el método del re-grabado a pesar de que aparente demorar más tiempo. Muchas veces es mucho mayor el tiempo que vamos a demorar cuando nos demos cuenta que algo faltó de grabar en el bounce o que tenía errores.

Read More
Trucos Pro Tools Tutoriales

Como calcular el mapa de tempo de una cancion en Pro tools

Calcular un mapa de tempo en Pro Tools

¿Tu baterista toco sin metrónomo y no sabés como editar sus errores o hacer «copypaste» de las partes que hizo bien? ¿Tu baterista toco con metrónomo pero notas que hay algo raro en la performance a pesar de que la editaste? ¿Necesitas conocer el tempo exacto de una canción? No te preocupes, en esta oportunidad venimos al rescate y te vamos a enseñar una manera sencilla de calcular el pulso de tu canción, incluso si no estuvo tocada con metrónomo. A pesar de que este tutorial este orientado a Pro Tools, una vez entendemos los conceptos es posible aplicarlos a cualquier DAW. Empecemos por entender que es el modo grilla:

¿Qué es el modo grilla o grid en Pro tools?

Es un modo de edición de Pro tools que nos permite dividir con una grilla o cuadricula vertical el tiempo según esté definido el pulso y el tipo de compás de la canción. Supongamos que tenemos un compás de 4/4 y elegimos las negras como división, tendríamos entonces 4 divisiones por compás. En el caso de elegir corcheas 8 y en el caso de elegir tresillos por ejemplo tendríamos 12 (o un compás de 12/8 en la práctica).

Las combinaciones de compás y pulso van a depender de la métrica de la canción. Tiene múltiples usos posibles entre los que destacan: edición en el tiempo de las pistas grabadas, uso de efectos de tiempo (delays, chorus,flanger, etc)  entre otros. Otra posibilidad es que al calcular el mapa de tempo si tenemos el modo grilla activado el uso de marcadores para indicar las secciones de la canción será muchísimo más fácil. Esto porque las canciones se suelen dividir de manera pareja, por ejemplo 16 compases de estrofa, 8 compases de coro, 4 compases de solo y así sucesivamente.

Marcador con grilla

Vista del uso de un marcador con la grilla activada.

También podemos usar el modo grilla cuando queremos editar una sección de nuestra canción y podemos seleccionar con precisión una cantidad de compases dada por ejemplo 8 o 16 compases (que suele ser la duración de las partes). De esta manera se nos facilita la edición con Beat Detective, Elastic Audio o similares.

Conductor track Pro tools

Vista de la ventana de transporte de Pro tools con la pista de conductor resaltada en verde. Conductor track.

Sesión sin grilla

Vista de la ventana de edición en Pro tools sin la grilla o el modo grod. En celeste resaltado la opción que tenemos que seleccionar para visualizar la regla. En verde resaltado el modo de selección de regiones de grilla.

Vista modo grid Pro tools

Vista cercana del modo grilla resaltado en celeste.

Selección grid pro tools

Vista cercana del modo de manipulación grilla o grid en pro tools.

Sesión con la grilla

Vista de la ventana de edición de una sesión con el modo grilla seleccionado. En celeste resaltado el lugar donde se selecciona el modo grilla o grid. En verde resaltado el lugar donde se cambia a la selección de grilla.


[optin-monster-shortcode id=»xwjauffiwarrci1h-2″]


¿Cómo colocar un  pulso fijo al comienzo de la sesión?

Si antes de grabar sabemos en que pulso está la canción y vamos a tocar con metrónomo podemos introducir el pulso en Pro tools una vez creamos la sesión. Para poder realizar cambios manuales en el pulso/tempo debemos primero activar la función «Conductor Track», que se puede ubicar fácilmente en la ventana de transporte (Cmd+1 en Mac). Una vez activamos esta función vamos a poder cambiar o calcular el pulso manualmente desde la sección llamada Regla/Ruler en Pro Tools.

Si conocemos el tempo a priori podemos establecerlo haciendo click sobre el rombo rojo ubicado en esta sección. Hay que tener cuidado de hacer click al inicio de la regla ya que el tempo por defecto siempre es 120 BPM, si hacemos click en otro lugar que no sea el principio, el primer compás empezará en 120 BPM y se ajustará al tempo que le indiquemos.

Regla de pulso

Vista de la sección que muestra la regla de pulso/tempo. En celeste resaltado el lugar donde se puede visualizar.

Cambio de tempo

Vista en Pro tools de la ventana de diálogo que se abre cuando queremos colocar el tempo a nuestra sesión manualmente.

¿Cómo calcular el tempo o pulso de nuestra canción?

Si logramos una buena toma sin grabar con metronomo podemos calcular el pulso de la canción de manera de echar mano a la edición o al uso de efectos de tempo. Hay que entender que si por alguna razón no pudimos usar el metrónomo, el tempo tampoco puede variar demasiado y tiene que tener cierta coherencia para que el resultado sea óptimo. Con todos los requisitos anteriores cumplidos  de parte de la performance podemos calcular el pulso.

Para hacerlo debemos activar la función «Conductor Track»  y cambiarnos hacia la herramienta de selección «Slip» que nos permitirá elegir secciones de compás a discreción. A continuación tenemos que seleccionar el instrumento al que le vamos a calcular el pulso, por lo general es preferible trabajar con instrumentos rítmicos  ya que al tener ataques rápidos en los instrumentos que suelen marcar el tempo (bombo, tambor) es mucho más fácil «ver» donde vamos a poner las marcas. Para empezar a calcular el tempo nos ubicamos donde empieza la canción, preferentemente en la pista de bombo.

Selección de compás

Seleccionando con el modo slip el comienzo de un compás, se usa el zoom para acercarnos lo suficiente y tener más precisión.

Selección compas

Vista de la selección de todo un compás. La selección se puede realizar sobre cualquier pista pero en este caso elegimos la batería.

Posteriormente contamos un compás completo, para saber donde empieza y termina el compás es muy útil ubicar a los instrumentos que marcan el «downbeat» o pulso a tierra y extender la selección desde donde empieza el primero del primer compás hasta donde empieza el primero del segundo compás.

Suponiendo que tenemos un compas de 4/4 y un ritmo básico de pop tendremos 2 bombos por compás, la idea es seleccionar desde el comienzo del primer bombo del compás uno hasta el primer bombo del compás dos (sin incluirlo).

Una vez tenemos la selección debemos ir a la ventana «Identify Beat»  (Ctrl/Cmd-I). En esa ventana se nos preguntará que cantidad de compases seleccionamos. En nuestro caso seleccionamos un solo compás y por ende el comienzo sería 1|1|000 y el final sería 2|1|000. Lo que hacemos en este paso es decirle a Pro Tools que la selección que hicimos abarca desde el tiempo 1 del primer compás hasta el tiempo 1 del segundo compás.

Hay que aclarar que no se debe incluir el primer bombo del segundo compás sino que la selección debe llegar hasta el punto donde el mismo comienza. Al aceptar el cambio el programa se encarga de calcular el tempo del compás que seleccionamos.

Por lo general si creiamos que el tempo era 130, el mismo será de 131.25 por decir algo. Es muy raro que el tempo sea exactamente el que esperábamos que sea, hay que recordar que lidiamos con seres humanos y no con máquinas.

Este proceso se repite en toda la canción y se puede acelerar seleccionando más compases, por ejemplo 4 u 8 compases. Como consejo, a la hora de elegir la cantidad de compases hay que tener en cuenta que tan preciso es nuestro baterista. Si el baterista es muy preciso nos podemos permitir el lujo de elegir 8 compases o más, en cambio si nuestro baterista tiende a cambiar el tempo entre compases no nos conviene hacer grandes selecciones porque corremos el riesgo de equivocarnos y que el tempo que nos indique el programa no sea tan preciso.

Cuando seleccionemos varios compases tenemos que sumar el resultado para colocar al compás de término o end el número correspondiente. Es decir si por ejemplo tomamos una selección de 8 compases comenzando desde el compás 1 , el compás final va a ser el 9.

Otro punto a considerar son las variaciones en la métrica de la canción. Si sabemos que la métrica cambia se lo tenemos que indicar a la grilla para que no haga cálculos erróneos. La mayoría de las veces lidiamos con compases de 4/4 pero también hay que estar atento a los compases compuestos (7/4 por citar un ejemplo) o al uso de tresillos o compases ternarios.

Identify Beat Pro tools

Vista de la ventana de diálogo de Identify Beat en Pro tools.

 

Marcador con grilla

Vista del uso de un marcador con la grilla activada.

Identify beat Pro tools

Vista cercana de la ventana de diálogo de la funciónIdentify Beat en Pro tools.

Delay a tempo en Pro tools

Vista de un plug in de delay cuando reconoce el pulso ya calculado de la sesión. En azul resaltado la sección de tempo del plugin que coincide con el de la sesión. En verde resaltado el pulso de la sesión

Conclusiones

Calcular el tempo de un canción es necesario cuando nuestro baterista no tocó con metrónomo y por ende existen variaciones lógicas en el tempo que se deben tomar en cuenta si se pretende editar la canción o si se quieren usar efectos de tempo. La idea detrás de calcular el mapa de tempo de una canción es que si el baterista empieza tocando sin metrónomo en 130 BPM lo más probable es que no se mantenga exactamente en 130 sino que varie ligeramente el tempo debido a las fluctuaciones naturales de su tempo interno.

El cálculo es algo meramente matemático, se trata de dividir la cantidad de compases por minuto en función de la cantidad de «downbeats» o golpes a tierra que tenga nuestro tema. Por ejemplo: Si tenemos un tempo de 120 BPM en 4/4 tendremos 30 compases con 4 tempos cada uno en 1 minuto. Si nuestra canción tiene ese tempo estipulado pero no se grabo con metrónomo, lo probable es que la cantidad de compases sea ligeramente distinta pero esté en ese rango. La  utilidad de calcular el tempo de una canción es aprovechar las bondades de grabar con metrónomo cuando no grabamos con metrónomo.

Read More
Articulos

Los roles en el estudio de grabación

Roles en el estudio de grabación. Imagen de un estudio con la bajada.

La división de las tareas dentro de un estudio de grabación profesional parece ser uno de los temas que más confunde a los músicos. El problema viene por el lado de que en un escenario ideal existen muchos roles donde cada persona se especializa en una parte del proceso y no interfiere o se inmiscuye con el proceso que viene.

Ahora, como regla general en Latinoamérica todavía no estamos ni cerca de tener el nivel de especialización que existe en estudios profesionales del «primer mundo» ya que debido a diversas circunstancias nos la tenemos que arreglar para hacer de todo un poco y eso no está mal porque nos convierte de cierta manera en comodines y nos hace más versátiles pero en cierto punto también hace que no podamos especializarnos como deberíamos. Lo ideal sería lograr un balance.

La idea de este artículo es explicar que es lo que hace cada uno de los involucrados en la grabación de un disco, partiendo desde los roles más conocidos e introduciendonos un poco también en algunos roles más oscuros. Veamos:

La cadena del audio:

Ya hablamos varias veces de la cadena de producción, pero sintetizando veamos lo que tenemos:

  • Todo el proceso compositivo: Abarca desde el momento en que se te ocurre una canción hasta el momento en el que entrás al estudio para grabar.
  • La pre-producción: La pre-producción se desprende de la composición pero de manera de integrarse con la grabación en sí, sin llegar a ser una grabación definitiva. Por lo general la pre-producción de audio es un proceso de grabación precario donde se toman en cuenta los aspectos que posteriormente saldrán a relucir en la grabación.
  • La grabación: Esto es, el registro definitivo de la obra. La grabación solamente contempla el registro por si mismo, no se extiende más allá del mismo.
  • La post-producción: Por post-producción entendemos todo proceso que sea incorporado más allá del mero registro de la obra. Se trata de manipular lo grabado para lograr un resultado homogéneo.

Los protagonistas:

A cada parte del proceso le corresponde en teoría un especialista, esta persona dedica la mayor parte de su tiempo a su especialidad. Se capacitó en ella, estudia y se informa al respecto y mejora a medida va adquiriendo experiencia.

En un escenario ideal cada uno de los involucrados en la producción de audio debería ser un especialista en su rubro, en la práctica no es así. Veamos quienes son:

[divider_1px]

El proceso compositivo:

Todos solemos pensar que el proceso compositivo implica al brillante compositor y a su musa, en realidad esto no es tan así ya que el proceso puede llegar a ser algo más complejo de lo que aparenta. Veamos los protagonistas de esta parte:

  • El compositor propiamente dicho: Cuando hablamos de compositor nos referimos a la persona que ensambla un tema a partir de la «nada». Esta es la figura más conocida y en la que todos pensamos a la hora de pensar en el responsable de las canciones que escuchamos.
  • Letrista: Es la persona que escribe la letra para la canción, por lo general va de la mano del compositor o está en el seno de la banda, sin embargo existen casos de personas que se dedican solamente a esto. Un ejemplo notable es el de Elton John y Bernie Taupin, poeta que escribió la mayoría de las letras del pianista.
  • Arreglista: Esta es una de las figuras relativamente oscuras de las que hablaba. El arreglador no compone música sino que se encarga de trabajar con música ya escrita y trabaja con las partes de manera de lograr lo mejor de la obra. Algunas de sus responsabilidades son trabajar la armonía, el tempo, la instrumentación, el rango y la estructura de las cancionesUna de las tareas en donde el arreglista/arreglador se hace casi imprescindible es en el ensamble de una sección de vientos para personas que no tienen experiencia con los rangos y dinámicas de dichos instrumentos.El arreglador suele entregar partituras o partes para cada instrumento de manera de que cada uno toque lo que  el arreglista estipuló, la mayoría de las veces las partes que el arreglador entrega están sujetas a la interpretación propia del músico pero respetando lo que se pensó para el tema.

    Por lo general el compositor termina siendo el arreglista y hace el trabajo intuitivamente aunque existen situaciones en las que un buen arreglador se hace imprescindible. Para entender cabalmente lo que es un arreglador pensemos en un tema muy popular que haya sido versionado de distinta manera por diversos artistas. Por citar un ejemplo: Autumn Leaves.

  • Transcriptor/Copista: Esta debe ser la más «oscura» de todas en especial en los últimos años con el advenimiento de software de transcripción como Sibelius/Finale etc. Transcriptor y copista no son estrictamente lo mismo, aunque estan estrechamente relacionados. En esencia el transcriptor toma las partes de una canción y las transcribe en notación musical para que puedan ser entendidas por cualquier músico que sepa leer música.La tarea del transcriptor se hace especialmente útil cuando se necesita registrar temas tanto como propiedad intelectual o para poder percibir los ingresos correspondientes al derecho de autor.Por su parte el copista va de la mano con el arreglista y se encarga de escribir las partes de la canción para cada uno de los instrumentos.
    Pensemos por ejemplo en un tema en Do Mayor, el copista transcribe el tema en Do Mayor transpuesto una octava para guitarra, transpuesto a la tonalidad de La para el saxo barítono y transpuesto a Re para la trompeta.

    Supongamos que tenemos una orquesta con 30 instrumentos para una obra de 200 compases, el copista escribe las partes para cada uno de los instrumentos en la octava que les corresponda y en la transposición que les corresponda de manera de facilitar la lectura. Darle una parte en Do Mayor sin transponer a un saxofonista de sesión en el estudio equivale a un desastre.

[divider_1px]

Pre-producción:

El proceso de pre-producción se puede describir perfectamente comparándolo con el mes de preparación que tienen las selecciones  de fútbol antes de un mundial. Se trata de afrontarse al material de trabajo y moldearlo lo mejor posible para poder llegar al verdadero desafío bien preparados.

  • El productor: Acá es donde entra la famosa figura del productor. El productor es básicamente el nexo entre lo que la banda quiere y lo que a su criterio es lo mejor para el disco. Durante el proceso de pre-producción el productor lo que hace es juntarse con la banda de manera de registrar de manera precaria las canciones que formarán parte del disco para trabajar sobre ellas.En esta etapa el productor decidirá que canciones valen la pena como para llegar al disco y que canciones quedan en el camino. También se debe discutir el sonido de la banda de manera global, por otro lado también se pueden hacer modificaciones en términos de tempo, tonalidad o a la estructura de una canción.

    El proceso de pre-producción puede demorar desde unos días hasta unas semanas/meses dependiendo del presupuesto de la banda y de la necesidad de cambio que se tenga. También cabe recalcar que muchas veces los cambios que no se dan en la pre-producción se pueden dar durante la producción del disco y no existe un límite claro que oficie de separación. Siguiendo con la analogía del mundial se pueden sacar y poner jugadores y cambiar un poco el esquema de juego pero difícilmente se pase de jugar 3-4-1-2 a jugar 4-3-3 o a prescindir del mejor jugador (aunque no niego que pueda suceder).

[divider_1px]

 

La grabación:

Bueno, llegamos al momento definitivo. Estamos por jugar nuestro primer partido, veamos con quienes nos encontramos:

  • Ingeniero de grabación: Su especialidad es la grabación, ha pasado mucho tiempo de su vida grabando y tiene amplia experiencia microfoneando baterías en diversos ambientes, sabe mucho acerca de las técnicas de microfonía estéreo y sabe elegir micrófonos mejor de lo que sabe elegir pareja (Hey ¿Quien sabe elegir pareja?). Una de sus especialidades es captar a la banda en su esencia y lograr que eso quede registrado de la mejor manera posible, en caso de ser necesario sabe usar una grabadora de cinta y hay más posibilidades de que lluevan bitcoins a que se le escape una distorsión. Te puede recomendar un pre-amplificador con los ojos cerrados y te arma una mezcla de monitoreo que te va a dejar boquiabierto.
  • Asistente de grabación: No, no es el encargado de hacer el mejor café que probaste durante una resaca en tu vida. Su función es ser los brazos y ojos del ingeniero de grabación dentro de la sala. Funcionan como una unidad ya que idealmente se conocen y han trabajado juntos, el asistente te arma un par X-Y como si de jugar al solitario se tratase y es capaz de setear una caja directa para reamping en cuestión de segundos. Si el ingeniero de grabación considera que la guitarra no suena como el cree que debería sonar el asistente estará ahí para mover el micrófono un par de centímetros, centímetros que nos pueden parecer inútiles pero que pueden ser una diferencia de la noche a la mañana en cuestión de segundos.
  • Productor musical: Volvemos sobre el productor musical, pero esta vez el productor es un nexo entre la banda y el ingeniero de grabación. El productor puede opinar acerca del sonido de guitarra y puede con un chasquido de dedos hacer que te cambien el Twin Reverb por un Bassman, esa es su función. El productor es el que te comunica que la toma vocal que hiciste es una reverenda mierda y que la tenés que repetir, el productor se encarga de decidir que una canción tiene que ser regrabada al día siguiente de decir que era la toma perfecta.En pocas palabras el productor en esta parte es el que se encarga de que todo salga según lo planeado.La importancia del productor en esta etapa es que es un tercero, a el le podría importa menos que el bajista se come a la novia del guitarrista y por eso están peleados. A él los conflictos y las batallitas de ego le importan lo mismo que el resultado de la Quiniela en Myanmar. Para él lo más importante es la canción como un todo y debe trabajar en pos de lograr que sea la canción la protagonista de la sesión.

[divider_1px]

Post Producción:

Llegamos a la parte más linda y a la que nos dedicamos acá en 7 Notas Estudio. La post-producción equivale a la sección de la revista de modas que tiene que hacer magia con las fotos de las actrices/modelos para que no salgan publicadas como en realidad son.

Ahora, hablando en serio no es que en la post-producción se busque retocar las cosas para engañar pero si que se busca lograr un resultado pulido y  que muestre el mejor aspecto de la banda. Ya hablamos un par de veces de las decisiones artísticas que motivan a retocar o no las canciones pero en esta ocasión explicaremos el flujo de trabajo de una producción que si se retoca mucho:

  • Encargado de la edición del audio: Esta persona es quizás una de las mas menospreciadas y que más trabajo tiene. La persona encargada de editar se ocupa de revisar las grabaciones segundo a segundo y asegurarse de que todo sea «perfecto». La definición de perfecto varía en función del estilo musical, del presupuesto y de la decisión artística pero una gran mayoría de las obras editadas hoy en día pasan por un proceso intensivo de edición.El encargado de edición hace entre otras cosas lo siguiente:-Limpia los sonidos de toda la canciones: Esto implica básicamente sacar todas las impurezas de manera manual o cuasi manual. El sonido de los micrófonos de los tom o las respiraciones de la voz.-Edita las baterías golpe a golpe: Esto implica un proceso intensivo de manera de lograr que la batería y la sección rítmica en general este lo más a tempo posible. Existen bandas que no necesitan este proceso para nada pero lastimosamente la mayoría de las bandas si lo necesitan. Existen distintas formas de hacerlo y la más intensiva es la edición absolutamente manual que como aclaramos aca puede demorar tanto o más que la misma mezcla. -Reemplazo de sonidos / Sound Replacement: Esas baterías gigantescas que escuchaste en el disco de Inserte Nombre Aquí, esas baterías están probablemente «aumentadas» es decir que alguien se pasó buena parte de un día reemplazando golpe por golpe cada uno de los cuerpos de la batería de manera de darle más peso y contundencia. Esto se suele hacer o bien con plugins como Drumagog / Sound Replacer o a mano. Los mejores resultados se logran haciendolo a mano.

    -Afinación Vocal: Hoy por hoy las producciones musicales exigen un nivel de perfección inusitado y para ello echan mano a la edición exhaustiva de audio. Lo que se busca es que cada nota este exactamente donde se supone que tiene que estar. Este proceso también puede llevar unas cuantas horas en caso de hacerse bien y con todos los cuidados necesarios.

  • Ingeniero de Mezcla: El ingeniero de mezcla recibe toda la materia prima y debe procesarla de manera de que lo que salga de sus manos sea algo muy parecido a lo que se espera comercializar. Sus funciones son muchas pero en resumidas cuentas lo que debe hacer es lograr un balance entre todos los instrumentos de manera de que cada uno tenga el protagonismo que se merece. Las decisiones del ingeniero de mezcla suelen ser mas objetivas que subjetivas y de contar con una buena materia prima (apoyado por todos los procesos antes descritos) puede lograr resultados de excelencia. El proceso de mezcla fue descrito con anterioridad acá y acá pero en resumidas cuentas es como el proceso de elaborar un buen plato a partir de buenas materias primas.La idea es lograr una distribución de frecuencias, paneos y dinámicas de manera de lograr que el balance entre los elementos no se pierda nunca. Otro de los aspectos importantes de la mezcla es la aplicación de efectos que es una decisión un tanto más subjetiva en la cual pueden participar tanto el productor como la banda.
  • Ingeniero de Masterización: Llegamos al final de la cadena de producción de audio. El ingeniero de masterización es idealmente una persona que no participó de ninguna manera en el proceso de producción. Idealmente no conoce la canción, su función es aportar una perspectiva fresca y desinhibida. Al no tener nada que ver con el proceso puede detectar ciertas cosas que se le escaparon al ingeniero de mezcla o solamente contribuir a pulir la canción para que sea lanzada.Es además el encargado de lograr que la canción tenga el nivel comercial que se requiere tenga a nivel profesional de manera de competir comercialmente con otros lanzamientos.En una producción bien hecha el ingeniero de mastering es esencial pero tiene una injerencia limitada ya que su función es solamente pulir el resultado sin interferir demasiado en como suena la canción. De hecho, un buen ingeniero de mastering no debería cambiar el sonido de una mezcla sino solamente pulirlo y ensalzarlo. Una mezcla que necesite a gritos un ingeniero de mastering que haga magia es de movida una mala mezcla.

[divider_1px]

Nuestra realidad:

Se que toda la información acá planteada puede parecer irrisoria, en especial para nosotros los que venimos de hacer todo y de todo para nuestras producciones musicales. El problema es acostumbrarnos a esto de abarcar mucho y apretar poco, cosa que es el principal problema en las producciones amateur. Producciones sinceras pero que carecen de los cientos de horas que cada especialidad requiere por su cuenta.

Probablemente nunca lleguemos al nivel de especialización que tienen muchos estudios de afuera o las super producciones multinacionales, lo único que quería lograr con este artículo era que nos demos cuenta que detrás de un simple disco hay muchísima gente involucrada y que no es posible lograr que algo suene bien solamente masterizandolo o haciendo una mezcla a partir de una grabación defectuosa.

No se trata de desilusionar a nadie sino de ilusionarlos a mejorarse y no conformarse con un resultado mediocre. Yo por una razón u otra me terminé decantando mucho más por la mezcla y masterización que otra cosa, llevo ya casi 8 años haciendolo de manera ininterrumpida y cuando me toca grabar me tengo que poner a leer y a repasar conceptos y aún así siento que me falta, creo que todos los que nos dedicamos a la producción nos deberíamos preguntar donde estamos parados en el proceso y ser realistas si queremos lograr buenos resultados.

Conclusiones:

Hicimos un repaso por todos los roles que están involucrados en la producción de un disco, o por lo menos de los que tienen algo que ver con la música en si. La idea del artículo es concientizar de cuales son las verdaderas responsabilidades de cada uno de los que tienen que ver con la música que escuchamos.

Esto lo hago para incentivar a que cada uno busque una especialidad y trate de dejar un poco la filosofía de hacer todo pero hacerlo mal o mediocremente, a la larga vamos a ahorrar mucho dinero y frustraciones.

 

 

Read More
Acústica Acústica y Sonido

Entrevista a David Casadevall especialista en acústica

Entrevista a David Casadevall. Especialista en acústica

Tuvimos el gusto de entrevistar a David Casadevall de Acústica Web. David es un arquitecto especializado en acústica, su página web tiene información muy interesante de acústica en general, psicoacústica, recintos e incluso un glosario completísimo de términos de acústica. David es español y escribió además un libro muy interesante sobre la norma DB-HR de la que nos habla en la entrevista.

La idea de esta nota es acercar la opinión de una persona con experiencia a los lectores del blog. Hay muchas cosas interesantes en especial en lo que tiene que ver con el efecto del ruido en nuestras vidas y las posibles soluciones a los problemas más comunes en términos acústicos a los que nos solemos enfrentar.

Veamos que nos puede contar David con respecto a nuestras inquietudes:

La entrevista

Hola David, antes que nada saludarte y agradecerte por darnos la oportunidad de contar con tu experiencia en el blog, la idea es hacerte unas cuantas preguntas para tratar de  ayudar a concientizar a la gente en cuanto a la importancia de la acústica aplicada en la vida diaria, tanto para el músico como para el ciudadano por decirlo de alguna manera.

Escuché tu entrevista con la Radio Nacional de España y me llamó la atención el dato que diste sobre el estudio que dice que el sentido del gusto se ve deteriorado en los aviones por el nivel de ruido que hay, cosa que habla a voces del problema del ruido.

¿Hasta qué punto crees que el ruido puede afectar la vida de las personas hoy en día?

La exposición al ruido es desigual o distinta entre las personas. Por ejemplo  la gente que trabaja en la calle de una ciudad está expuesta a altos niveles de ruido y este le produce agotamiento, incluso puede llegar a no dejarnos pensar con claridad.

Por otro lado las personas que están expuestas a ruidos inconstantes, como por ejemplo cerca de un aeropuerto, tienden a tener momentos de relax pero momentos de ruido durante los cuales sus cuerpos generan hormonas «estresantes».

Luego está el caso contrario, la gente que va a un concierto o una carrera de automovilismo, donde el ruido es excitante y les produce bienestar.

Todos los ruidos nos afectan de alguna u otra manera, ya sea el ruido constante en el interior de un avión o el ruido de un grifo mal cerrado, pero nuestro cerebro está programado para generarnos estrés con los ruidos inconstantes.

¿Crees que el ruido es  tenido en cuenta lo suficiente por las autoridades que tienen el poder de hacer algo?

Cada vez este tema está más legislado y controlado. Hay zonas o lugares donde la gente es muy consciente del problema y en otras todavía se debe legislar y sobretodo hacer campañas de concientiación para que la gente genere menos ruido en su vida diaria,  esto también lo tienen que potenciar las autoridades.

¿Qué consejos le darías al músico que tiene un homestudio o estudio de grabación casero con respecto al acondicionamiento acústico e insonorización?

Acondicionar una sala para tocar música es básico; primero porque hace que el recinto tenga una mejor respuesta al instrumento y segundo porque baja un poco el nivel de sonido o ruido al interior del recinto.

Muchos instrumentistas de viento tocan en sus casas y el nivel de sonido que generan es preocupante para sus oídos. Un espacio bien acondicionado puede bajar de 4 a 7 dBA, decibel ponderado en la curva A, el nivel de sonido y eso es mucho.

En un homestudio el acondicionamiento  se hace más necesario, se debe evitar toda coloración del espacio colocando estratégicamente paneles absorbentes. Este proceso es diferente para cada tipo de espacio. Actualmente hay aplicaciones que pueden calcular la coloración de la habitación y luego buscar los materiales absorbentes para reducirla. Respecto al aislamiento, mucha gente es más consciente y hay cada vez más recintos con el aislamiento necesario.

A veces el tratamiento se hace de manera muy rudimentaria, haciéndolo uno mismo, y otras contratando una empresa. Lo mejor es prever a que vecinos podemos afectar y colocar los materiales necesarios para hacer un sistema multicapa donde tengamos aislamiento a diferentes frecuencias: placas de yeso, láminas pesadas, lana de roca, etc… Cada caso es diferente, pero en general estos tres materiales ayudan a conseguir una buena mejora del aislamiento.

En cuanto al nivel de sonido de escucha o de monitoreo para mezcla ¿Qué tipo de consejos podrías dar al respecto?

Aquí hay tendencias, gente que escucha a un nivel elevado y gente que escucha a un  nivel bajo. He conocido gente de todo tipo y todos tienen sus argumentos. Pero si que es verdad que últimamente los técnicos tienden a escuchar a un nivel moderado, sin estridencias.

¿Crees que es posible obtener una buena acústica acondicionando habitaciones pequeñas? Por otro lado ¿Cuál crees que es la ventaja de contar con habitaciones más grandes tanto para grabar como para escuchar/mezclar música?

Depende, ciertos instrumentos no se escuchan bien en habitaciones pequeñas. Un contrabajo por ejemplo requiere de un espacio grande para desarrollar su sonido, al igual que un piano.

A pesar de que se use microfonía cercana, también es necesario tener otros micrófonos en el campo lejano para dotar de más profundidad y carácter al sonido.

Las habitaciones grandes no suelen tener tantos problemas de coloración y siempre son mejores para grabar e incluso para escuchar y mezclar. Pese a que a veces se tiene que colocar resonadores de Helmholtz para reducir alguna frecuencia de manera de que no coloree la señal.

¿Qué opinas acerca de acustizar una sala con paneles prefabricados de marca sin realizar medición ni cálculo alguno?

Es preferible hacer un pequeño análisis de la sala antes de hacer un tratamiento, hoy en día es posible hacerlo uno mismo sin gastar demasiado.

Este análisis nos permite saber como responde nuestra sala para actuar en consecuencia. Pero hacer un tratamiento o colocar productos sin antes saber si los necesitas nunca es bueno.

¿Qué opinión tienes de las denominadas “trampas de bajo”? ¿Crees que son efectivas o hay métodos más efectivos de controlar las bajas frecuencias?

Me parece una solución interesante si tienes un problema generalizado en el rango de las bajas frecuencias. Pero a veces puedes tener algún modo propio, una frecuencia que destaca encima de las otras y entonces es mejor realizar un resonador de Helmholtz sintonizado a dicha frecuencia.

En tu opinión ¿Qué tipo de presupuesto debería dedicar el aspirante a hacer grabaciones semi-profesionales / profesionales al tratamiento acústico?

Esto es muy relativo, no puedo dar un valor monetario. Creo que lo mejor es conseguir que tu sala se escuche correctamente, aunque sea con materiales económicos y/o feos. La estética ya vendrá con el tiempo y siempre uno va haciendo ajustes.

Escribiste un libro acerca de la norma DB-HR ¿Que podrías contarnos al respecto de la misma?

Esta es una norma española sobre aislamiento acústico y un poco de acondicionamiento. Hasta el año  2007 no existía una norma que fuera clara y concisa para conseguir el aislamiento.

Esta norma era un primer paso en el tema, pero resulta muy compleja para los profanos en acústica y es por eso que decidí hacer un libro comentándola y ofreciendo algunos ejercicios de cálculo.

Al parecer el libro gustó y desde los legisladores han realizado una guía siguiendo el espíritu de mi libro: explicar de manera sencilla y con ejemplos como calcular el aislamiento acústico.

Read More
Trucos Pro Tools Tutoriales

Como usar la función playlist en Pro Tools para hacer tomas maestras a partir de varias tomas

Como usar la función playlist en Pro Tools para compilar tomas maestras.

«Que genio! ¿Viste como grabó todo en una toma? Encima fue la mejor toma de su vida» Eso es lo que te diría si estuviese a tu lado en una sesión absolutamente exitosa, pero todos sabemos que suelen ser las menos y por eso vamos a ver como podemos sacarle provecho a la función playlist en Pro Tools para poder compilar tomas maestras a partir de varias tomas.

A esto en inglés se lo denomina «comping» y la idea en este artículo no es necesariamente explicar que es el comping sino aprender a ahorrar tiempo usando esta útil función de Pro Tools

¿Cómo hacer para guardar múltiples tomas en la misma pista?

Muchas veces cuando no tenemos del todo definida una toma y queremos tener múltiples versiones de la misma línea vocal o solo de guitarra podemos usar la función playlist de  Pro Tools.

Lo que hace  esta función es guardar regiones de audio en capas «debajo» de la pista original, ocultándolas cuando no se están usando.

Esto es muy útil ya que al tener varias tomas vocales por ejemplo, se nos empieza a hacer un problema importante mantener el orden en la sesión. Me tocó grabar y regrabar tomas vocales y de instrumentos solistas y en poco tiempo tener 6 u 8 pistas ocupadas por regiones desparramadas por toda la sesión ¡Un caos total!

Si tenemos grabada la primera toma pero queremos seguir grabando tenemos que buscar en la pista la opción de New playlist y escoger un nombre. Si la pista de la voz se llama LD.VCL (por Lead Vocal)  el nombre puede ser algo como LD.VC.T2 para recordar que es una segunda toma y así sucesivamente, siempre es bueno mantener el orden.

Para accceder a la creación de una playlist tenemos hacer click en el triángulo a la derecha del nombre de la pista y seleccionar new, como se observa en la imagen.

Nueva Playlist en pro tools

Vista de la creación de una nueva playlist en Pro tools.

Abajo mostramos como se ve el cuadro de diálogo en Pro tools para nombrar la nueva playlist.

Vista del nombre de un playlist

Vista de un playlist vocal en Pro Tools.

Mantenlo simple

Hoy grabar horas y horas de música es más accesible que nunca. El software y los precios cada vez más bajos de los medios de almacenamiento digital hacen que nos sintamos tentados a grabar por grabar.

Personalmente recomiendo que se trabaje la música, voces, letras, solos, etc, antes de siquiera pensar en apretar el botón de grabar, de lo contrario vamos a terminar con una ensalada interminable de tomas que no son útiles o que no transmiten nada.

Una buena idea es mantener la cantidad de tomas en un número razonable. Por ejemplo hacer tres o cuatro tomas vocales cuando está todo trabajado debería dar un resultado más que óptimo desde todos los puntos de vista. Los mejores resultados se suelen dar en las primeras tomas, la performance artística suele ser espontánea y son raros los casos en los que logramos una mejor toma despues de 25 intentos que en los primeros 3 o 4.

El mismo concejo se puede aplicar para todo lo que grabemos, por ese motivo que el estudio no sea un lugar para practicar las partes de cada instrumento sino un lugar en el que podemos registrar una performance artística e irrepetible.

¿Cómo puedo usarlas después?

Una vez que tenemos todas las versiones de las tomas grabadas y estamos contentos con los resultados, tenemos que componer una toma maestra o hacer el Comping. Para ello vamos a tener que escuchar todas las tomas y seleccionar lo mejor de cada una, hasta conseguir la toma que estamos buscando.

Para hacerlo podemos darle uso a la vista de playlist que tiene Pro tools, es una de las opciones además de la vista de waveform o forma de onda. Al elegir esta vista se despliegan todas los playlist que creamos con las respectivas regiones de audio una debajo de la otra.

Posteriormente vamos a necesitar navegar hacia las distintas tomas y la manera de hacerlo es seleccionando la parte que queremos escuchar y usar el comando para ir hacia la pista inferior o superior. En Mac  se hace con las letras «P» y «Ñ». En PC para mover el cursor manteniendo la selección usamos «P» y «;».

Selección en playlist

Selección de una región de audio dentro de una playlist en pro tools. En verde se resalta el botón que se activa para llevar la selección a la pista maestra.

Cuando movamos la selección hacia un playlist inferior vamos a ver que se activa una opción/botón en la pista. Este botón tiene la función de al darle click mover la selección del playlist en que estemos a la pista original. Por lo tanto podemos ir seleccionando parte por parte lo mejor de cada playlist y pegarlo, sin que se mueva la región o pase nada raro, a la pista original.

Para escuchar cada versión o toma vamos a tener que hacer solo en el playlist que tengamos la selección. Si además queremos solear la pista tenemos que hacerlo en la pista original.

Solo a playlist

Ejemplo de la forma de escuchar en solo una playlist. Resaltado en verde.

Una vez tengamos la toma maestra hecha podemos ir hacia la pista original, volver a la vista waveform/forma de onda y hacer los fades o transiciones entre las distintas partes, buscando que la toma final sea totalmente transparente. El tipo de fade recomendado es el crossfade, que genera un fade de entrada y otro de salida.

 

Playlist crossfade

Vista de un Crossfade entre dos regiones de la pista maestra en Pro tools.

 

Conclusiones

Hacer de manera manual lo que explicamos en este artículo puede ser una tarea tediosa, en especial si tenemos que lidiar con muchas tomas y muchos instrumentos y por eso la función playlist en Pro Tools simplifica y acelera esta tarea.

Por otro lado el hecho de que podamos compilar tomas y grabar cientos de horas de música no quiere decir que tengamos que hacerlo y por lo general los mejores resultados se logran de manera espontánea. Lo ideal es trabajar las partes antes de grabarlas y en el caso de necesitar repetir las tomas tratar de que no se haga un proceso muy largo porque puede perjudicar negativamente sobre el resultado final.

Esperamos que esta pequeña función les haga el flujo de trabajo y la vida más facil y productiva. Como decimos siempre experimenten con la herramienta, prueben y busquen la forma que mejor encaja en su flujo de trabajo.

¿Existe en tu DAW una herramienta similar?

 

Read More
Mezcla

Que esperar de una buena mezcla

¿Que esperar de una buena mezcla?

Lidiar con las expectativas de un cliente es una de las cosas que mas ansiedad puede generar a la hora de mezclar o masterizar por eso vamos a hablar de la importancia que le tenemos que asignar a cada parte del proceso y que es lo que podemos esperar en realidad de una buena mezcla.

Una buena mezcla no es magia vudú ni astrofísica, es resultado de un ingeniero con experiencia haciendo que cada cosa tenga su espacio. Ahora la idea de este artículo es explicar las razones por las que una buena mezcla empieza en una sala de ensayo o incluso de manera abstracta en nuestros cerebros.

El corazón de la mezcla: La grabación

Ya hablamos acerca de la importancia de una buena grabación y dimos algunos consejos acerca de como sacar lo mejor de una sesión de grabación, sin embargo hablar de una buena mezcla y no hablar del proceso de grabación es como hablar de una receta sin mencionar los ingredientes: Mezcle 500 gramos con 200 gramos, sazone a gusto y deje a fuego lento por 40 minutos ¿Suena a un plato que comerías seguido?

La materia prima siempre es lo más importante, es responsabilidad de un buen cocinero saber elegir la materia prima y canalizarla en algo que todos se peleen por comer. Lo mismo ocurre con las mezclas, muchas veces nos pasa de que queremos sacar agua de las piedras y nos frustramos cuando nos damos cuenta que nuestras mezclas no suenan bien, pero no nos damos cuenta que gran parte de la culpa reside en el hecho de que la grabación por si sola no es demasiado buena.

Si tuviésemos la oportunidad de escuchar las pistas sin procesar de muchos de los discos que nos comen la cabeza nos daríamos cuenta que en crudo ya suenan bien y que lo que resta por hacer es pulir eso y hacer que todo esté en su lugar sin interferir con la parte artística, buscando siempre un balance y buscando que destaque lo que tenga que destacar.

El mensaje de fondo es que no esperemos que una mezcla haga magia sobre una grabación desastrosa y asignemos a cada parte del proceso el justo peso que le corresponde. Esto no quiere decir que la mezcla no sea importante

El paso intermedio: La edición

¿Alguna vez te preguntaste por qué a pesar de seguir una receta que bajaste de internet los platos no te salen igual que cuando compras la comida?

La respuesta está en los detalles, que según dicen algunos es en donde reside la perfección. En el caso del audio los detalles están en todos lados pero uno de los más subestimados es el proceso de edición, que a pesar de ser muy tedioso y de consumir mucho tiempo puede hacer escalar nuestra producción un par de escalones.

Veamos de que se trata:

  • Limpieza de las pistas: Esto implica limpiar de información no deseada (ruido) las pistas de audio con las que lidiemos. Esta limpieza puede consistir en silenciar el bleeding en los micrófonos cuando no esten tocando o en eliminar las respiraciones de un cantante. El limpiar o no las pistas depende mucho del estilo de música pero es vital tenerlo en cuenta.
  • Edición de baterías/sección rítmica: Esto implica ajustar una performance de batería a una grilla. Esto se puede hacer de tal manera de hacer que la toma sea perfecta o simplemente de limar algunas asperezas. La cantidad de edición va a depender del género musical y del nivel de proficiencia del instrumentista. El secreto en este paso es trabar con fragmentos de la canción (4 compases por ejemplo) e ir escuchando el resultado a medida que editamos.
    El proceso puede ser MUY TEDIOSO e incluso puede demorar el mismo tiempo que la misma mezcla pero si se hace bien puede lavarle la cara por completo a la grabación. Existen varias formas de hacerlo como por ejemplo usando Beat Detective en Pro Tools, alguna herramienta de edición que pueda estirar y acortar el audio como Elastic Audio / Flex Time e incluso manualmente (que es la forma como se editan muchas superproducciones). Para hacernos una idea, editar manualmente una pista de batería de 4 minutos puede demorarnos con facilidad toda una tarde.
  • Edición de instrumentos armónicos: También es posible editar los instrumentos ajustándolos en términos de tempo. Los fines que se buscan son los mismos que con la edición de la sección rítmica.
  • Edición de cualquier instrumento en términos de afinación: Esto implica llevar todas las notas que se tocaron a la nota que se buscó tocar o a un lugar cercano de manera de que suene natural. Se suele hacer con las voces y es MUY importante tener esto en cuenta cuando tenemos armonías vocales puesto que es imprescindible editarlas si no sonaban bien en la grabación.
  • Comping o elaboración de «tomas maestras»: Este proceso consiste en elegir pedacitos de toma entre varias toma para elaborar una toma que sea mejor que cualquiera de las tomas aisladas. Este proceso también puede consumir mucho tiempo si no se limita la cantidad de tomas en la grabación.
  • Sound Replacement / Enhancement: Este proceso implica reemplazar muestras de un instrumento por muestras del mismo o de otros instrumentos. Supongamos que queremos lograr un sonido de bombo muy contundente, además de usar la compresión de audio a nuestro favor se suelen reemplazar o sumar cada golpe de bombo con una muestra que suene muy contundente. Esta técnica se ha popularizado mucho a raíz de grabar baterías en condiciones poco favorables y es una de las formas más prácticas de lograr un buen sonido de batería de manera «casera

Hay que aclarar que no siempre es obligatorio editar y queda a criterio de cada uno hacerlo o no. Lo que si, en una gran mayoría de casos se logran mejores resultados e incluso existen géneros musicales donde no editar equivale al suicidio (cierto tipo de metal, pop etc). También existen géneros musicales donde editar equivale al suicidio (jazz, blues por ejemplo)

Aunque parezca estúpido o contraproducente, editar puede consumir igual o más tiempo que mezclar y en muchos casos suele ser el proceso más subestimado por los productores amateur.

Finalmente la mezcla

Hemos dejado este apartado para el final ya que sin todos los anteriores elementos es imposible lograr una buena mezcla. Ahora veamos en que consiste una mezcla y más aún una buena mezcla.

En la mezcla buscamos la correcta representación de todos los elementos que componen la canción/grabación. Para lograr este objetivo global primeramente se necesitan tener bajo control ciertos aspectos técnicos, para luego poder dar rienda suelta a la parte creativa y artística de la misma.

Repasemos algunos de los aspectos técnicos a tener en consideración:

  • La correcta distribución frecuencial: Tal vez una de los aspectos más importantes ya que necesitamos que la mezcla se traslade no solamente en monitores de estudio y en acústica controlada si no a una multitud de sistemas de reproducción posibles.Para lograr que nuestra mezcla o lo esencial de la misma se traslade es necesario que los elementos que la componen estén distribuidos por el espectro frecuencial.Si por ejemplo tenemos un exceso de energía en los bajos vamos a tener menos energía restante para distribuir entre los medios y agudos. De lo contrario nos encontraremos con la pared de la distorsión que va a aparecer rápido si no tenemos la energía repartida. Pensemos que lo que reciben los parlantes/monitores es potencia eléctrica y que esta es una sola así que si nos gastamos casi toda esta potencia en los graves queda poco o nada para los medios y agudos.
  • Las correctas etapas de ganancia o gain staging:  En el mundo digital como en el analógico se deben respetar ciertas normas respecto a los niveles óptimos de funcionamiento de cada uno de los procemientos que se llevan a cabo en la mezcla independientemente del nivel o plano artístico que se busque luego.Es decir no es lo mismo llegar a los faders con todos los elementos distorsionando o con altos niveles de distorsión que llegar con una señal limpia que nos permite tener un nivel extra antes de la distorsión para mezclar (headroom).Para lograr esto se requiere darle el nivel adecuado a cada uno de los elementos/pistas que componen nuestra grabación en primera instancia antes de ecualizar/comprimir, etc.Logramos esto usando alguna instancia de control de ganancia al comienzo de nuestra cadena de procesamiento (el equivalente a la ganancia o gain en una consola de mezcla) buscando un nivel que este lejos de la distorsión o cliping, que nos permita el procesamiento subsiguiente y que nos aleje del ruido de fondo.
  • El filtrado de todo lo que no sirve: La siguiente etapa en la lista es el uso correcto de filtros tanto pasa altos HPF como pasa bajos LPF para deshacernos de toda la energía que no necesitamos en la mezcla ya que en la inmensa mayoría de las veces y cuando tenemos arreglos densos o con muchos instrumentos/pistas necesitamos acotar la energía de cada uno de tal manera que puedan entrar como conjunto.Esto se condice por lo mismo con la distribución frecuencial. Lo bueno del filtrado es que el sistema auditivo/ cerebro es bueno recomponiendo sonidos a los cuales les falta algo (por ejemplo a los que filtramos cierta parte de la información de los bajos innecesaria) ya que el mismo es capaz de agregar las fundamentales a un sonido que le fueron removidas.De la misma forma le es muy difícil interpretar algo que le sobra información, que sería equivalente a que en todas las pistas se dejen todo el contenido frecuencial rápidamente nos quedamos sin energía disponible y sónicamente se hace una masa de sonido ininteligible.
  • Balance en nivel de  los elementos: A pesar que podría ser considerado como un punto artístico muchas veces se trata de algo técnico. Me explico, por razones que tienen que ver con la distribución frecuencial necesitamos que los elementos clave como el bajo, las baterías, guitarras, voces, etc. tengan un adecuado balance independientemente de lo artístico para poder cubrir los espacios frecuenciales de manera óptima y que por lo tanto la música no tenga deficiencia o exceso en los bajos, medios ni agudos. Obteniendo un buen balance en nivel podemos asegurarnos que ningún rango de frecuencias sobresalga demasiado causando estridencia o falta.
  • Balance panorámico: Si bien este punto también bordea la línea de lo estético también es un elemento imprescindible en lo técnico. Llamese balance panorámico a la distribución en el panorama estéreo de los elementos que componen nuestra canción/grabación.No todos los elementos pueden estar al centro ni tampoco en los extremos, lo que buscamos es que algunas cosas imprescindibles estén en el centro (la voz, el bajo, el bombo, el tambor) ya que es muy incómodo y potencialmente problemático que por ejemplo el bajo esté de un lado solamente además que causaría que si estamos en una configuración de escucha distinta al estéreo ideal vamos a escuchar solo los bajos siguiendo el ejemplo anterior.Por otro lado los demás elementos se suelen distribuir dentro del resto del panorama estéreo y dependiendo de la densidad del arreglo/número de pistas vamos a tener que usar sabiamente el espacio desde izquierda y derecha completa hasta el centro. Para lograr esto vamos a tener que buscar un lugar para cada elemento y tratar de que por ejemplo dos elementos complementarios como guitarras rítmicas se ubiquen una a cada lado, lo mismo hay que hacer con todos los elementos tratando de buscar que sean complementarios en frecuencia o en figuras rítmicas para que la distribución sea equitativa y el resultado agradable.

[divider_1px]

Conclusiones:

Una buena mezcla puede ser la diferencia entre algo sonando en todo su potencial, con vida y algo insulso y sin vida. Sin embargo siempre tenemos que saber que a la hora de lograr una mezcla realmente buena no existen atajos y todo empieza con la planificación, la grabación y en general con la materia prima con la que se pueda contar.

Quiero aclarar que todo lo que se expone acá está pensado para grabaciones con instrumentos en vivo aunque se podría extender un poco a los instrumentos virtuales en cuanto a como los hacemos sonar en términos de imitar a sus contrapartes reales, como por ejemplo programar una batería o un saxo teniendo en cuenta la dinámica, las articulaciones y haciendolo sonar como sonaría de ser grabado en vivo.

El objetivo del artículo es solamente machacar un poco más sobre la verdadera importancia que tiene el proceso de producción desde el momento cero. Un saludo y a mezclar!

Read More
5 minutos Tutoriales

Problemas de Fase: Aprendiendo a resolverlos.

Problemas de fase: Como resolverlos

Si alguna vez grabaste o mezclaste baterías acústicas sabes lo difícil y problemático que puede llegar a ser lograr un resultado convincente. Uno de los problemas más frecuentes es la cancelación de fase que se produce debido a que múltiples micrófonos captan una misma fuente. Como reza el dicho «Un micrófono un problema, 2 micrófonos 2 problemas» o dicho de otra manera, a mayor cantidad de micrófonos usemos para grabar algo mayor atención le vamos a tener que prestar a los problemas de cancelación de fase. En este artículo vamos a ver como solucionar los problemas de fase entre los distintos micrófonos de la batería para poder conseguir un sonido mucho mas contundente y con mejor timbre.

¿Qué son los problemas de fase o polaridad?

Cuando tenemos un sonido u onda sonora que llega a dos micrófonos distintos separados por una distancia ocurre que el sonido llega primero al micrófono que se encuentra más cerca de la fuente y luego de un tiempo al que está más lejos.

Recordemos que la velocidad del sonido es de aproximadamente 344 m/s en el aire y a temperatura ambiente de 20 grados centígrados. El problema nace cuando las dos señales son sumadas ya sea en la mezcla o cuando estamos monitoreando la grabación. Como el sonido del segundo micrófono tiene el mismo contenido en frecuencia pero está retrasado/desfasado en el tiempo, al sumarse ambas señales la amplitud disminuye por la presencia de cancelaciones de fase.

Estas cancelaciones son más prominentes en las bajas frecuencias y pueden causar que la suma pierda una cantidad considerable de cuerpo o graves. La polaridad es por otro lado un caso especial de desfase, se trata de un desfase de 180 grados y si las ondas sonoras son exactamente las mismas se produce una cancelación total del sonido resultante.

Las consolas y D.A.W traen provistos de interruptores de inversión de polaridad. La razón por la que las ondas se cancelan tiene un fundamento matemático, las funciones trigonométricas que modelan el comportamiento de las ondas sonoras establecen máximos y mínimos, que equivalen a los valles y los picos de las ondas.

Para no entrar en demasiados detalles se le puede asignar una amplitud de +1 a los picos y -1 a los valles, así podemos entender que cuando sumamos dos ondas que son exactamente iguales pero invertidas en polaridad obtendremos una amplitud de 0. Este problema se acrecienta a mayor cantidad de micrófonos y como podemos imaginar es especialmente molesto al grabar baterías acústicas que es el ejemplo por excelencia de grabación con múltiples micrófonos.

Suma de ondas

Vista de la forma de onda de dos señales (color verde y violeta) iguales en amplitud y frecuencia sumadas constructivamente (En fase). La suma resultante en rojo.

 

Suma de ondas invertidas en polaridad

Vista de la forma de onda de 2 señales iguales en amplitud pero una de ellas (la violeta) está invertida en polaridad. La resultante en rojo es silencio ya que se cancelan.

¿En dónde hay que tener cuidado? 

Siempre hay que intentar revisar mientras grabamos que los overheads y room mics sigan los principios básicos de microfonía. Seguir la regla 3:1 es una buena idea al grabar. Esta regla dice que cada vez que agregamos un segundo micrófono este debería estar a 3 veces la distancia con respecto al primer primero que la distancia entre el primero y la fuente.

Otro lugar en el que tenemos que poner mucha atención es si grabamos el tambor con un micrófono superior y otro para las bordonas. Aquí es casi seguro que el micrófono que capta las bordonas va a captar una onda invertida en polaridad respecto al micrófono superior, induciendo cancelaciones de fase, ya que la onda sonora llega con una presión positiva al primer micrófono y una negativa al micrófono de abajo.

Además tenemos que revisar lo que sucede entre los Overheads y el Bombo, tambor y toms, para obtener el sonido más lleno y contundente posible.

¿Con qué herramienta me puedo guiar?

Afortunadamente tenemos una herramienta que nos puede servir para asegurarnos que estamos en el camino correcto respecto a la fase. Me refiero a los correlatores de fase que en muchos casos vienen incluidos en nuestras D.A.W. Lo que hace esta herramienta es comparar el canal izquierdo contra el derecho para ver si al sumarse se van a sumar constructivamente o si se van a restar  causando cancelaciones, que se traducirían en pérdidas de sonido.

Para usarlo hay que insertarlo en el master fader o en el subgrupo al que lleguen todas las pistas, para poder revisar la fase pista por pista con solo solear la pista deseada o de toda la mezcla cuando suenan todos los canales. Los correlatores vienen en muchos formatos por ejemplo: como osciloscopio en el que se observan puntos dispersos en el espacio con una cierta figura. Otra forma de correlator es una aguja que nos marca una posición entre el -1 y el 1.

Lo que tenemos que buscar cuando usamos un correlator de fase es siempre estar cerca de +1 y nunca pasar a la zona negativa de la medición. El +1 significa que todo el contenido está perfectamente en fase y el -1 significa cancelaciones muy grandes. Si bien tenemos que buscar estar cerca del +1, ya que la música cambia constantemente en el tiempo siempre va estar cambiando este valor y lo importante es que en promedio estemos cerca de ese valor.

Phase scope Pro tools

Correlator de fase Phasescope incluído en Pro tools. En naranja resaltado el osciloscopio y en verde la aguja de fase.

Correlator de fase Waves

Correlator de fase de Waves. En verde resaltado la forma de visualizar la fase de este plugin.


[optin-monster-shortcode id=»xwjauffiwarrci1h-2″]


¿Cómo se hace?

Lo que tenemos que hacer para solucionar/minimizar este problema es acudir a un plugin que nos permita invertir la polaridad en nuestros canales. Ya sea al grabar en la consola o en nuestra D.A.W, un ejemplo de este plugin es la herramienta Trim en Pro tools.

Existen numerosos plug ins con los  que podemos invertir la polaridad, por ejemplo en ecualizadores, simuladores de canales de consola, etc. Una vez tenemos seleccionado el plugin con el que revisaremos la polaridad, tenemos que seleccionar una señal/canal de referencia, por lo general es una buena idea elegir los Overheads ya que todas las señales tienen que funcionar bien con respecto a ellos. Repasemos entonces los pasos a seguir para revisar la polaridad/fase:

  • Seleccionar el canal de referencia:  En este caso los Overheads, si tenemos la señal en un canal estereo es preferible dividirla a dos canales mono para realizar las pruebas siguientes.
  • Colocar el plugin inversor de polaridad en los Overheads: Para ello es necesario que los canales Izquierdo y Derecho estén en mono así podemos colocar una instancia del plugin en cada uno, como inserción en el canal.
  • Invertir la polaridad de uno de los canales de los Overheads: A continuación escuchar atentamente el sonido de los overheads con la inversión y sin ella. Tenemos que buscar una reducción del cuerpo o graves. Una vez encontramos la posición de polaridad que nos dá más graves la dejamos ahí.
  • Comparamos el resto de canales contra los Overheads: Tenemos que ir soleando canal por canal en conjunto a los overheads y colocar en cada caso el inversor de polaridad en el canal a comparar, por ejemplo en el bombo. Buscamos la posición de polaridad que más graves nos dé y la dejamos ahí.
  • Especial atención cuando usamos dos micrófonos en un solo cuerpo: Tal es el caso clásico del tambor con micrófono superior y en las bordonas. Aquí lo que tenemos que hacer es primero comparar las dos señales del tambor entre sí, elegir la posición con mayor cuerpo y mejor timbre. Luego crear un canal auxiliar para mandar la suma de ambas señales y en ese canal aplicar nuevamente el plugin de polaridad. Finalmente comparar contra los Overheads desde este canal.
  • Repetir el proceso para el resto de la batería: Tener en cuenta si tenemos otros cuerpos grabados con dos micrófonos hacer el mismo procedimiento que con el tambor, para comparar correctamente las partes.
  • Recordemos igualar el nivel de las señales: Tenemos que tener en cuenta que todo esto se trata de sumas de señales y como tal necesitamos compararlas equitativamente. Es decir si los Overheads tienen un nivel de volúmen dado cuando los comparamos contra el bombo tenemos que igualar a oído los niveles, para que en la suma se note si una de las señales está invertida en polaridad.
  • Quitar todos los filtros momentáneamente: Ya que se trata de un problema que afecta a las bajas frecuencias primordialmente, para poder notar la diferencia entre las polaridades debemos quitar todos los filtros de la batería mientras comparamos.

Por otro lado si usamos micrófonos de Room lejanos vamos a ver que por lo general no es necesario revisar la polaridad, ya que se trata de una señal que al ser captada desde una distancia grande, cuando se suma con las demás el nivel es bajo comparativamente y no causa pérdidas en graves.

Herramienta trim inversor de polaridad

Vista de la herramienta trim. En rojo resaltado el inversor de polaridad del plugin.

Eq inversor de polaridad

Vista de un plugin de ecualización que incluye un inversor de polaridad, en rojo.

Inversor de polaridad en plug in g-channel

Vista de un plug in emulador del canal de una consola. En verde resaltado el inversor de polaridad.

Arriba vemos tres opciones de plugins que incluyen un inversor de polaridad en su diseño. Específicamente la herramienta trim, un ecualizador, ambos de Pro Tools y un simulador de canal de consola G-Channel de Solid State Logic.

Ejemplos de audio:

Nota: Escuchar a un nivel medio o con audífonos para apreciar las diferencias!! Overheads: Invertimos la polaridad de uno de los canales de los Overheads y el resultado es un sonido delgado sin cuerpo y que confunde en cuanto a su localización. Primero sin invertir, luego invertida.

Bombo: Invertimos la polaridad de uno de los dos canales/micrófonos del bombo. El resultado es un sonido con menos cuerpo y con el timbre modificado. Primero sin invertir, seguido de invertido.

Bombo contra Overheads: Esta vez enviamos los dos canales del bombo a un auxiliar y ahí invertimos la polaridad, contra los Overheads. Podemos notar un cambio en el cuerpo del sonido, primero sin invertir luego invertido.

Tambor/caja/tarola: Invertimos la polaridad del micrófono/canal del tambor de abajo o bottom, respecto al de arriba. El resultado es un sonido con mucho menos cuerpo y más metálico (cuando el canal de abajo no está invertido). Primero sin invertir y luego invertido.

Tambor/caja/tarola contra los Overheads: Misma situación que con el bombo enviamos a un auxiliar los dos canales de la caja y los invertimos en polaridad, contra los Overheads. Se nota un sonido disminuido en cuerpo/peso. Primero invertido luego sin invertir.

Finalmente las baterías completas:  Llevando al extremo el problema invertimos la polaridad de uno de los Overheads, el bombo, el canal de la bordona. Se escucha un sonido con muy poco peso y con un timbre metálico. En cambio cuando todo está en fase se escucha una batería drásticamente distinta.(Primero con la polaridad equivocada y luego corregido)

Conclusiones

Sin lugar a dudas grabar y mezclar una batería es una tarea difícil y entre las dificultades que nos encontramos una de las principales es la suma de estas señales y ojalá la suma sea constructiva.

Para asegurarnos que nuestras señales de la batería está sumandose correctamente tenemos que revisar la polaridad en todos los canales respecto a una señal de referencia que por lo general son los Overheads.

Si bien no es una tarea muy agradable o «artística», es vital para lograr baterías con un sonido contundente en graves. Además este tipo de problemas no se puede solucionar con ecualización u otra herramientas.

Read More
Articulos

Técnicas de microfonía estéreo

Técnicas de microfonía estéreo
Técnicas de microfonía estéreo

Compendio de técnicas de microfonía estéreo

Sabemos que hay de distintos tipos de micrófono: de bobina móvil, cinta, condensador si lo vemos desde el punto de vista de la transducción mecano-eléctrica y si bien es importante qué micrófono usamos también es muy importante la forma en que lo usamos

En este artículo hablaremos sobre las técnicas de microfonía estéreo, este conjunto de técnicas usa los principios del funcionamiento del sistema auditivo humano que es capaz de percibir y localizar los sonidos que lo rodean.

El conocimiento de las técnicas de microfonía estéreo pueden darnos una paleta de sonidos o combinaciones de los mismos que de otra manera no se podrían obtener. Veamos:

Los tipos de sonido 

Podemos dividir el sonido que se obtiene de una fuente o instrumento musical en dos grandes familias:

1. Los sonidos más naturales: Este tipo de sonido se logra principalmente usando microfonía  lejana ya que el sonido de la mayoría de los instrumentos necesita un cierto espacio físico para desarrollarse y que se escuche el timbre propio y complejo del instrumento.

El mismo proviene de las distintas partes del instrumento, por ejemplo una guitarra acústica no solo emite sonido del agujero de resonancia si no que además emite sonido de la tapa de resonancia, del puente, del brazo y prácticamente desde todo el instrumento. Incluso los sonidos que emite el ejecutante los percibimos como parte de un todo y también conforman  lo que consideramos a la hora de percibir un sonido.

Por otro lado en general estamos acostumbrados a escuchar a los instrumentos en un cierto ambiente o sala que aporta una cantidad importante de reflexiones y reverberación que se superponen con el sonido directo conformando ese sonido complejo que es el que llega hasta nuestros oídos.

En muchos casos las orquestas de  música clásica son capturados poniendo en uso el principio de que el sonido necesita un espacio para desarrollase y por lo tanto se usan técnicas de microfonía lejana.

2. Los sonidos aumentados o modernos: Son  los sonidos captados por micrófonos a distancias muy próximas a la fuente y que capturan mayoritariamente sonido directo. Es decir con la menor injerencia de la sala posible, para su posterior manipulación y procesamiento en las distintas etapas.

Una gran parte de la música popular se produce de esta manera, usando micrófonos a distancias muy cortas con respecto a la fuente, de unos pocos centímetros en la mayoría de los casos

El tipo de sonido que se logra empleando estas técnicas es un sonido aumentado o reforzado en ciertos aspectos pero que carece de esa naturalidad antes explicada, es este uno de los motivos por los que se agrega luego por lo general reverberación artificial a las grabaciones realizadas con este tipo de técnicas.

Sin embargo tienen a su favor que se puede capturar una cantidad de detalles internos de la performance que de otra manera serían imposibles de obtener.

Las herramientas, los micrófonos:

Por lo general para el uso de las técnicas estéreo es necesario usar micrófonos con una alta sensibilidad y una respuesta en frecuencia y transiente/transitorios muy buena. Tal es el caso de los micrófonos de condensador.

Para algunas técnicas de microfonía es necesario contar con micrófonos que tengan patrones/diagramas polares especiales por ejemplo omnidireccional, cardioide y figura en ocho, por este motivo es recomendable que busquemos micrófonos con patrones polares intercambiables, por una cuestión económica y de versatilidad. Además se recomienda para estas técnicas el uso de micrófonos apareados, es decir del mismo modelo y marca para que el registro esté balanceado frecuencialmente y respecto al nivel.

Para obtener una grabación con headroom, claridad en los bajos, poca distorsión necesitamos un preamplificador dedicado aunque se pueden lograr resultados aceptables con los preamplificadores que vienen con las interfaces de audio.

Las técnicas de microfonía estéreo:

Algunos de los usos posible son : la grabación de baterías tanto para overheads como para micrófonos de sala o room, la grabación de pianos, secciones de cuerda, secciones de vientos o metales, orquestas completas, guitarras acústicas, percusiones y prácticamente se puede aplicar a cualquier situación de grabación imaginable.

Algunas de sus ventajas respecto a las técnicas monofónicas son que nos otorgan:

Una sensación de campo sonoro de izquierda a derecha: Por ejemplo cuando escuchamos una orquesta sinfónica cada grupo de instrumentos tiene su lugar en el plano horizontal. Algunos instrumentos se ubican a la izquierda otros al centro y a la derecha. El uso de este tipo de microfonía nos permite acercarnos a la escucha real de este tipo de fuentes.

La sensación de profundidad o distancia entre cada instrumento o parte del instrumento. Cuando vamos a grabar un conjunto en el que algunos de los miembros están ubicados atrás de otros, al usar este tipo de técnicas vamos a percibir esa distancia ya que el nivel que le llega a los micrófonos es distintos y respeta esas diferencias que hay en la sala.

La sensación de distancia del ensamble al oyente: Por ejemplo cuando usamos estas técnicas para capturar el sonido de la sala al grabar una batería este micrófono que está ubicado lejos de la batería nos dará una sensación de distancia respecto a la batería. Específicamente cuando los micrófonos estén más alejados captan mayor cantidad de energía de reflexiones y reverberante, haciendo que la fuente suene más lejana.

La sensación de espacialidad de la sala en la que estamos: Al estar a una cierta distancia de la fuente los micrófonos también captan las reflexiones y la reverberación de la misma, enriqueciendo el sonido del instrumento.

 ¿Cómo funcionan estas técnicas?

Todas las técnicas de microfonía estéreo usan dos micrófonos que pueden estar  espaciados, juntos pero con un cierto ángulo de apertura entre cápsulas, semi separados con un cierto ángulo de apertura. También existen otras formas de microfonía que usan por ejemplo un disco absorbente (acústicamente hablando) que separa los micrófonos y también las llamadas dummy heads que son dispositivos con la forma de la cabeza humana que tienen los micrófonos colocados en los oídos.

Para comprender que es lo que pasa con los micrófonos en estas configuraciones y por que producen todos los efectos antes mencionados tenemos que entender como funciona nuestro sistema auditivo. El sistema auditivo humano consta de dos oídos separados por la cabeza aproximadamente a 17 centímetros.

La separación de los oídos provoca que si por ejemplo tenemos una fuente situada a la derecha de la cabeza lo que sucede es que primero llega el sonido al oído derecho y luego viaja una distancia extra de al menos  17 cm para llegar al oído izquierdo. El sonido que llega a los oídos por lo tanto tiene diferencias en el tiempo de llegada, que se traducen en diferencias de fase  y diferencias de nivel entre oídos. Por otro lado si la fuente está ubicada justo en medio de ambos oídos el sonido llega al mismo tiempo a ambos y al no haber diferencias de tiempo o nivel es interpretada como proveniente del frente.

Estas diferencias son las que el sistema auditivo es capaz de interpretar para deducir por ejemplo que la fuente sonora está situada a la derecha y no en otro lugar. Esta capacidad es muy importante evolutivamente hablando ya que ha servido  al hombre para localizar obstáculos y posibles problemas o depredadores.

El principio de funcionamiento de todas las técnicas de microfonía estéreo tiene que ver con este principio; que el sonido que le llega a las cápsulas de los micrófonos es diferente. Ya sea que el sonido tiene diferencias de nivel, de tiempo de llegada o ambas.

Forma de localización del oído

Fuente sonora (en verde) localizada hacia la derecha. El sonido llega primero al oído derecho y luego rodea la cabeza y llega al oído izquierdo, un tiempo después.

¿Por qué es tan importante la  compatibilidad en Mono? 

Si bien las todas las técnicas estéreo buscan replicar la sensación de nuestros oídos y por lo general dan una sensación muy agradable y superior a su contraparte mono, la realidad es que en la inmensa mayoría de las situaciones en las que se emite por radio y televisión el material se emite o recepciona en mono.

Por este motivo es muy importante revisar siempre que es lo que pasa cuando pasamos el material grabado o mezclado en estéreo a mono. Existen situaciones en las que el material tiene serios problemas de fase,hablando de diferencias de fase entre los canales Izquierdo y derecho. Esto produce que al sumarse eléctricamente a un solo canal se cancele parte o la totalidad de la señal ocasionando cambios leves o profundos en el resultado audible de la mezcla.

Las técnicas estéreo son en mayor o menor medida compatibles en mono y es indispensable usarlas de manera adecuada para no tener problemas en las etapas posteriores. Especial atención merecen las técnicas de par espaciado con distancias importantes entre micrófonos que generan un vacío en el centro de la imagen estéreo y por lo tanto son poco mono compatibles.

La famosa regla 3:1

Seguramente alguna vez alguien les dijo que cuando usamos más de un micrófono en una fuente hay que respetar la regla 3:1, que dice que la distancia entre ambos micrófonos debe ser 3 veces la distancia del primer micrófono y la fuente sonora.

La explicación del porque de esta regla tiene que ver con la atenuación del sonido con la distancia. El sonido disminuye 6 decibeles cada vez que se duplica la distancia del oyente a la fuente de sonido, esto sucede por que el sonido se propaga esféricamente y al aumentar la distancia aumenta el área en la que se tiene que repartir. Específicamente cuando se duplica la distancia el área se cuadriplica.

El cálculo se obtiene con la siguiente expresión (simplificada):

 Atenuación con la distancia = 20*log (distancia)

Y entonces ¿Qué tiene que ver esto con los micrófonos?

Si calculamos lo que pasa cuando triplicamos la distancia (20*log (3)) vamos a ver que el resultado es 9.5 dB aproximadamente.

Es decir cuando separamos un micrófono de otro 3 veces estamos haciendo que en el segundo micrófono el sonido que le llega,  el mismo que al primero, esté 9.5 dB atenuado respecto al primero.

Ahora lo importante de esto es que cuando se suman las señales de ambos micrófonos la señal que llega al segundo micrófono está tan atenuada respecto del primero que al sumarse no se producen cancelaciones de fase ni comb filtering. Por este motivo es tan importante buscar cumplir esta regla.

Familias de técnicas

Par coincidente: Entre estas técnicas están la técnica X/Y, Mid Side y el arreglo Blumlein. Se caracterizan por que los micrófonos usan un patrón polar direccional (cardioide, figura en ocho) y que  sus grillas se tocan o coinciden en el espacio, pero sus diafragmas tienen una angulación de tal manera que apuntan hacia la izquierda y derecha de la fuente o ensamble.

En la práctica esto significa que las cápsulas pueden estar juntas o una encima de la otra y que dependiendo del caso van a tener un cierto ángulo de apertura. Mientras mayor sea el ángulo de apertura de los micrófonos y mientras más angosto sea el patrón polar, mayor será la separación estéreo.

Par espaciado: Entre las técnicas más usadas tenemos el par espaciado o A/B y el árbol Decca. Se caracterizan por que se utilizan dos  micrófonos o a veces tres idénticos separados una cierta distancia entre sí. Los micrófonos pueden tener cualquier patrón polar, pero el más usado es el patrón omnidireccional, ya que  ofrece la mejor respuesta en bajas frecuencias y la menor coloración fuera del eje del micrófono.

Mientras mas separados estén los micrófonos mayor es la imagen estéreo. Cuando las separaciones son muy grandes el centro de la imagen estereo  se hace poco definida y en esos casos es necesario colocar un tercer micrófono en medio de ambos.

Par semi/cuasi coincidente: Entre las más conocidas tenemos la técnica ORTF, NOS, DIN, RAI, OLSON. Se emplean dos micrófonos con patrón polar cardioide con una angulación que varía según la técnica así como la separación entre micrófonos.

La característica principal de esta familia es que buscan asemejar la manera en la que el oído humano localiza las fuentes, asemejando la separación de los micrófonos con la de los oídos.

En general proveen una muy buena localización de los instrumentos y sensación de espacio debido a las diferencias de tiempo/fase producidas por la separación de los micrófonos y el ángulo de apertura, también son bastante mono compatibles.

Par omnidireccional- con baffles: Entre las más conocidas están el disco de Jecklin o OSS (Optimum Stereo Signal) y la técnica wedge Se emplean dos micrófonos con patrón polar omnidireccional, por su mejor respuesta en bajas frecuencias, separados a una distancia por  un disco  de material rígido forrado con material absorbente.

La idea detrás de esto es generar mayor separación entre micrófonos/canales y por lo tanto brindar una mayor sensación de estéreo.

Binaural o Dummy head: Consiste en el uso de una esfera o en su defecto una cabeza hecha de algún material , por lo general absorbente y en el lugar de las orejas se sitúan dos micrófonos por lo general omnidireccionales. Tiene una excelente localización de las fuentes y una muy buena sensación estéreo, pero funciona correctamente con audífonos.

Par coincidente:

Algunas de las ventajas de esta familia de técnicas es:

  • La imagen estéreo es muy buena.
  • El ancho del estéreo va desde angosto hasta preciso.
  • Las señales por lo general son mono compatibles.
  • La desventaja es que el estéreo no es tan amplio como en otras técnicas.

 

X/Y

microfonía-estereo-XY

Técnica coincidente XY, micrófonos con patron polar cardioide angulados a 90 grados.

Para llevarla a cabo se necesitan dos micrófonos idénticos con patrón polar cardioide. En esta configuración las cápsulas se disponen lo más cerca posible entre ellas con un ángulo de 90 grados. Las variaciones de esta técnica emplean distintos grados de apertura entre las cápsulas por ejemplo de 120 a 135 grados y dan como resultado una imagen estéreo mayor o menor.

Teóricamente las cápsulas de los micrófonos deben estar exactamente en el mismo punto para evitar cancelaciones de fase, pero ya que esto no es posible la manera de hacerlo es colocando un micrófono encima del otro con sus diafragmas alineados verticalmente. De esta forma los sonidos del plano horizontal serán captados como si los micrófonos estuvieran en el mismo punto.

La imagen estéreo es generada por la atenuación que presenta los micrófonos cardioides fuera de eje, la atenuación máxima se presenta a 180 grados fuera del centro. El estéreo se forma por diferencias en el nivel de llegada a las cápsulas, en el caso de los micrófonos cardioides a 90 grados tienen rechazo de 6dB, por lo tanto la separación entre canales no es tan grande y por ello la imagen estéreo es mas bien estrecha.Por el mismo motivo es altamente mono compatible.

El uso de micrófonos direccionales hace que a grandes distancias se produzca una perdida en bajas frecuencias, por este motivo es muchas veces preferible usarla cuando la fuente se encuentra cerca.

M-S (Mid Side) 

Microfonía Estéreo Mid Side

Técnica Mid Side, en rojo se observa el patrón polar cardioide del micrófono Mid y en celeste el patrón polar de figura en 8 del micrófono Side.

En este caso la M significa medio y la S los costados. El arreglo consiste en el uso de un micrófono cardioide apuntado hacia el frente de la fuente y uno en figura en ocho apuntado hacia los costados de la sala, los micrófonos deben estar lo más cercano posibles entre sí.

Esta técnica es excelente para la imagen estéreo, especialmente cuando la mayoría del sonido proviene del centro del ensamble o fuente. Por el mismo motivo es menos efectivo en grandes grupos o cuando se requiere captar un ancho importante ya que va a tender a favorecer las cosas que se encuentran en el medio.

Otra de las ventajas es que no tiene problemas de fase en estéreo y tiene excelente compatibilidad mono ya que cuando se pasa a mono y se suman los canales, los costados se cancelan quedando solo el medio sin modificaciones. Esta ventaja lo hace ideal para usar esta técnica como micrófono de ambiente o romo ya que va a ser totalmente compatible con mono y funciona muy bien en estéreo.


[optin-monster-shortcode id=»xwjauffiwarrci1h-2″]


Para situar los micrófonos en la sala es una buena idea caminar por la sala y prestar atención el lugar donde suena mejor la fuente, al mismo tiempo hay que pensar en el balance fuente/sala y en la imagen estéreo. Una vez localizado el lugar, colocar el micrófono cardioide donde estaría el medio de la cabeza.

Muchas veces puede sonar mas natural que las técnicas de par espaciado ya que el micrófono del medio provee un centro sólido en la imagen estéreo que es muy importante en la mayoría de las ocasiones. Un detalle a tener en consideración es que los micrófonos por separado pueden sonar bien o directamente mal y para hacerlos funcionar como sistema hay que decodificar la señal de salida para crear el estéreo.

Decodificación de la técnica Mid Side

En términos de voltaje el micrófono del medio crea un voltaje positivo todo el tiempo, en cambio el micrófono con figura en ocho o S crea un voltaje positivo de lo que viene de la izquierda y un voltaje negativo de lo que viene de la derecha.

Ya que el micrófono que funciona como S emite como salida una sola señal hay que duplicarla de alguna manera y colocarla en otro canal, luego tenemos que panear ambos al mismo lugar por ejemplo la izquierda extrema (la señal original y la copia). Posteriormente hay que generar un tono e invertir la fase de uno de los canales, finalmente hay que subir el nivel de ambos canales hasta que se cancelen completamente.

Luego  se panea el primer canal a la Izquierda extrema y el segundo a la derecha, se crea el balance con el micrófono del medio y con eso se completa la matriz. Una ventaja adicional de esta técnica es que se puede variar la cantidad de sonido de sala subiendo o bajando el nivel de los canales S.

 

Arreglo Blumlein

Arreglo Blumlein Microfonía Estéreo

Arreglo Blumlein, Vista superior. Se emplean dos micrófonos con patrón polar de figura en 8, los que captan la fuente por el frente y también la sala por atrás.

Este arreglo o técnica fue desarrollada por el pionero del audio Alan Blumlein para EMI récords en 1935 y consiste en el uso de dos micrófonos con patrón polar de figura en ocho o bidireccionales con un ángulo de 90 grados entre sí. El campo estéreo se forma por las diferencias de nivel entre las cápsulas del arreglo.

La técnica ofrece los mejores resultados cuando se sitúa cercana a la fuente ya que la respuesta en bajas  frecuencias decae con la distancia, debido al efecto de proximidad de los micrófonos direccionales. Además que al captar sonido de los costados y desde atrás capta el sonido de la sala, motivo por el que hay que tener cuidado en su colocación.Por otro lado esta técnica tiene un grado de separación mayor que la  X/Y.

Existen en el mercado opciones de micrófonos con cápsulas montadas en un mismo chasis para una mayor conveniencia, las cápsulas ya se encuentran anuladas así que solo hay que posicionarlas en un lugar adecuado respecto a la fuente.

 

Par espaciado

Repasemos primero las características  de este tipo de técnica:

  • Las imágenes fuera del centro son difusas, es decir que tienen poca claridad.
  • La sensación estéreo tiende a estar exagerada, a menos que se use un tercer micrófono e el centro del arreglo.
  • Da una sensación de calidez en el sonido del ambiente o sala.
  • Se pueden presentar problemas de fase al usarla.

 

Par espaciado A-B

Par AB: Técnica de micrófonia estéreo

Ejemplo del armado de la técnica par espaciado A-B. Se usan dos micrófonos omnidireccionales separados por una distancia. Cuando la distancia es muy grande es necesario el uso de un tercer micrófono en medio de ambos.

Se usan dos micrófonos idénticos espaciados o separados entre sí por una distancia, apuntando al frente del arreglo, ensamble musical o fuente. El patrón polar de los micrófonos puede ser cualquiera, sin embargo el más usado es el omnidireccional por su respuesta en frecuencia extendida y por su baja coloración fuera del eje.

Este tipo de técnica tiende a hacer que los elementos que se encuentran fuera del centro sean difíciles de localizar o fuera de foco.Algunos ejemplos en los que se puede usar esta técnica son: Baterías acústicas, orquestas sinfónicas o ensambles orquestales, guitarras, etc.

Espacio entre micrófonos

La imagen estéreo de una grabación es dependiente de la frecuencia por lo tanto el espacio entre micrófonos tiene relación con la frecuencia más baja que se le quiera dar sensación estéreo. Usando el espaciado recomendado de 1/4 de longitud de onda de la frecuencia más baja y teniendo en cuenta  la reducida capacidad del oído de localizar frecuencias debajo de 150Hz, se obtiene que la distancia óptima entre micrófonos esta entre los 40-60 cm.

Distancias entre micrófonos más reducidas son usadas cuando se quiere capturar un instrumento de cerca sin que su imagen estéreo sea demasiado «ancha» y poco natural. Un aumento de la distancia entre micrófonos disminuye la capacidad del sistema de reproducir fuentes que estén ubicadas en medio de los micrófonos y al mismo tiempo reduce la compatibilidad en mono. Si se usan distancias superiores a las mencionadas se suele usar un tercer micrófono colocado a medio camino entre ambos, para preservar el centro de la imagen estéreo y no producir exageraciones del mismo.

Distancia entre la fuente y los micrófonos

La distancia ideal entre fuente-micrófono depende del tipo y tamaño de la fuente y la sala en la que está inmersa, además del gusto personal. La distancia debe ser ubicada con cuidado y tomando en cuenta como nuestros oídos perciben la fuente en diferentes lugares.

Las orquestas sinfónicas o ensambles orquestales son un claro ejemplo de la necesidad de una buena microfonía estereo y del lugar donde se colocan los mismos, ya que hay que tener en cuenta que este tipo de fuentes necesitan de una sala que enriquezca el sonido y una reverberación adecuada para el tipo de estilo/periodo de música. Por estos motivos en muchos casos se toma en consideración la distancia crítica, el lugar en donde el sonido directo es igual al sonido reverberante, para colocar los micrófonos.

Muchas veces se suele colocar los micrófonos encima del conductor de la orquesta ya que la mayoría de los sonidos se proyectan hacia arriba y de esta manera se evita el efecto sombra que se puede producir entre instrumentos.

Arbol Decca

Arbol Decca: Técnica de microfonía

Vista superior del armado del Arbol Decca. Se usan tres micrófonos, generalmente se ubican a la altura del conductor y encima del mismo. Los micrófonos son omnidireccionales por lo general.

Esta es una variación a la técnica de par espaciado desarrollada por la discográfica Decca, que consiste en el uso de tres micrófonos idénticos, dos de ellos usados como par espaciado y un tercero a medio camino y al frente entre ambos, colocado sobre el conductor de la orquesta. Para poder realizarla se usa un pie de micrófono especialmente construido para tal fin.

La técnica fue desarrollada por los ingenieros de Decca en la década de los 1950, como un compromiso entre la técnica par espaciado y los arreglos de múltiples micrófonos usados para grabaciones orquestales. Esta técnica sigue en uso hasta la fecha por los ingenieros de Decca para la grabación de música clásica y para películas,  con cambios en la elección de micrófonos para su empleo. El beneficio de esta técnica es que provee un muy buen campo estéreo pero con buena localización de las fuentes.

Historicamente en Decca se usaron para esta técnica 3 micrófonos Neumman M-50 arreglados en un triángulo de 3 a 4 metros encima de la cabeza del conductor de la orquesta, aunque este espacio varia con las distintas salas de concierto y tamaños de orquesta. Las distancias entre micrófonos depende del tamaño de la orquesta o ensamble. Por ejemplo para una orquesta relativamente grande los micrófonos izquierdo y derecho están separados desde 2.5-3 metros entre ellos. El micrófono del centro separado al frente de ambos micrófonos por  1.8 a 2.1 metros.

Además de los micrófonos antes mencionados se ha usado otros como los M-49, los K-56 y sustituciones modernas como el TLM-50 o M-150 entre otros.

El micrófono izquierdo se panea a la izquierda el derecho a la derecha y el del medio al centro, usando adicionalmente micrófonos de acento a instrumentos clave por ejemplo a los violines (normalmente paneados a la izquierda), también se pueden usar acentos en los celos (paneados a la derecha). También a las harpas y los solistas.

Par semi / cuasi- coincidente

Repasemos algunas de las características de esta técnica:

  • Imagen estéreo precisa.
  • Mayor sensación de profundidad y aire que las técnicas coincidentes.
  • Imagen amplia y profunda similar a la del arreglo Blumlein con mucha menos cantidad del campo reverberante. 

ORTF

Técnica de microfonía ORTF par coincidente

La técnica más conocida y usada de este tipo de configuración es la ORTF (Oficina de radiodifusión y televisión francesa), que consiste en el uso de dos micrófonos cardioides con un ángulo de 110 grados y espaciados entre sí por 17 cm horizontalmente. El espaciado está relacionado con la distancia entre oídos promedio de las personas y el ángulo entre los micrófonos emula el efecto sombra de la cabeza humana, este efecto se produce cuando el sonido viaja rodeando la cabeza perdiendo intensidad y altas frecuencias por lo general.

Este método produce muy buenos resultados en lo que respecta a la localización precisa de los instrumentos en la orquesta, es decir instrumentos localizados a la izquierda aparecen por el parlante izquierdo en un lugar muy similar, lo mismo sucede con instrumentos localizados al centro estos tienden a aparecer al medio de la imagen estéreo. También esta técnica produce una muy buena sensación de espacio debido a las diferencias de tiempo/fase entre las cápsulas.

Una consideración a tener en cuenta es que cuando se usa esta técnica a distancias grandes de la fuente, al usar micrófonos  direccionales pierden respuesta en las bajas frecuencias, por el efecto de proximidad. Por otro lado la distancia de la fuente o ensamble determina la cantidad de sonido reverberante que se capta, mientras mas lejos se encuentre de la fuente o ensamble mayor sonido reverberante habrá.

NOS

Desarrollada por la radio Holandesa (Nederlandse  Omroep Stichting o Radio Holandesa) en base a experimentaciones, consiste en el uso de dos micrófonos cardioides  angulados a 90 grados y separados entre si  por 30 cm. El estereo se logra por una combinación de diferencias de nivel en las cápsulas y diferencias de tiempo de arribo.

Es recomendable usarla en situaciones en donde la fuente se encuentre cercana a los micrófonos ya que el uso de patrón cardioide produce una pérdida en bajas frecuencias con el aumento de la distancia a la fuente, provocado por el efecto de proximidad.

DIN  

Desarrollada por el instituto alemán de normalización (Deustches Institut fur Normung) consiste en el uso de dos micrófonos cardioides espaciados por 20 cm y con un ángulo de 90 grados. Esta técnica reproduce el estéreo por una mezcla de diferencias de nivel y diferencias de timbre.

Al usar esta técnica a distancias grandes de la fuente se produce una perdida en bajas frecuencias ocasionadas por el efecto de proximidad de los micrófonos direccionales, por este motivo es mas útil usarla en distancias cortas por ejemplo en un piano o en ensambles pequeños. Ademas se puede usar en un instrumento de una sección de una orquesta sinfónica o similar.

RAI

Desarrollada por la compañía de radiodifusión italiana (Radio Audizioni Italiana), usa dos micrófonos cardioides separados por 21 cm y con un ángulo de 100 grados entre sí.

EBS

Desarrollada por Eberhard Sengpiel del instituto Tonmeister dentro de la universidad para las artes de Berlin-Alemania. Es una técnica similar a la NOS y DIN ya que usa dos micrófonos cardioides angulados a 90 grados pero con una separación de 25 cm.

Sengpiel sugiere que se use este arreglo como un punto de partida y se experimente para encontrar el punto exacto. El campo estéreo y la compatibilidad en mono es similar a las antes mencionadas técnicas.

Olson 

Es similar también a la técnica ORTF y consiste en dos micrófonos cardioides separados entre si por 20 cm y con un ángulo de 135 grados. Este ángulo es el mas amplio aceptado de cualquiera de estas técnicas.

Como resultado del ángulo de separación el sonido del centro puede ser poco claro o distintivo.

Estéreo generado por bafles

Estéreo generado por bafles - Técnica de microfonía

Técnica Baffled Omni. Ejemplo de la disposición original de esta técnica. Se emplea una esfera de un material absorbente y dos micrófonos omnidireccionales a ambos lados de la esfera a la altura de los oídos, separados por 17 cm.

Es la forma genérica para un grupo de técnicas  estéreo que usan un baffle acústico para mejorar la separación entre canales, debido a la reducción de nivel que produce el material absorbente.

Se puede usar el bafle entre los micrófonos de las técnicas A-B, ORTF, DIN o NOS entre otras. El efecto sombra que produce el bafle tiene una influencia positiva en la atenuación de los sonidos que llegan a las cápsulas fuera del eje, por lo tanto mejorando la separación entre canales. Los bafles deben ser de material absorbente acústico y no reflectante para prevenir reflexiones de la superficie que causarían coloración de la fuente.

La tecnica se basa en el efecto que produce la cabeza entre los oídos, que genera perdidas de nivel y atenuación frecuencial en especial en las altas frecuencias.

Algunas de las características son:

  • Imágenes estéreo agudas.
  • El campo estéreo tiende a ser preciso.
  • La respuesta en baja frecuencia es muy buena ya que se usan micrófonos omnidireccionales.

Disco de Jecklin o OSS (Optimum Stereo Signal)

Disco de Jecklin

Disco de Jecklin. En marron/cafe se observa el disco absorbente que se emplea y a ambos lados los micrófonos que por lo general son de patrón polar omnidireccional.

Esta es uno de los ejemplos mas conocidos de la técnica del bafle y fue desarrollada por el ingeniero en Sonido suizo Jurg Jecklin en los 1980.

La técnica en su configuración actual  usa dos micrófonos omnidireccionales separados por 16.5 centímetros entre sí . En el medio de esta distancia se sitúa el disco de 30 cm de diámetro y de 8mm de ancho, cubierto con 25 mm de espuma absorbente.

La técnica busca simular como funciona nuestra cabeza ya que la misma además de causar diferencias de tiempo/fase de arribo entre oídos, produce atenuación en las altas frecuencias, debido  que a estas frecuencias les cuesta mucho doblar objetos que son comparables con su longitud de onda. Esto sumado a las diferencias de nivel entre cápsulas producen un campo estéreo muy realista, los instrumentos de la orquesta aparecen donde tienen que estar.

Wedge

Microfonía estéreo: Técnica Wedge

Vista superior de la Técnica Wedge. Podemos observar los paneles en forma de V que tienen aderidos a una distancia de la punta un micrófono del tipo PZM.

Consiste en el uso de dos micrófonos de barrera (PZM, o Boundary mic) separados por unos paneles en forma de V y colocados a unos 15 cm de la punta de la V.  Los paneles son de un material rígido y de 60 cm cada uno, unidos de tal forma de formar una V, con la punta apuntando hacia la fuente sonora, los paneles deben estar angulados 70 grados.

La marca Crown Audio desarrollo el concepto creando un micrófono estéreo llamado Stereo Ambient Sampling System (SASS, actualmente SASS-P MK2), que consiste en dos micrófonos PZM montados a ambos lados de un bafle. Esta técnica crea una sensación estéreo muy realista y con muy buena localización de las fuentes, un uso interesante es para capturar sonidos ambientes y ya que las cápsulas están muy próximas entre sí existe poca cancelación de fase y es por lo tanto mono compatible.

Binaural 

Microfonía binaural

Vista superior de la Técnica Binaural. En ella se usa un modelo de cabeza artificial hecha de algún material, y en los oídos se colocan los micrófonos omnidireccionales.

Esta técnica consiste en el uso de dos micrófonos omnidireccionales colocados en los oídos de una cabeza falsa. Los modelos comerciales tienen incluso incluidos los pliegues de los oídos, los que buscan simular las reflexiones que se producen en los mismos. Cuando la grabación es reproducida por audífonos da un realismo muy grande en cuanto a la localización de los elementos y la distancia de los mismos.

Cuando se reproduce el sonido registrado por parlantes disminuye el efecto envolvente. Se usa generalmente para grabar la ambiencia de una sala o para aplicaciones de realidad virtual.  Al reproducirse en audífonos el oyente tiene una experiencia esférica, el sonido puede escucharse desde arriba y abajo, entre la información que se logra captar con este método destaca la distancia de la fuente al auditor y la dirección de la misma.

Video demostrativo de las diferencias entre las distintas técnicas:

A continuación un video que muestra las diferencias entre las técnicas de microfonía, para ello usan un sistema específico que les permite variar la posición de los micrófonos en distancia y ángulo. Más allá de que no vamos a poder conocerlas a la perfección a través de un video es una buena ayuda.

Conclusiones 

Las técnicas aquí presentadas requieren de experimentación tanto para su armado y colocación, como para saber como suena cada una y cuando es mejor una u otra.

Son una muy buena opción para generar profundidad, ambiencia y espacialidad a nuestras grabaciones usando practicamente los mismos micrófonos que tengamos a nuestra disposición.

Es muy importante revisar siempre la compatibilidad mono de la técnica que vayamos a usar y asegurarnos de que cumpla con este requisito ya que una vez grabada la fuente no hay mucho que se pueda hacer después.

Esperamos que esta guía haya sido de utilidad  y que puedan probar algunas de estas técnicas por sí mismos y escuchar los beneficios que les pueden aportar. Como siempre decimos esto es sólo un punto de partida para el tema y la práctica hace al maestro.

Fuentes:

Para elaborar la guía usamos varias fuentes de información entre páginas web y libros.

  • Stereo Microphone Techniques de Los Senderos Estudio: La mayoría de los diagramas fueron adaptados de los diagramas presentes en esta página. La información es my recomendable (había un par de errores en los diagramas que corregimos)
  • The Recording Engineers Handbook: Un excelente libro escrito por el prolífico Bobby Owsinski.
  • Coincident or Near Coincident Mic Placement Techniques: Paper de DPA Microphones que trata sobre las técnicas ORTF, NOS, DIN y todaslas técnicas de par coincidente o semi coincidente.
  • El diagrama original es una adaptación de una publicación de Schoeps Mikrofone.

 

Read More
Principiantes Tutoriales

Tutorial de Reverb : Baterías, Voces, guitarras

Tutorial de Reverb. Parámetros y usos.

Hablamos anteriormente sobre el reverb tanto en términos técnicos de  acústica como su uso  en las producciones musicales y en las mezclas.

Sin embargo no tuvimos la oportunidad de poner en práctica los conceptos con ejemplos auditivos es por eso que elaboramos este tutorial de Reverb, en el que repasaremos los ejemplos dados en dicho artículo como otros nuevos.

En particular haremos ejemplos demostrando  el tiempo de decaimiento (decay time), las reflexiones tempranas (early reflections),  el pre delay. Además pondremos en acción a esta valiosa herramienta en voces, baterías y guitarras para que escuchen el sonido que le imprime a lo que pasa por él.

¿Cómo usar el reverb en nuestra D.A.W?

El reverb está dentro de la familia de procesadores de tiempo (existen procesadores de dinámica: ecualizadores, compresores, distorsiones, etc o todo lo que involucre un cambio en la dinámica) que son aquellos que no modifican la señal si no que agregan o suman otros sonidos a la señal original.

Para aclarar mejor el concepto podemos decir que la diferencia es que los procesadores de dinámica modifican  la señal ya que para usarlos generalmente se emplea un punto de inserción de una consola o D.A.W que funciona enviando la señal al procesador y regresando la misma modificada de alguna forma por el procesador. Este es la finalidad de los puntos de inserción ya que cuando queremos ecualizar una señal que por ejemplo tiene exceso de bajos necesitamos que en efecto se altere nuestra señal original en su totalidad.

En cambio los procesadores de tiempo (reverberaciones, delays, chorus, flangers, etc.) se usan en paralelo. Es decir se les envía un duplicado de la señal original  la que se procesa y suma con la original posteriormente. De esta forma tenemos la señal original totalmente limpia y por otro lado podemos ir agregando señal de reverb  cuanto sea necesario.

Para usarlo en nuestra D.A.W tenemos que crear un envío auxiliar (o canal auxiliar dependiendo del programa), nombrarlo adecuadamente (por ejemplo VCL.VERB). Luego tenemos que enviar señal desde el canal/pista a la que queremos agregarle esa reverberación, para el ejemplo usemos la voz.

Una vez colocado el envío se necesita darle nivel  mediante un nuevo fader que aparece al hacer click sobre el envío o bus y luego hacer que el mismo sea post-fader (generalmente viene predeterminado así).

El termino post fader viene del hecho que la señal se envía o duplica después de la etapa del fader del canal por lo tanto se ve afectada por los cambios que sean realizados sobre el mismo. Por ejemplo si le bajamos en algún punto el «volúmen» a la voz el nivel del envío se reduce proporcionalmente. Esta forma de usar los envíos es la estandard para los procesadores de tiempo ya que normalmente si bajamos el volúmen de la fuente que produce sonido el nivel de la reverberación también se reduce y sería extraño que fuera de otra manera (aunque lo podemos usar a propósito distinto!)

Por otro lado la otra manera de hacer un envío es el llamado pre-fader, en esta forma se duplica la señal antes del fader. Por lo tanto si cambiamos el nivel del fader nuestro envío permanece sin cambios. Se usa generalmente para hacer mezclas de monitoreo para los músicos.

Un punto  a tener en consideración es que todos los auxiliares de efectos se tienen que colocar en solo safe, esto significa que cuando la pista se ponga en solo, el efecto al que se envió también se pone en solo, de lo contrario cada vez que ponemos en solo una pista que está siendo enviada a un efecto o reverb tenemos que además colocar el solo en el efecto.

Envío a reverb

Ejemplo del uso de un envío auxiliar en Pro tools, donde en violeta está los ruteos para el envío y en verde la pista de retorno en donde se coloca el reverb (amarillo)

Observando la imagen se aprecia que la forma de hacer un envío a efectos en una D.A.W es creando un envío auxiliar (la pista de color verde VCL.VERB) al cual se le envía un duplicado de la señal original. El nivel de dicho envío está dado por el fader al costado izquierdo y remarcamos con violeta que la pista es post-fader .

En el ejemplo el nivel del envío está a 0 dB y en la entrada de la pista auxiliar podemos observar (en color violeta) que la entrada es la misma que el envío (VCL.VERB) y en el segundo punto de inserción (en amarillo) vemos la reverberación usada. Además usamos un filtro pasa altos HPF antes del reverb para reducir el contenido en bajas frecuencias que llega al reverb y por lo tanto aclarar la mezcla.

Un detalle no menor a tener en cuenta es que para usar correctamente los procesadores de tiempo necesitamos colocar en el efecto 100% wet o 0% dry. Que significa que toda la señal que estamos devolviendo por el auxiliar es solo el efecto y por lo tanto la podemos mezclar a gusto con la señal original. De lo contrario tendríamos dos señales sumandose sin razón alguna.

Parámetros típicos del Reverb

Tiempo de decaimiento (Reverb time/Decay time)

El tiempo de decaimiento es tal vez el parámetro audible mas reconocible en la reverberación, ya que se trata de la duración de la reverberación o de la cola reverberante (Parte en la cual el conjunto de reflexiones es tan densa que el oído la percibe como una masa sonora).

Este parámetro está medido en segundos (o milisegundos) y mientras más largo sea va a tender a representar salas de mayor tamaño. Veamos el ejemplo dentro de un plug in de reverb

Tiempo de Decaimiento

Ejemplo de un plug in de reverberació (IR-1 de Waves). En celeste vemos el tiempo de reverberación en formato numérico y en verde vemos la representación gráfica del decaimiento.

 

Decaimiento

Ejemplo de la vista del tiempo de reverberación/decaimiento en otro plug in. En verde resaltamos la vista gráfica y en fucsia el valor númerico en segundos del decaimiento.

 

Reflexiones tempranas (Early reflections)

Son todas las reflexiones que suceden en el tiempo previo al decaimiento y abarcan poco más de 100 mili segundos. Estas reflexiones son las que el cerebro es capaz de discernir como reflexiones individuales y le dan en parte el caracter al timbre de la reverberación.

En salas  grandes las reflexiones van a tender a estar más separadas en el tiempo, ya que el sonido tiene que viajar mayores distancias para reflejarse y llegar hasta el auditor. Por el contrario en salas pequeñas las reflexiones tempranas están muy juntas en el tiempo y se hace más dificil distinguirlas del decaimiento.

 

Reflexiones tempranas

Ejemplo de las reflexiones templranas dentro de un plug in, en verde vemos la vista gráfica y en fuxsia el control para activar/desactivarlas.

Reflexiones templranas

Vista de las reflexiones tempranas en un plug in, en verde la vista gráfica y en fucsia el fader que controla la cantidad o nivel de las mismas en este plugin.

 Pre-delay

Este parámetro se refiere al tiempo que existe entre que se emite el sonido directo y las primeras reflexiones llegan al oyente. Generalmente mientras mayor es el pre-delay más grande es el tamaño de la sala ya que el sonido tiene que recorrer mayor distancia para reflejarse.

Además puede ser usado para mantener la sensación de proximidad de la fuente a pesar que tenga una cantidad de reverb importante (ya que hacemos que las reflexiones y por tanto también la cola reverberante vengan instantes después que el sonido directo)

 

Reverb sin predelay

Ejemplo de plug in de reverb sin predelay. En verde el parámetro numérico y en fucsia la vista gráfica.

Predelay

Vista de un plugin de reverb con predelay. En verde el parámetro numérico y en fucsia la vista gráfica.

Wet/dry

Este parámetro define la cantidad de efecto que se aplica al sonido original.

Wet dry reverb

Vista del parámetro wet/dry dentro de un plug in de reverb.

Diffusion o difusión

Es la cantidad de energía difusa que se incorpora en la reverberación. La energía difusa está asociada al uso de superficies difusoras acústicas dentro de las salas, este tipo de superficies se encargan de distribuir el sonido de manera más homogénea en el espacio de la sala.

Difussion

Vista del parámetro difusión en verde, dentro de un plugin de reverb.

Damping

Este parámetro se refiere a la simulación de absorción acústica de la sala que tienen incluidos los reverberadores. La absorción se puede seleccionar y variar entre baja y alta frecuencia.

Damping reverb

Vista del parámetro damping (en fucsia) en un plug in de reverb.

Filtros o ecualizadores

Algunos plugins de reverb incluyen además del damping filtros o incluso ecualización paramétrica en sus parámetros, en parte para suavizar la respuesta en agudos del reverb y además pueden servir para buscar algún sonido desagradable y atenuarlo.

El filtro pasa altos HPF se usa para evitar incluir demasiada energía en bajas frecuencias que en el caso de los reverbs solo sirve para oscurecer el resultado y la mezcla.

Ecualización filtros reverb

Vista de la sección de ecualización/filtrado de un plugin de reverb.

Tipos /motores de reverberación

Otro parámetro modificable dentro de los plug in de reverberación son los motores o tipos de reverb, que corresponden a las emulaciones de diversos tipos de salas y de dispositivos mecánicos de reverberación. Repasemos algunos de los más representativos:

  • Hall: Es un motor de reverberación que corresponde a salas de gran tamaño y en muchas ocasiones del tipo salas de concierto para música clásica. Estas salas por lo general tienen un tiempo de reverberación largo por defecto y sus reflexiones tempranas están espaciadas y le dan parte del carácter al sonido.Por otro lado y debido a la absorción de los materiales dentro de las salas y a la pérdida de frecuencias agudas por efecto del aire estas salas tienden a tener un decaimiento con menos cantidad de frecuencias agudas. Existen variaciones de este tipo de motor que dependen del plug in, alguna de ellas son small, medium, large hall y que corresponden con el tamaño de las salas que se están emulando.
Hall

Vista trasera de una sala de conciertos como las que simula el motor de reverberación hall.

 

  • Cathedral: Representa a salas de gran tamaño del tipo iglesias/catedrales que tienen por lo general un tiempo de decaimiento/RT60 muy largo, igualmente estas salas tienden a tener una pérdida en altas frecuencias debido a la absorción de los materiales y a la absorción producida por el aire. Se diferencian de las de tipo hall porque por lo general el tiempo de reverberación es más largo ya que como podemos imaginarnos las catedrales no están diseñadas en función de la acústica.
Imagen catedral

Ejemplo de una catedral, espacio del cual se basa el motor de reverb Cathedral.

 

  • Arena: Es el equivalente a los estadios para conciertos de tamaño medio, el decaimiento tiende a valores de tiempo altos y tienen menos pérdidas en altas frecuencias ya que por lo general este tipo de lugares están hechos de materiales más reflectantes.

 

Arena

Ejemplo de un recinto tipo arena.

  • Room: Corresponden a salas de tamaño pequeño/mediano que por lo general tienen el techo bajo. El sonido no es tan grande como el de un hall por ejemplo, pero se usa para añadir una espacialidad mediante la textura. En lugar de escuchar la reverberación la podemos sentir.
  • Studio: Representa a una sala de grabación de un estudio de grabación. Por lo general suelen ser de un tiempo de decaimiento corto (depende del tamaño de la sala) y reflexiones tempranas muy juntas.

 

Sala de Estudio

Ejemplo de sala de grabación de un estudio.

  • Plate: Este tipo de motor es la emulación de un dispositivo de reverberación mecánico que consiste en unas placas metálicas (plates) unidas a transductores (similares a pequeños parlantes) que hacen de envío del sonido a las placas y otros transductores similares a un micrófono que captan las vibraciones de estas placas.El tiempo de decaimiento depende del tamaño de las placas y de la tensión que tienen las mismas. Este tipo de dispositivo tiene un decaimiento por lo general largo y con pocas pérdidas en altas frecuencias ya que no depende de materiales absorbentes.

 

Reverb de placas

Reverberador de placa o plate (EMT 140), en el que se basa el motor plate.

  • Spring: Corresponde a un tipo de dispositivo reverberador que se encuentra usualmente en amplificadores de guitarra y consiste en unos resortes conectados a unos transductores que funcionan de manera similar a los reverberadores de placa.El sonido se envía a través de uno de los transductores, pasa por los resortes y es recibido del otro lado por otro transductor que transforma la energía nuevamente en eléctrica para ser sumada al sonido original.

 

Spring Reverb

Ejemplo de spring reverb como los encontrados en amplificadores de guitarra.

Estos son algunos de  los motores/algoritmos de reverberación más comunes  que existen en forma de plug in en nuestras D.A.W.  Todos ellos tienen un sonido distintivo y se pueden usar en distintos contextos ya sea para instrumentos individuales como para mezclas completas o para grupos de instrumentos que componen una mezcla.

Ejemplos auditivos

Veamos algunos usos para la reverberación en nuestras producciones musicales; en esta ocasión nos concentraremos en las baterías, voces y guitarras. Repasaremos algunos usos interesantes para esta herramienta indispensable en el estudio.

Baterías

En este ejemplo usamos dos reverbs para las baterías uno para todo el kit y uno para el tambor/caja/tarola. Ambos combinan bien e interactúan de tal manera de brindarle una riqueza a la textura de la batería sola.

Para el reverb de todo el kit de batería usamos un motor del tipo hall con un decaimiento de 1 segundo, además usamos un filtro pasa altos antes del reverb y utilizamos el filtro incluído en el plug in para simular la pérdida en frecuencia por absorción en la sala.

 

Tambor / caja / tarola

El reverb del tambor/caja/tarola tiene un reverb con un motor room y un tiempo de decaimiento de 1.5 segundos, el tambor además se envió al reverb de las baterías para homogeneizar el resultado.

 

Guitarras

En este ejemplo tenemos un conjunto de guitarras acústicas en el papel de harmonía y una guitarra haciendo melodía. Usamos para las guitarras de harmonía un motor de reverberación del tipo plate con un decaimiento de 1 segundo. Además usamos un filtro HPF antes del reverb y el filtro de altas frecuencias del reverb para quitar un poco de las frecuencias altas.

 

Voces

Usamos en la reverberación de la voz un motor del tipo plate y un decaimiento de 1 segundo, además de usar HPF antes del reverb y el filtro de agudos del mismo, empleamos un predelay para esta voz de 50 ms (hablaremos del por qué ello en otro artículo!!)

La voz además tiene un pequeño delay que enriquece su textura y lo hemos dejado.

 

La mezcla entera

Por último quisimos guardarnos un ejemplo más en el cual todos los elementos de la mezcla tienen en uso uno o más reverberaciones, una técnica muy interesante en este sentido es enviar un poco de cada subgrupo de instrumentos a un reverberador escogido especialmente y de esta manera homogeneizar la mezcla completa.

En el resultado del ejemplo notamos como todos los elementos adquieren otra textura cuando tienen los distintos reverbs y además como la mezcla suena mas llena y suavizada frecuencialmente. Si bien es algo sutil sin duda aporta una gran diferencia al resultado final.

 Conclusiones:

Sin duda alguna, la reverberación es uno de los efectos más importantes para lograr mezclas que suenen bien. Para aprender a usarla lo mejor es tratar de entender  los parámetros que rigen el efecto pero no de manera abstracta sino para poder replicar la ambiencia que nuestra mezcla necesita.

Otro de los factores a tener en cuenta es que el uso de reverberación es muchas veces estilístico y se tiene que considerar de esta manera en las mezclas. Para poner un ejemplo, si tengo un tema que quiero como un tema de surf rock la idea es que use reverb de resortes en la guitarra (si es que no fue usado en la grabación) o si por ejemplo quiero hacer un tema a la usanza de los 80 tengo que usar un reverb más bien largo.

Por otro lado hay que cuidar que no se nos vaya la mano con la cantidad de efecto aplicado y además cuidar mucho que la mezcla no se nos embarre en las bajas frecuencias y de ser necesario usar filtros para concentrar el efecto en un rango de frecuencias que no se «pelee» con el resto de los instrumentos que suenan.

Read More
Articulos

Kevin Shirley, de las cavernas a tus oídos

Kevin Shirley The Caveman

En un mundo donde la sensibilidad y la fineza juegan a favor, que tu apodo sea «El cavernícola» quizás no sea la norma pero en el caso de Kevin Shirley, el sobrenombre no da cuenta de su falta de tacto o de el hecho de portar un garrote sino más bien de su tamaño y sus poco sutiles rasgos faciales.

Shirley es conocido por haber trabajado con Rush, Led Zeppelin, Iron Maiden, Aerosmith, Journey, Joe Bonamassa, Black Country Communion, The Black Crowes, Dream Theater, HIM, Slayer, entre otros. Conozcamos algo de la historia y filosofía de unos de los mejores ingenieros de grabación, mezcla y productores de rock y hard rock que hay en la actualidad:

Un poco de historia:

Kevin Shirley nació en Johanesburgo- Sudáfrica en 1960 y comenzó en el mundo del audio grabando a artistas locales sudafricanos  y tocando con su propia banda The Council.

Comenzó yendo a un estudio en su ciudad natal en donde  su primer trabajo fue pintar el lugar, posteriormente continuó yendo y fue allí donde aprendió las bases y dinámica del  trabajo en estudio haciendo jingles, grabaciones de comerciales y en general todo lo que caía al estudio.

Unos años más  tarde cuando tenía 20 años su familia se tuvo que mudar de Sudáfrica a Australia por estar en contra del régimen del apartheid que en ese momento estaba aún vigente. El problema fue que en Australia dejaron entrar a su familia pero no lo dejaron entrar a él así que tuvo que regresar a Sudáfrica y continúo haciendo trabajos para artistas locales con éxito hasta sus 26 años cuando ingresó a Australia.

Vivió en Australia por un tiempo haciendo proyectos con artistas locales hasta que una banda Australiana llamada Baby Animals lo invitó a grabar un disco con ellos en Nueva york  con el productor Mike Chapman. Después de ese trabajo el productor Chapman lo invitó para otros proyectos y de esa manera se radicó en Nueva York por algún tiempo.

Luego vinieron tiempos difíciles en los que los trabajos dejaron de llegar y tuvo problemas financieros hasta que en su peor momento recibe una llamada de la gente de Rush para tener una entrevista ya que ellos estaban por grabar el Counterparts y estaban buscando a las personas que iban a trabajar en él.

Kevin fue a la reunión para conocerlos en Canadá y al terminar le dijeron que le avisarían en un mes, al intentar volver no lo dejaron entrar a Estados Unidos y en su desesperación los vuelve a llamar y les pregunta si realmente querían trabajar con él, el manager le respondió que iban pensarlo y que le avisarían pero él les contesta que necesitaba una respuesta el mismo día ya que o se quedaba a hacer el trabajo o tenía que volverse a Australia.

El manager habló con la banda y decidieron que querían contratarlo así que el les pide un adelanto para poder quedarse hasta que empiece el trabajo con el disco y así fue que día al siguiente  le entregaron un adelanto con el que pudo financiar su estadía en Canada hasta el comienzo de la grabación del disco (casi dos meses después).

El proyecto fue muy positivo pero el decidió que era mejor volver a Australia en donde era más conocido y tendría  mas posibilidades laborales en general. Justo cuando se estaba estableciendo nuevamente allí trabaja en el disco Frogstomp de Silverchair que logra vender varios millones de copias en EEUU lo que le brinda la oportunidad de empezar a trabajar con bandas como Journey, Aerosmith, Black Crowes entre otras.

Otro de los puntos a destacar en la carrera de Shirley es que estuvo involucrado en el primer disco de Iron Maiden tras la vuelta de Bruce Dickinson en el año 98. El mismo fue un éxito tanto para la crítica como comercialmente y marcó el inicio de una relación que perdura hasta el día de hoy, ya que Shirley participó directamente en todos los lanzamientos de Maiden desde entonces hasta la fecha incluyendo los discos en vivo y los DVD que lanzaron.

Posteriormente y a raiz de haber trabajado en Live at The Greek, el disco conjunto de los Black Crowes con Jimmy Page, Kevin recibe un llamado de Page con la idea de hacer algo con la gran cantidad de grabaciones en vivo sin usar que tenía de Led Zeppelin.

El proyecto se transformó en How The West Was Won y para hacerlo posible tuvieron que pasar por un inmenso trabajo de transferencia de cinta a sistema digital. Debido al deterioro de las cintas tuvieron que hornear las mismas para remover óxido y hongos de un total de 45 horas de grabación. El proyecto programado para durar 10 semanas terminó durando 6 meses.

Forma de trabajo

En lo que respecta a la forma de hacer discos el se suele involucrar mucho en el aspecto de producción llegando a co-componer canciones. Su preferencia a la hora de grabar es tener a los músicos en una misma sala e intentar hacer grabaciones en vivo y siempre que sea posible evitar los overdubs o grabar instrumentos uno a la vez.

En algunas situaciones incluso prefiere optar por grabar sin metrónomo para lograr un tipo de feel que de otra manera se pierde, según el propio Shirley una grabación es algo demasiado simple como para complicarse demasiado. La idea es poner un buen micrófono en frente de un buen músico tocando una buena canción y todo lo demás viene por añadidura. 

Mantener las cosas simples en la mezcla

Su filosofía de grabación se extiende también a las mezclas, evitar el sobre-procesamiento o la sobre producción y tratar de que cualquier etapa de post-producción se suscite solamente cuando esta sea sumamente necesaria. Por citar un ejemplo, no le gusta  usar samples de batería para sumarselas al sonido natural porque considera que se puede sacar el mismo sonido con una batería bien afinada y un buen baterista tocando, de esta manera

En lo que respecta a metodología de trabajo Kevin usa un sistema híbrido en el que graba a Pro tools o a cinta pero después conduce la edición en Pro tools. En la mezcla suele volcar las pistas desde Pro tools hacia canales en una consola en la que hace todo el procesamiento de ecualización, compresión, balance, paneos y expansión etc. Suele automatizar también en la consola ( SSL Duality) y dejar para el sistema digital algunas cosas como la edición o algunos delays que son mucho más fáciles de conseguir digitalmente.

También suele pasar las mezclas por un EQ de George Massenburg y dejarlo puesto sin «ecualizar» más allá de darle un poco de low-end y de agudos.

Algunas particularidades de Kevin Shirley:

  • No suele ser demasiado amigo con algunos ingenieros de masterización ya que considera que muchas veces son responsables por modificar demasiado sus mezclas en función de lograr un mayor nivel y para hacer sonar el disco lo más fuerte posible. Algunos de los últimos discos que produjo y mezcló para Iron Maiden no fueron masterizados o solamente se buscó llevar el nivel a uno más comercial pero sin cambiar demasiado la mezcla o el carácter buscado.
  • Suele mezclar a un volumen muy alto ya que considera necesario poder escuchar y distinguir todos los detalles de la grabación. Suele usar monitores de la marca KRK como referencia principal en especial los del modelo 6000 (tiene 6 pares!).
  • Es bastante adepto de la grabación en cinta: en especial si se trata de grabar las bases (bateria, bajo, guitarra) de una canción. Ultimamente lo que hace es grabar las bases en cinta, pasarlas a Pro Tools y grabar las voces en el entorno digital.
  • Algunos de los equipos que usa son:  usa una Studer A800 para grabar, le gusta mucho la consola SSL 9000 y la Neve 8068 para mezclar, además usa el 1176 para las voces y los ecualizadores de George Massenburg. En general no suele darle demasiada importancia al equipamiento y sus producciones no depende de el mismo.
  • En la mayoría de los casos solamente hace «rough mixes»: por lo general las primeras mezclas que hace (incluso con la banda grabando en vivo) son las mezclas definitivas. Esto le aporta frescura a su perspectiva y por supuesto le ahorra mucho tiempo en el proceso.

Una selección de títulos

Como también queríamos que ustedes escucharan por si mismos hemos seleccionado algunas canciones que nos parecen representativas del estilo de Caveman:

Joe Bonamassa –  Canción: Dust Bowl – Disco :  Dust Bowl  (Grabación, Mezcla)

Journey – Canción: Higher Place – Disco: Arrival (Grabación, Mezcla)

Aerosmith- Canción: Falling in love ( is hard on the knees)  – Disco: Nine lives ( Grabación, Mezcla)

Led Zeppelin- Canción: Whole lotta love  – Disco: How The west was won (Edición, Mezcla)

Rush- Canción: Animate – Disco: Counterparts (Grabación)

Iron Maiden- Canción: The wicker man- Disco: Brave New World (Grabación, Mezcla)

Fuente de la imagen: http://www.cavemanproductions.com

Read More
Principiantes Tutoriales

Tutorial de compresión: Voces, bajo y batería

Tutorial de compresion: Voces, bajo y bateria

Hablamos ya de la compresión en términos técnicos: hablamos de la compresión de audio para principiantes y de la importancia del ataque y el release, sin embargo no habíamos tenido la oportunidad de escuchar como suenan los ejemplos que explicabamos. Para eso elaboramos este tutorial de compresión donde buscamos juntar la parte práctica con la lógica detras de las decisiones.

Lo más importante que hay que notar en cuanto a la compresión de audio y todos los procesos de una mezcla es que la idea no es copiar parámetros que vimos usar en una situación en particular y aplicarlos exactamente igual siempre, sino buscar el sonido necesario para cada caso. Lo importante es entender por qué estamos haciendo lo que hacemos para que posteriormente podamos aplicar el mismo razonamiento en nuestras mezclas.

Como comprimir voces

Primero vamos a ver cúal es la diferencia entre una voz que está comprimida con otra que no. La voz del primer ejemplo es una voz sin comprimir y podemos notar que hay diferencias notorias en cuanto al nivel entre las distintas frases vocales. La idea con la compresión es buscar que eso se empareje para tener una mayor cohesión pero sin perder de vista que las partes más intensas también suelen ser las que brindan emotividad.

Para emparejar la toma necesitamos actuar sobre los picos y también nivelar las partes que sonaban demasiado bajo para que en contexto logremos que la voz se entienda todo el tiempo haciendo foco en los elementos más importantes en la música popular: la melodía y la letra.

Ejemplo 1: Pista vocal sin comprimir.

Ejemplo 2: Pista vocal comprimida.

Para lograr este tipo de compresión «musical» lo que hicimos fue usar dos compresores en serie, cada uno encargándose de una tarea en especial.

El primer compresor usado en este ejemplo fue el CLA-76 (versión negra )  que es una réplica del Universal Audio 1176 tan famoso por su caracter musical.  En este ejemplo buscamos que el compresor no se note pero actúe en los momentos en los que la voz se escapaba de plano. (Ver imagen con los ajustes)

Seguido de este compresor usamos el CLA-2A otra réplica de Universal audio del modelo LA-2A famoso por su desempeño en voces entre otros instrumentos. Este compresor tiene la peculiaridad de ser muy transparente en la práctica y de producir importantes reducciones de ganancia casi sin ser notado. Lo que hace en la práctica es reducir acompañando la envolvente de la voz una cierta cantidad pero yendo más hacia la densidad de la voz. (Ver imagen con los ajustes)

Ajustes compresor

Vista de los ajustes usados para comprimir la voz del ejemplo.

Para reforzar el audio con el fenómeno visual te mostramos como se ve una forma de onda comprimida con estos parámetros, en la imágen inferior (la comprimida) podemos ver un rango dinámico reducido en el que las partes que tenían mucho menor nivel se acercaron a las partes más fuertes sin perder la esencia de la envolvente de la voz.

Vista de compresión vocal

Vista de la forma de onda de la voz del ejemplo, en celeste la voz original sin comprimir y en verde la voz comprimida.

Comprimiendo el bajo

En esta ocasión usamos  compresión para nivelar el bajo y obtener una performance mucho más constante  que nos permita que se entiendan todas las notas sin que ninguna sobresalga demasiado por sobre el resto.

El bajo y la sección rítmica  son la base sobre la que funciona el resto de la canción. Lo ideal es que esta combinación suene lo más ajustada posible y para lograrlo necesitamos que el bajo sea lo más parejo posible.

Ejemplo 3: Pista de bajo sin comprimir. Podemos escuchar la inconsistencia a la que haciamos mención, notas que suenan demasiado fuerte en contraste con el resto.

 Ejemplo 4 : Pista de bajo comprimida (Podemos escuchar que el bajo ahora está mucho más controlado y funciona en un rango mucho más acotado de niveles)

Para comprimir el bajo para este ejemplo usamos dos compresores en serie el CLA-76 y el CLA-2A ambos funcionan de manera  musical sobre señales de bajo. Hay que tener cuidado en los parámetros que elegimos en nuestro compresor, ya que el ataque  pueden hacer que el compresor induzca distorsiones muy desagradables y el release puede hacer entre otras cosas que el compresor quite demasiados bajos a la señal, que en este caso no es lo que buscamos.

En ese sentido  el tiempo mínimo de ataque que vamos a necesitar para que el compresor no genere distorsiones al igual que el bombo o cualquier instrumento con bajas frecuencias va a ser dependiente de la frecuencia pero para que nos demos una idea para 20 Hz el tiempo mínimo de ataque ronda los 30 milisegundos. Por ello si disponemos de un compresor que no es necesariamente musical tenemos que jugar con el tiempo de ataque pero teniendo en cuenta este tiempo mínimo y tratando de que la compresión no se note.

Vista de las formas de onda antes (violeta) y después (verde) de actuar el compresor.

Vista de las formas de onda antes (violeta) y después (verde) de actuar el compresor.

Ajustes compresor bajo

Ajustes usados en el ejemplo de la compresión del bajo.

Comprimiendo la batería 

El tambor/caja/tarola

Otro ejemplo clásico es darle más pegada al tambor haciendo actual al compresor sobre la envolvente del instrumento, lo que hacemos en la práctica es buscar el ataque del instrumento y hacer que el compresor actúe reduciendo el nivel después del ataque del tampor para exagerarle el mismo  y conseguir una pegada muy interesante.

La misma idea se puede usar para el micrófono de abajo del tambor (SD_BOTTOM o Snare Drum Bottom) para resaltar el sonido de la bordona (hebras de metal ubicadas en la parte inferior que dan el sonido característico al tambor), al combinar los dos sonidos obtenemos una combinación explosiva.

Por el contrario si comprimimos un tambor con un ataque muy rápido podemos quitarle ataque al instrumento en cuestión llegando a poder cambiarlo hasta hacerlo irreconocible.

Ejemplo 5: Muestras de tambor/caja/tarola primero sin compresión luego con una compresión con ataque lento y release rápido (Exagerar ataque/pegada) y por último con un ataque muy rápido y release rápido (reducir el ataque/pegada).

Para lograr estos resultados usamos un compresor CLA-76 (versión negra) para exagerar el ataque (ataque lento y release rápido). Por otro lado para lograr el efecto de quitar el ataque del instrumento (y cambiar la envolvente y timbre) usamos un compresor de digirack (estandar en pro tools) con un ataque ultra rápido (del orden de los micro segundos) y release rápido. (Ver imagenes)

Ajustes compresión tambor

Ajustes para los dos tipos de compresión usados en el ejemplo del tambor.

Finalmente podemos ver como cambiaron las formas de onda comparadas con la versión original (arriba), seguida de la compresión para exagerar el ataque y finalmente la compresión para reducir el ataque.

Forma de onda compresión tambor

Vista de la forma de onda del tambor: arriba en verde sin comprimir, en violeta con compresión para exagerar el ataque y abajo en naranja con compresión para disminuir el ataque.

El Bombo

Cuando comprimimos el bombo podemos exagerar o reducir el ataque al igual que hicimos con el tambor. Pero también podemos quitarle graves si elegimos comprimir con un release largo, ya que parte del cuerpo del bombo reside después del golpe mismo.

Otro detalle a tener en cuenta es el mencionado ataque mínimo dependiente de la frecuencia, es decir mientras más baja es la frecuencia a comprimir mayor debe ser el tiempo de ataque mínimo para evitar distorsiones por parte del compresor que son causadas por la incapacidad del circuito de detección de comparar la señal de entrada con el umbral y razón de compresión.

Ejemplo 6 : Muestras del bombo sin compresión, seguido de compresión para obtener más pegada y por último una compresión que reduce la cola de  graves del bombo.

Para lograr estos sonidos usamos un compresor CLA-76 (versión negra) para exagerar la pegada/ataque (ataque lento release rápido) y el mismo compresor (ataque lento, release más lento) para reducir la cola de bajos del bombo. (Ver imagen con los ajustes)

Ajustes compresor

Ajustes para la compresión del bombo, arriba para exagerar la pegada/ataque y abajo para reducir la cola de graves.

También podemos observar como alteramos la forma de onda con los tres tipos de compresión, si bien en la compresión para exagerar el ataque la forma de onda es similar hay algunas diferencias. Por último al reducirle la cola de graves vemos una forma de onda bastante modificada y reducida en amplitud/nivel.

Forma de onda bombo

Vista de la forma de onda del bombo sin comprimir (celeste), con compresión para exagerar el ataque/pegada (amarillo) y comprimido para reducir la cola de graves (verde).

 Conclusiones:

En este tutorial de compresión tratamos de mostrar ejemplos prácticos de como se usa la compresión en algunas circunstancias comunes de mezcla. La idea es entender porque usamos los parámetros que usamos y al mismo tiempo experimentar con los mismos para encontrar el punto en el que estemos conformes.

El objetivo es que a la larga podamos formar nuestro propio criterio y que no necesitamos de presets o de algun parámetro prefijado que nos deje a mitad de camino.

Un saludo y a comprimir!

Read More
featured

¿Que es el Autotune y por qué está tan de moda?

Qué es el Autotune y por qué está tan de moda.

Si escuchaste o en su defecto estuviste presente mientras sonaba casi cualquier tema pop durante los últimos 15 años, hay altísimas probabilidades de que hayas escuchado este fenómeno.

Cuando la  gente me pregunta que es el Autotune suelo decir que es el Photoshop de los cantantes. ¿A qué me refiero con esto?
A que es una herramienta que permite de cierta manera enmascarar defectos para presentar una versión edulcorada de la realidad.

¿Estamos ante la gran estafa musical del siglo XXI? ¿Somos victimas de otra conspiración de los OVNIS? ¿Milli & Vanilli no cantaban sus propios temas?

Averigüemoslo a continuación:

¿Qué es el Autotune?

Una definición acertada sería: Es un software que facilita  la tarea de corregir la afinación de una melodía o línea musical.

Veamoslo de una manera abstracta: El sistema musical de occidente esta compuesto por 12 notas que se separan entre si por intervalos de medio tono también conocidos como semitonos. Por lo general la mayor parte de las canciones que escuchamos usa una porción acotada de dichas notas que se denominan escalas.

Si el tema está en Re mayor por ejemplo, consideraremos solamente 7 de las 12 notas como «válidas». Estas notas son: Re Mi Fa# Sol La Si Do# (notas que componen la escala mayor/jónica de Re).

A pesar de que no tengamos ningún entrenamiento musical y debido a la cantidad de veces que escuchamos la misma escala una y  otra vez en un contexto musical, nuestro cerebro esta programado para entender cuando algo esta fuera de lugar.

Cuando un cantante desafina esta en esencia cantando una nota que no pertenece a dicha escala. Esa nota puede estar un semitono por debajo, un semitono por encima o también puede estar entre medio ya que entre dos semitonos hay un intervalo teóricamente infinito de frecuencias.

Lo que hace Autotune es permitirnos visualizar gráficamente en que lugar cae cada nota que está siendo analizada y nos da la posibilidad de llevar esa nota al lugar a donde pertenece.

¿Como nace el Autotune?

Aunque no lo creas, una de las tecnologías usadas para encontrar petróleo es básicamente responsable de la creación del Autotune.

Andy Hildebrand, el creador del software había trabajado para Exxon Mobile en el campo de la Interpretación de datos sísmicos mediante ondas sonoras las cuales son enviadas hacía la tierra donde se cree que puede haber petróleo y la información «devuelta» por la misma es interpretada para lograr reconocer donde es mejor perforar.

Sin embargo una de las dificultades de este proceso radica en que necesita «separar» la frecuencia fundamental de los armónicos de un sonido. Para esto se usa un modelo matemático denominado autocorrelación que puede distinguir la presencia de una frecuencia fundamental aún cuando esta esté enmascarada en ruido o por armónicos de la misma.

Lo que resulta más curioso es que a Hildebrand se le ocurrió la idea de usar la autocorrelación en el audio,  cuando tras retirarse de la actividad petrolera una mujer le propuso en una cena fabricar una «caja» que le permitiese cantar afinado.

Con todo el conocimiento que tenía de su actividad anterior sumado a su actividad musical (fue flautista profesional desde los 13 años) se dedica a desarrollar lo que terminaría siendo conocido como Autotune.

¿Quien fue el primero en usar Autotune?

Para hablar de quien fue el primero en usar Autotune tenemos que entender que mucha gente lo usa más como un efecto que como una herramienta para corregir una performance vocal defectuosa.

Para entender como funciona este programa como un efecto tenemos que saber que a diferencia de un instrumento como el piano el ser humano no ataca las notas instantáneamente es decir que no ataca directamente un Do cuando tiene que cantar un Do sino que arrastra la nota hasta llegar a ese lugar, esto sucede en un período corto de tiempo y es lo que hace que suene humano.

El Autotune como efecto lo que busca es que el ataque sea lo más rápido posible y busca emular como ataca las notas un piano o un sintetizador.

La gente piensa que  el primero en haber usado este efecto fue Cher en el single que relanzó su carrera «Believe»:

[divider_1px]

Sin embargo, los primeros en usarlo fueron los del duo «Roy Vedas» a quienes Cher posteriormente buscó para que la ayuden a producir el single:

[divider_1px]

El lanzamiento del single de Cher fue lo que indudablemente catapultó al Autotune hacia la fama en la cultura popular. Hoy por hoy se usa como efecto en una innumerable cantidad de temas y forma parte de una tendencia innegable que se puede comparar al gated reverb o las horribles calzas fluo de los 80.

El debate: ¿Es ético el uso del Autotune?

Imagen de Frank Sinatra ante un micrófono

Algunos cantantes son capaces de grabar canciones enteras de una sola toma.

Para encarar este debate debemos desterrar algunos mitos:

  • La industria discográfica no descubrió el engaño y la decepción hace una semana: Es común pensar que todo tiempo por pasado fue mejor, la realidad es que así como en el pasado hubo artistas que cambiaron para siempre la concepción de la música también existían artistas que usaban los artilugios que tenían a mano para parecer mejores de lo que eran o incluso grandes artistas que usaban ciertos artilugios para pulir aún más sus interpretaciones.
  • En mayor o menor medida la correción de entonación existió siempre: Así como la guerra del volumen no la inventaron en los ’90 sino que se remonta incluso a los años 40-50 la corrección de entonación existió casi siempre. Bob Ohlsson (ingeniero de Motown) cuenta que usaban un complicado sistema que involucraba osciladores, amplificadores y modificar la velocidad del transporte de una grabadora a cinta para cambiar el tono de alguna nota en particular.
    Otros de los métodos usados para corregir la afinación vocal fue el uso de armonizadores vocales como el Harmonizer, el sintetizador Fairlight entre otros.

El debate sobre si es ético o no el uso del Autotune tiene que ver con el lugar donde uno planta bandera ¿Es ético grabar más de una toma de cualquier interpretación musical? ¿Es ético usar usar efectos que no pueden ser replicados en interpretaciones en vivo? ¿Es ética la grabación multipista cuando esta es en si un engaño de como suena una banda en vivo? ¿Es ético el uso de microfonía cercana y la suma de samples en una batería que nunca va a sonar tan contundente?

Todas estas preguntas son en mayor o menor medida relativas al uso de Autotune y ciertamente tienen que ver con la filosofía que tengamos hacía la música grabada.

Mucha gente piensa la música grabada como una forma de dejar un registro a la posteridad que no necesariamente tiene que ser una representación fiel de las interpretaciones en vivo sino que tiene que sonar lo mejor que pueda. Por otro lado, existe gente que piensa que la música grabada tiene que parecerse lo más posible a la música en vivo y no estarán ni más ni menos equivocados que los demás.

El verdadero problema no está en como se pare uno frente a este tipo de tecnologías sino en las consecuencias que puede tener sobre la percepción de la música que tiene la sociedad en su conjunto.

Las desventajas del Autotune

Su verdadero problema es que crea expectativas falsas sobre la perfección de la música que escuchamos. Hoy por hoy a nivel profesional, el Autotune se usa hasta con cantantes que no lo necesitan para nada. Es un estándar de la industria y genera interpretaciones más chatas y predecibles.

Siguiendo la analogía del Photoshop, que sienta modelos de belleza que frustran a las personas que no pueden encajar en los mismos. El Autotune genera una expectativa de que todo tiene que estar perfectamente afinado o está mal. La realidad es que ningún cantante canta con el nivel de perfección que se puede lograr usando Autotune porque por lo menos por ahora son humanos y no robots.

Algunos ejemplos de esto podrían ser:

  • El Autotune se usa extensivamente en las fases definitorias de concursos de talento como American Idol. Esto quiere decir que ni siquiera los cantantes que me están vendiendo como la panacea del canto pueden estar a la altura de lo que se espera de ellos en cuanto a afinación.
    Esto no es porque canten mal sino que no entran en el molde de perfección edulcorada que la televisión pretende vender.
  • También es usado hasta el hartazgo en series como Glee y en muchos casos con cantantes que pueden afinar perfectamente.

Las consecuencias directas de este tipo de comportamientos vienen por el lado de una generación de personas que crecen acostumbrados a un nivel de perfección inalcanzable. No saben que la música la hacen humanos y que la magia no esta en la perfección sino en las emociones que la misma transmita.

Imaginen un mundo donde afinamos a Los Beatles o editamos hasta el hartazgo a Bob Dylan. Imaginense el primer disco de Black Sabbath con todas las notas perfectamente en su lugar. Les quitaría toda la vida y expresividad presentes.

Las ventajas del Autotune:

A pesar de las ventajas ya nombradas, existen algunas cosas positivas en el uso del Autotune. A continuación algunas de ellas:

  • Como herramienta para compositores: Esto permite a compositores conseguir voces aceptables para presentar como demos. En este caso no pretenden engañar a nadie sino que quieren que sus canciones sean más presentables.
  • Para conseguir tomas más rápido: Esto implica un menor gasto en tiempo de estudio para el artista. Hablamos de gente que puede cantar bien pero que le cuesta sacarse los nervios y cantar afinado y ser expresivo al mismo tiempo.
  • Para corregir errores muy puntuales: Esto evita tener que volver a grabar toda una toma o toda una obra por un error fácilmente corregible con el uso de Autotune o algún software similar.

Conclusiones:

El Autotune es sin duda una herramienta que llegó para quedarse, no se avizora un futuro cercano en el que no se use la corrección intensiva tanto en las voces como en el resto de los instrumentos.

Plantea un debate interesante como lo planteó en su momento la grabación multipista o el ingreso de la computadora al mundo del audio.

Creo que es una herramienta que puede ser usada para cosas interesantes más allá de los defectos y las desventajas que presenta. Lo único que de usarla en nuestra música tenemos que tratar de ser cautelosos y no dejar que las tendencias nos consuman o nos hagan conformar un molde pre-establecido.

Read More
1 2 3 4 5 6 7