Category : featured

5 minutos featured Tutoriales

Como hacer que la voz resalte en la mezcla

voz-resalte-en-la-mezcla

Hacer una mezcla no es fácil y eso lo sabemos todos, el problema es hacer una mezcla que suene bien en todos lados pero darnos cuenta de que la voz no resalta como nosotros queremos. En inglés se suele hablar de «in your face vocals» que es una descripción bastante gráfica de lo que buscamos.

En este artículo vamos a aprender por qué es importante y como tenemos que hacer para que la voz resalte en la mezcla.

Siempre adelante del resto

La voz en la música popular en la inmensa mayoría de las situaciones es el elemento que prima por sobre los demás en la mezcla y que por lo tanto tiene un trato especial en todas las etapas de la cadena de grabación.

Al grabar voces usamos los mejores micrófonos y preamplificadores que tenemos, nos esmeramos mucho por lograr tomas que transmitan emoción.

En la etapa de la compilación vocal podemos pasar un tiempo importante escogiendo con criterio las mejores partes de cada toma, posteriormente nos podemos pasar un buen rato corrigiendo la afinación o ultimando detalles, pero todo este esfuerzo es inútil si no conseguimos que la voz sobresalga en nuestra mezcla.

Esto no quiere decir que nuestra mezcla tiene que sonar como un karaoke en donde las pistas de acompañamiento son un mero relleno, si no que tenemos que asegurarnos que del plano que tengamos con toda la música, la voz tenga al menos un poquito más.

A veces la mezcla se hace en torno a la voz, es decir ecualizar para que otros instrumentos cedan espacio frecuencial a la voz, panear los instrumentos que están interfiriendo a otro lugar y jugar con su nivel también.

El fader nuestro mejor aliado

La primera herramienta que tenemos a mano para lograr que nuestras voces resalten es el fader. La técnica que se usa para este fin se llama automatización o fader riding  y lo que se busca es nivelar la voz en toda la performance.

Lo que tenemos que hacer en la práctica es subir el nivel de las frases o palabras que suenan más despacio y bajar el nivel de las que suenan muy fuerte. Nos podemos ayudar con las formas de onda para saber con más precisión que partes son las problemáticas.

Un truco interesante es usar el modo de automatización touch, en el que se escribe solo cuando tocamos el parámetro a automatizar y luego retorna al valor por omisión o 0 dB. Por lo tanto las partes que necesiten reducción o aumento se modifican y las demás quedan en el nivel nominal de la pista. Personalmente recomiendo que automaticemos solo la instancia que necesitemos y una por vez.

Nota: Para habilitar las automatizaciones en las D.A.W hay que seleccionar el parámetro a automatizar, ya sea el volumen, paneo, los mutes, los envíos o los parámetros internos de los plugins. En Pro tools por ejemplo hay que ir a la ventana window y seleccionar automation y luego seleccionar el parámetro a automatizar. Es aconsejable habilitar las automatizaciones de un parámetro por vez para no confundirnos al hacerlo.

Automation window

Vista de la ventana de habilitación de automatización de pro tools. Notar que solo el volumen está habilitado.

 

Fader riding

Ejemplo de la técnica de fader riding o automatización del nivel de la voz. Notar que el canal a automatizar tiene que estar en un modo de automatización y hay que habilitar el parámetro a automatizar.

Comprimir luego de automatizar

Esta es una de las cosas que hacen una gran diferencia en el resultado final de las voces. Para hacerlo hay que primero resolver el tema de la automatización y luego crear una pista auxiliar que es alimentada por la salida de nuestra pista original vocal. En esta pista auxiliar es donde vamos a comprimir y debido a que está ya nivelada vamos a necesitar mucha menos reducción de ganancia.

Este detalle es muy importante ya que los compresores y plugins en general funcionan mejor cuando son trabajados de manera sutil o con pocos decibeles de atenuación, en el caso de los compresores.

Otra estrategia de mezcla para voces interesante es comprimir por etapas, es decir usar varios compresores en serie cumpliendo distintas funciones. Por ejemplo usar un compresor con un ataque y release rápidos para encargarse de los picos sobrantes de la señal, seguido de otro para controlar el RMS con un ataque y release más lento. Es además aconsejable usar razones de compresión suaves del orden de los 2:1 a 4:1 como máximo. Todo con el objetivo de lograr que suene lo más natural posible.

Compresión en serie

Ejemplo del uso de la compresión en serie luego de la automatización,como estrategia para suavizar los efectos de la compresión.

 

Sumar distorsión para cortar en la mezcla

Otra de las técnicas o estrategias que nos pueden ayudar a que la voz siempre resalte en una mezcla densa con muchos elementos es agregar distorsión a la voz.

Pero no hablo del tipo de distorsión que se usa para la guitarra, más bien me refiero a una distorsión aplicada en paralelo con muy poca saturación y filtrando gran parte del contenido de la señal, de tal manera de sumar a la voz un brillo extra que nos permite que siempre esté en primer plano ya que le agregamos armónicos de alta frecuencia que simplemente se notan cuando prestamos atención.

La idea es crear una pista auxiliar y enviar allí la voz, luego filtrar la señal en una frecuencia alta por ejemplo 500-1000 Hz y luego colocar la distorsión con poca saturación o ganancia. Finalmente sumamos la señal distorsionada a la voz y buscamos el nivel correcto para que haga el efecto sin ser notada.

Saturación Vocal

Vista de la ventana de mezcla de una D.A.W en donde se aplica la distorsión en la voz en paralelo, previo uso de filtros.

 

Conclusiones

Hacer que la voz resalte en la mezcla es quizás uno de las principales problemas que debemos enfrentar a la hora de mezclar, y que sin duda en la mayor parte de la música comercial la voz es la que manda y se debe entender por completo la letra, en el contexto de mezcla.

Es por eso que debemos tratar las voces con especial atención, debemos hacer que se sienta como que es el elemento número uno sin que los demás queden relegados a segundo plano. Lo importante de las técnicas mostradas acá es lograr el objetivo (en nuestro caso que la voz resalte y suene pareja siempre) sin que sea evidente que hay un proceso detrás.

Como siempre decimos experimenten con las técnicas que les mostramos, vean como funcionan y saquen sus conclusiones. Un saludo y a  mezclar!

 

Read More
5 minutos featured Tutoriales

Como hacer Bounce en tu D.A.W

Como hacer bounce en tu DAW

Una vez tenemos nuestra mezcla o masterización terminada y ha llegado la hora de exportar la pista maestra para que el mundo la escuche, es muy importante tener en cuenta la manera en que la exportamos para no perder la calidad que logramos.

El proceso de exportar la pista maestra se llama Bounce y hay distintas formas de hacerlo. En esta ocasión vamos a mostrarte como hacer para sacar el máximo partido de las mezclas en tu D.A.W. Veamos:

¿De dónde viene el término bounce?

La denominación de este proceso viene de los días de la grabación en cinta magnética y específicamente en sistemas de carrete abierto u «Open reel». En un principio no se tenía la posibilidad de grabar muchas pistas ya que por lo general se podían grabar solamente 4 pistas.

Ante la necesidad de grabar con overdubs usando la mayor cantidad de micrófonos posible se grababan por ejemplo la batería y el bajo en 4 pistas y posteriormente se mezclaban estas pistas en dos pistas o estéreo y dicha mezcla estéreo se volcaba en 2 pistas a otra grabadora dejando así dos pistas libres. Se liberaban 2 pistas para poder grabar guitarras, voces o cualquier otro instrumento necesario.

De la misma manera el volcado podía ser a una sola pista y entonces quedaban 3 pistas libres para su uso posterior. El nombre «Bounce» que en inglés quiere decir rebotar se refiere a como las pistas iban pasando desde 4 a 2  y así sucesivamente (como una pelota que rebota) la  técnica también se conocía como «ping pong recording»

maquinas de cinta carrete abierto

Vista de máquinas de grabación a cinta del tipo Reel to Reel o carrete abierto.

¿Qué es lo que se hace?

En este proceso lo que el programa hace es sumar todas las pistas que tenemos en la sesión de mezcla, que por ejemplo pueden provenir de los subgrupos de mezcla que hayamos creados y del master fader finalmente.

Como resultado se crea una pista estéreo que es el archivo que exportamos ya sea para masterizar o para su posterior distribución.

¿Cómo se hace?

La manera específica depende de la estación de trabajo que estemos usando pero en términos generales existen dos formas para hacerlo: una en la que el proceso se realiza fuera de línea, es decir se procesa pero no en tiempo real.

La segunda manera de hacerlo es en tiempo real: el proceso demora lo que dura la canción creando una nueva pista para grabar el audio resultante de la suma de los subgrupos o del master fader.

¿Cuál es la mejor forma?

Si bien cada una de las maneras antes mencionadas tiene sus adeptos, yo me inclino por hacerlo en tiempo real por varios motivos.

En primer lugar al hacerlo de esta forma nos obliga a escuchar el resultado. Puede suceder que pensamos que todo está bien pero al hacer el bounce nos damos cuenta que dejamos el retorno de un efecto en silencio o alguna pista deshabilitada. Al escuchar en tiempo real podemos saber rápidamente si se nos paso algo por alto.

Otra ventaja de hacerlo en tiempo real es que la pista que grabemos va a estar dentro de la sesión en la que estamos trabajando. Si bien parece trivial nos puede servir para escuchar las diferencias entre mezclas al momento de tener que hacer correcciones o si usamos algún hardware externo para asegurarnos de que el recall esté bien hecho.

Por otro lado algunas estaciones de trabajo al hacer el bounce fuera de línea degradan la calidad final del audio y acaba resultando un archivo que no tiene la calidad que nosotros pensamos que tenía.

Bounce fuera de línea

Si bien los detalles de este proceso dependen de la D.A.W que usemos, en general se nos va a requerir la pista o sumador de nuestra mezcla o buss de mezcla. Por ejemplo su usamos como salida de nuestro master fader las salidas 1-2 esta sería la que debemos elegir.

Bounce to disk pro tools

Vista de la pestaña de bounce to disk en Pro Tools.

Luego hay que especificar el tipo de archivo de audio con el que queremos exportar nuestra mezcla. Además hay que seleccionar si queremos que  el resultado de nuestro bounce sea un archivo Stereo interleaved,  Multiple mono o Mono. Por lo general lo que queremos es «Stereo Interleaved»

Bounce to disk pro tools

Vista de la ventana de diálogo para hacer Bounce to disk en Pro tools.

Luego tenemos que seleccionar la profundidad de bits y la frecuencia de muestreo. Si estamos en la mezcla por lo general se debe mantener la resolución en la que se trabajó. Es decir si grabamos y mezclamos a 24 bits y 44.1 kHz, elegimos estos parámetros para exportar, ya que para masterizar vamos a necesitar la mayor resolución posible.

Finalmente al aceptar  nos va a requerir que escojamos una carpeta o lugar para guardar el bounce y colocarle nombre. Es recomendable crear una carpeta dentro de la sesión de la mezcla que se llame mezclas o algo similar, para guardar todas las versiones de la mezcla y tenerlas a mano.

Guardar bounce to disk

Vista del cuadro de diálogo que abre Pro tools al hacer un bounce fuera de línea.

 

Bounce en tiempo real

En primer lugar tenemos que crear una pista de audio estéreo para grabar el resultado de nuestra mezcla. El nombre no es demasiado importante aunque se puede usar «REC» como en el ejemplo. A mi me resulta útil asignarle un color distinto para identificarla con facilidad.

La nueva pista estéreo debe tener como entrada un bus estéreo que debe ser el mismo que a la salida de nuestro master fader o subgrupo sumador. Esto para asegurarnos que todas las pistas que conforman la mezcla queden grabadas.

Bounce en tiempo real

Vista de la ventana de mezcla para hacer bounce en tiempo real a una pista de audio. En azul y rojo resaltado el camino de la señal hacia la pista REC.

Posteriormente hay que colocar la pista creada en Solo Safe y activar la grabación o colocar «REC Enable». Debemos en este punto asegurarnos que todas las pistas se dirigen hacia nuestros grupos de mezcla y que los mismos se dirigen a un sumador o master fader. En este punto debemos cuidar de que no hayan pistas sin asignar o que hayan quedado en «Solo» sin darnos cuenta.

Es buena idea  comenzar a grabar dejando un espacio antes de que comience la canción para de existir ruidos poder tener la posibilidad de removerlos durante la masterización. De la misma manera es indispensable al terminar la canción dejar todo el decaimiento natural de los instrumentos para poder hacer el fade final en la masterización, sin perder ni un solo segundo de música.

Pista rec o bounce

Vista de la pista de audio REC en la cuál se hace el bounce en tiempo real. Notar que la misma está en solo safe

También es recomendable escuchar atentamente mientras se graba el archivo ya que podemos encontrarnos con sorpresas. Es aconsejable usar audífonos como apoyo para cerciorarnos de que no hayan ruidos o cosas extrañas en el audio final.

Finalmente debemos darle un nombre a nuestra región de audio que coincida con el nombre de la canción que estamos mezclando y además colocarle la versión de la mezcla/masterización que estamos realizando. Esto por que si necesitamos revisiones más adelante es muy difícil hacerlas sin saber cual de nuestras mezclas era la primera o segunda. Para más información sobre convenciones de nombramiento pueden leer este otro artículo.

Cambiar nombre región Pro tools

Vista de la ventana de diálogo de Pro tools para cambiar el nombre a una región.

Exportando el Bounce

Una vez grabamos la pista y la nombramos correctamente es hora de exportarla fuera de nuestra D.A.W el archivo. Esta es otro paso que depende del programa que usemos pero en Pro Tools hay que seleccionar la región y seleccionar «Export Region as File». En otro software la opción puede tener otro nombre pero la idea es la misma.

Aquí se nos presentará un cuadro de diálogo similar al del bounce fuera de línea. Tenemos que seleccionar el tipo de archivo, la frecuencia de muestreo y la profundidad de bits haciendo que coincidan con los de la sesión para mantener la resolución.

Exportar bounce

Vista del cuadro de diálogo que abre Pro tools para exportar una región.

Es una buena idea crear una carpeta dentro del proyecto que se llame «Mezclas» para guardar todas las versiones que hagamos de las mezclas y de esta manera tener a mano para escuchar los cambios que hagamos.

Conclusiones

Muchas veces algo que parece trivial como exportar la mezcla de una canción tiene algunos conceptos detrás que hay que conocer y respetar para poder mantener la calidad de nuestro trabajo.

La sugerencia es buscar hacer nuestros bounce en tiempo real con el método del re-grabado a pesar de que aparente demorar más tiempo. Muchas veces es mucho mayor el tiempo que vamos a demorar cuando nos demos cuenta que algo faltó de grabar en el bounce o que tenía errores.

Read More
featured

¿Que es el Autotune y por qué está tan de moda?

Qué es el Autotune y por qué está tan de moda.

Si escuchaste o en su defecto estuviste presente mientras sonaba casi cualquier tema pop durante los últimos 15 años, hay altísimas probabilidades de que hayas escuchado este fenómeno.

Cuando la  gente me pregunta que es el Autotune suelo decir que es el Photoshop de los cantantes. ¿A qué me refiero con esto?
A que es una herramienta que permite de cierta manera enmascarar defectos para presentar una versión edulcorada de la realidad.

¿Estamos ante la gran estafa musical del siglo XXI? ¿Somos victimas de otra conspiración de los OVNIS? ¿Milli & Vanilli no cantaban sus propios temas?

Averigüemoslo a continuación:

¿Qué es el Autotune?

Una definición acertada sería: Es un software que facilita  la tarea de corregir la afinación de una melodía o línea musical.

Veamoslo de una manera abstracta: El sistema musical de occidente esta compuesto por 12 notas que se separan entre si por intervalos de medio tono también conocidos como semitonos. Por lo general la mayor parte de las canciones que escuchamos usa una porción acotada de dichas notas que se denominan escalas.

Si el tema está en Re mayor por ejemplo, consideraremos solamente 7 de las 12 notas como «válidas». Estas notas son: Re Mi Fa# Sol La Si Do# (notas que componen la escala mayor/jónica de Re).

A pesar de que no tengamos ningún entrenamiento musical y debido a la cantidad de veces que escuchamos la misma escala una y  otra vez en un contexto musical, nuestro cerebro esta programado para entender cuando algo esta fuera de lugar.

Cuando un cantante desafina esta en esencia cantando una nota que no pertenece a dicha escala. Esa nota puede estar un semitono por debajo, un semitono por encima o también puede estar entre medio ya que entre dos semitonos hay un intervalo teóricamente infinito de frecuencias.

Lo que hace Autotune es permitirnos visualizar gráficamente en que lugar cae cada nota que está siendo analizada y nos da la posibilidad de llevar esa nota al lugar a donde pertenece.

¿Como nace el Autotune?

Aunque no lo creas, una de las tecnologías usadas para encontrar petróleo es básicamente responsable de la creación del Autotune.

Andy Hildebrand, el creador del software había trabajado para Exxon Mobile en el campo de la Interpretación de datos sísmicos mediante ondas sonoras las cuales son enviadas hacía la tierra donde se cree que puede haber petróleo y la información «devuelta» por la misma es interpretada para lograr reconocer donde es mejor perforar.

Sin embargo una de las dificultades de este proceso radica en que necesita «separar» la frecuencia fundamental de los armónicos de un sonido. Para esto se usa un modelo matemático denominado autocorrelación que puede distinguir la presencia de una frecuencia fundamental aún cuando esta esté enmascarada en ruido o por armónicos de la misma.

Lo que resulta más curioso es que a Hildebrand se le ocurrió la idea de usar la autocorrelación en el audio,  cuando tras retirarse de la actividad petrolera una mujer le propuso en una cena fabricar una «caja» que le permitiese cantar afinado.

Con todo el conocimiento que tenía de su actividad anterior sumado a su actividad musical (fue flautista profesional desde los 13 años) se dedica a desarrollar lo que terminaría siendo conocido como Autotune.

¿Quien fue el primero en usar Autotune?

Para hablar de quien fue el primero en usar Autotune tenemos que entender que mucha gente lo usa más como un efecto que como una herramienta para corregir una performance vocal defectuosa.

Para entender como funciona este programa como un efecto tenemos que saber que a diferencia de un instrumento como el piano el ser humano no ataca las notas instantáneamente es decir que no ataca directamente un Do cuando tiene que cantar un Do sino que arrastra la nota hasta llegar a ese lugar, esto sucede en un período corto de tiempo y es lo que hace que suene humano.

El Autotune como efecto lo que busca es que el ataque sea lo más rápido posible y busca emular como ataca las notas un piano o un sintetizador.

La gente piensa que  el primero en haber usado este efecto fue Cher en el single que relanzó su carrera «Believe»:

[divider_1px]

Sin embargo, los primeros en usarlo fueron los del duo «Roy Vedas» a quienes Cher posteriormente buscó para que la ayuden a producir el single:

[divider_1px]

El lanzamiento del single de Cher fue lo que indudablemente catapultó al Autotune hacia la fama en la cultura popular. Hoy por hoy se usa como efecto en una innumerable cantidad de temas y forma parte de una tendencia innegable que se puede comparar al gated reverb o las horribles calzas fluo de los 80.

El debate: ¿Es ético el uso del Autotune?

Imagen de Frank Sinatra ante un micrófono

Algunos cantantes son capaces de grabar canciones enteras de una sola toma.

Para encarar este debate debemos desterrar algunos mitos:

  • La industria discográfica no descubrió el engaño y la decepción hace una semana: Es común pensar que todo tiempo por pasado fue mejor, la realidad es que así como en el pasado hubo artistas que cambiaron para siempre la concepción de la música también existían artistas que usaban los artilugios que tenían a mano para parecer mejores de lo que eran o incluso grandes artistas que usaban ciertos artilugios para pulir aún más sus interpretaciones.
  • En mayor o menor medida la correción de entonación existió siempre: Así como la guerra del volumen no la inventaron en los ’90 sino que se remonta incluso a los años 40-50 la corrección de entonación existió casi siempre. Bob Ohlsson (ingeniero de Motown) cuenta que usaban un complicado sistema que involucraba osciladores, amplificadores y modificar la velocidad del transporte de una grabadora a cinta para cambiar el tono de alguna nota en particular.
    Otros de los métodos usados para corregir la afinación vocal fue el uso de armonizadores vocales como el Harmonizer, el sintetizador Fairlight entre otros.

El debate sobre si es ético o no el uso del Autotune tiene que ver con el lugar donde uno planta bandera ¿Es ético grabar más de una toma de cualquier interpretación musical? ¿Es ético usar usar efectos que no pueden ser replicados en interpretaciones en vivo? ¿Es ética la grabación multipista cuando esta es en si un engaño de como suena una banda en vivo? ¿Es ético el uso de microfonía cercana y la suma de samples en una batería que nunca va a sonar tan contundente?

Todas estas preguntas son en mayor o menor medida relativas al uso de Autotune y ciertamente tienen que ver con la filosofía que tengamos hacía la música grabada.

Mucha gente piensa la música grabada como una forma de dejar un registro a la posteridad que no necesariamente tiene que ser una representación fiel de las interpretaciones en vivo sino que tiene que sonar lo mejor que pueda. Por otro lado, existe gente que piensa que la música grabada tiene que parecerse lo más posible a la música en vivo y no estarán ni más ni menos equivocados que los demás.

El verdadero problema no está en como se pare uno frente a este tipo de tecnologías sino en las consecuencias que puede tener sobre la percepción de la música que tiene la sociedad en su conjunto.

Las desventajas del Autotune

Su verdadero problema es que crea expectativas falsas sobre la perfección de la música que escuchamos. Hoy por hoy a nivel profesional, el Autotune se usa hasta con cantantes que no lo necesitan para nada. Es un estándar de la industria y genera interpretaciones más chatas y predecibles.

Siguiendo la analogía del Photoshop, que sienta modelos de belleza que frustran a las personas que no pueden encajar en los mismos. El Autotune genera una expectativa de que todo tiene que estar perfectamente afinado o está mal. La realidad es que ningún cantante canta con el nivel de perfección que se puede lograr usando Autotune porque por lo menos por ahora son humanos y no robots.

Algunos ejemplos de esto podrían ser:

  • El Autotune se usa extensivamente en las fases definitorias de concursos de talento como American Idol. Esto quiere decir que ni siquiera los cantantes que me están vendiendo como la panacea del canto pueden estar a la altura de lo que se espera de ellos en cuanto a afinación.
    Esto no es porque canten mal sino que no entran en el molde de perfección edulcorada que la televisión pretende vender.
  • También es usado hasta el hartazgo en series como Glee y en muchos casos con cantantes que pueden afinar perfectamente.

Las consecuencias directas de este tipo de comportamientos vienen por el lado de una generación de personas que crecen acostumbrados a un nivel de perfección inalcanzable. No saben que la música la hacen humanos y que la magia no esta en la perfección sino en las emociones que la misma transmita.

Imaginen un mundo donde afinamos a Los Beatles o editamos hasta el hartazgo a Bob Dylan. Imaginense el primer disco de Black Sabbath con todas las notas perfectamente en su lugar. Les quitaría toda la vida y expresividad presentes.

Las ventajas del Autotune:

A pesar de las ventajas ya nombradas, existen algunas cosas positivas en el uso del Autotune. A continuación algunas de ellas:

  • Como herramienta para compositores: Esto permite a compositores conseguir voces aceptables para presentar como demos. En este caso no pretenden engañar a nadie sino que quieren que sus canciones sean más presentables.
  • Para conseguir tomas más rápido: Esto implica un menor gasto en tiempo de estudio para el artista. Hablamos de gente que puede cantar bien pero que le cuesta sacarse los nervios y cantar afinado y ser expresivo al mismo tiempo.
  • Para corregir errores muy puntuales: Esto evita tener que volver a grabar toda una toma o toda una obra por un error fácilmente corregible con el uso de Autotune o algún software similar.

Conclusiones:

El Autotune es sin duda una herramienta que llegó para quedarse, no se avizora un futuro cercano en el que no se use la corrección intensiva tanto en las voces como en el resto de los instrumentos.

Plantea un debate interesante como lo planteó en su momento la grabación multipista o el ingreso de la computadora al mundo del audio.

Creo que es una herramienta que puede ser usada para cosas interesantes más allá de los defectos y las desventajas que presenta. Lo único que de usarla en nuestra música tenemos que tratar de ser cautelosos y no dejar que las tendencias nos consuman o nos hagan conformar un molde pre-establecido.

Read More
featured

Como exportar una sesión de Cubase a Pro Tools

Como exportar sesiones de Cubase a Pro Tools

Exportar una sesión es una de las tareas que más dolores de cabeza nos pueden traer, no importa que tan meticulosos seamos siempre algún problema surge en el medio.

No es que la tarea sea complicada en si, lo que sucede es que cuando queremos pasar una sesión entre DAW’s o a otra versión de nuestro mismo software ponemos a las leyes de Murphy a trabajar en nuestra contra.

Cuando hablamos de exportar una sesión de Cubase a Pro Tools tenemos que entender que casi siempre vamos a perder todo lo que hayamos hecho en nuestro DAW en cuanto a paneos, volumenes, ecualización, inserciones y lo mejor es mentalizarse de que si por alguna razón tenemos que exportar una sesión vamos a tener que arremangarnos y empezar la mezcla de nuevo.

Por otro lado, los consejos que acá expuestos se pueden aplicar a la mayoría de las estaciones de trabajo porque los principios son justamente intercambiables.

Existen básicamente 2 formas de hacerlo. Pasemos entonces a ver como podemos exportar una sesión de Cubase a Pro Tools.

Exportar una sesión usando pistas consolidadas:

Esta es sin duda la mejor forma de exportar una sesión ya que  nos aseguramos manualmente de que no haya lugar para una desincronización.

Consolidar una pista quiere decir que hacemos que la duración de la misma sea fijada de acuerdo a la duración de las demás. Supongamos que tenemos una pista de voz que entra en el segundo coro de una canción y dura 25 segundos. Si la pista más larga dura 4:12 tenemos que hacer que ese coro dure la misma cantidad de tiempo.

De esta manera nos aseguramos que al importar las pistas a otra estación de trabajo estén sincronizadas, no tenemos que preocuparnos por donde empieza y termina cada una ya que todas empiezan y terminan al mismo tiempo.

La desventaja de este método es que nuestras sesiones van a pesar más debido a que básicamente le estamos agregando silencios a las partes  donde no había nada.

¿Como consolidar pistas en Cubase?

En Cubase las pistas se consolidan al exportar el proyecto. A continuación mostramos como se hace en un proyecto con 6 pistas.
Como podemos ver la pista denominada «Beat» es la más larga de todas y tenemos algunas que suenan esporádicamente. La idea es que todas las pistas tengan la misma duración que la pista Beat

Consolidar una pista en Cubase

Vista de una sesión con 6 pistas en Cubase.

 

Para ello, lo primero que tenemos que hacer es seleccionar todas las pistas tecleando (Ctrl + A) si estan en una PC o (Cmd + A) si están en una Mac. A continuación apretamos la tecla «P» para hacer que la selección vaya desde el principio hasta el final de la pista más larga. Se tiene que ver así:

Exportar Cubase a Pro Tools consolidando pistas

Observamos que la selección abarca desde el principio hasta el final de la pista más larga.

Una vez tenemos la selección como se muestra vamos a Archivo > Exportar > Mezcla de audio y allí tenemos que elegir la opción Exportar Multicanal que nos va a permitir exportar más de una pista al mismo tiempo.

Exportar multicanal Cubase

Tenemos que seleccionar las opciones Exportar Multicanal y tenemos que asegurarnos de que este seleccionada la opción mono

Seleccionamos además la opción canales de Audio y nos aseguramos de que estén seleccionadas las pistas que queremos exportar (están organizadas por su nombre en orden alfabético). Elegimos además una carpeta a la que exportar y en caso de ser necesario un prefijo que se encontrará al inicio de todos los archivos por ejemplo: Export – Voz 1, Export – Voz 2 etc

A veces a pesar de que este seleccionada la pista mono Cubase exporta las pistas en estéreo ya que seleccionamos el método «Exportar Mezcla de audio». Este es el único defecto de este método ya que si la pista que queremos exportar es mono, tendremos que convertirlas de estéreo a mono dentro de Pro Tools.

Una vez hacemos click en exportar tendremos que esperar unos segundos o minutos de acuerdo a la velocidad de nuestra computadora y tendremos las pistas exportadas en la carpeta que elegimos. Cuando tengamos las pistas lo único que debemos hacer es ir a Pro Tools (o a cualquier otra estación de trabajo de audio digital) e ir importando las pistas ya sea una por una o todas juntas.

Como todas empiezan y terminan al mismo tiempo estarán perfectamente sincronizadas salvo que haya salido mal en el proceso.

 

Comprobando si las pistas estan consolidadas.

Para comprobar que las pistas estan consolidadas debemos fijarnos si todas pesan lo mismo.

Otra forma de consolidar pistas en Cubase:

Existe otra forma de consolidar pistas que nos permite ver como se ven las pistas consolidadas. Para ellos usaremos el comando Bounce o Convertir Selección en Archivo.

La lógica es similar, la única diferencia es que necesitamos hacer una selección a las pistas propiamente dichas usando la herramienta Seleccionar un Rango. Veamos como se hace

En primer lugar necesitamos asegurarnos de que todas las pistas que queremos consolidar estén seleccionadas. Para ello seleccionamos la primer pista del proyecto y manteniendo apretada la tecla Shift hacemos click en la última pista del proyecto. Esto hace que se seleccionen todas las pistas entre las dos que elegimos. Esto se tiene que ver así:

Como seleccionar todas las pistas de un proyecto Cubase

Cuando una pista esta seleccionada en Cubase esta tiene el color gris.

Posteriormente pasamos a hacer una selección que abarque todas las pistas, no hay que confundir una selección con seleccionar las pistas. La selección se hace usando la herramienta Seleccionar un Rango, para ello necesitamos hacer click en el final de la pista más larga e ir hacia el principio, una vez allí hacemos un scroll hacia abajo hasta cubrir toda la duración de la pista más larga y cubrir al mismo tiempo todo el resto de las pistas.

Una vez hecha la selección, deberíamos tener algo así:

Haciendo una selección de pistas en Cubase para hacer un bounce.

Cuando realizamos la selección también buscamos que todas las pistas tengan la misma duración

El siguiente paso es ir a Audio > Convertir Selección en Archivo (Bounce). Hacemos click en esa opción y una vez hecho nos saldrá un cuadro que nos pregunta si queremos reemplazar los archivos, tenemos que decir que si. Esto porque necesitamos que el nuevo archivo consolidado reemplace a los anteriores de manera de poder exportarlos ya consolidados. Una vez concluido este proceso vamos a ver las pistas finalmente consolidadas:

Como se ven las pistas consolidadas en Cubase.

Como podemos ver, todas las pistas tienen la misma duración. En las partes en las que algo no suena se le añade un silencio haciendo el archivo más grande.

Finalmente para exportar vamos a Archivo > Exportar > Pistas Seleccionadas  y cuando se nos pregunte si queremos copiar o referenciar los archivos elegimos copiar. Para concretar la exportación tenemos que crear una nueva carpeta (tiene que estar vacía).

En la carpeta nueva tendremos una carpeta denominada Media y un archivo XML con el nombre de la carpeta. Los archivos tienen que pesar todos lo mismo y una vez con ellos podemos hacer lo mismo que hicimos en el ejemplo 1 para importarlos desde Pro Tools sin tener mayores inconvenientes.

Importar el proyecto en Pro Tools

Una vez exportamos las pistas consolidadas usando cualquiera de los métodos arriba descritos pasamos a importar las pistas en Pro Tools.

En primera instancia necesitamos crear una nueva sesión vacía. Una vez tenemos eso vamos a Archivo > Importar

Cuadro de diálogo para importar pistas Pro Tools

Cuadro de diálogo para importar archivos en Pro Tools

Posteriormente pasamos a seleccionar las pistas que queremos importar. Una vez hacemos esto pasamos a convertir las pistas para poder usarlas dentro de la sesión.

Convertir pistas para importar en Pro Tools

Antes de poder usar las pistas tenemos que convertirlas en Pro Tools

Finalmente cuando tengamos todas las pistas convertidas podemos hacer click en Done y podremos ver las pistas en Pro Tools. Cabe aclarar que en el caso de este experimento las pistas se exportaron en estéreo y de sucederles lo mismo lo que tienen que hacer es convertir la pista estéreo en dos pistas mono y borrar una de las pistas mono. Esto se hace con algo que se conoce como «Split to mono» haciendo click derecho sobre el nombre de la pista. Si tenemos muchas pistas el proceso puede ser algo engorroso. Las pistas estéreo se verán así:

pistas-consolidadas-protools

Así se ven las pistas consolidadas. Como se puede apreciar en este caso se exportan en estéreo.

En el caso de usar el método de Bounce no tendremos pistas estéreo ni tendremos este problema.

Exportar una sesión usando un archivo OMF:

La segunda forma de exportar una sesión de una estación de trabajo a otra es usando lo que se conoce como Open Media Format u OMF. Es un formato que fue pensado para ser independiente de la marca o del fabricante del software es decir que permite la transferencia de sesiones de audio aunque con algunas limitaciones (se pueden exportar las curvas de fundido por ejemplo pero no todos los detalles de una mezcla).

El mayor problema con respecto a estos archivos es que Pro Tools no los aceptaba hasta la versión 10 y para poder importar archivos OMF había que pagar por una licencia de un software denominado Digitranslator. Entonces si no tenés Pro Tools 10 o superior esta opción no te conviene, por otro lado si puede servirte si usás otra DAW.

Más allá de esto es una buena forma de traspasar proyectos entre distintas estaciones de trabajo o estudios pero siempre teniendo en cuenta que sus capacidades de exportar mezclas son limitadas. Lo más recomendable es si pensamos mezclar en una DAW determinada, hacerlo desde cero.

Para crear un archivo OMF desde Cubase lo único que tenemos que hacer es ir a Archivo > Exportar > OMF una vez allí tenemos que seleccionar las siguientes opciones:

Como exportar una sesión en Cubase como OMF

Este es el dialogo que veremos si queremos crear un archivo OMF

Debemos asegurarnos de que estén seleccionadas todas las pistas que queremos exportar además que este seleccionada la opción «Desde localizador izquierdo a derecho», «Copiar Medios» y «Exportar todo en un Archivo».

En la opción Explorar tenemos que seleccionar la carpeta hacia la cual queremos exportar el archivo OMF. Tenemos que elegir un nombre para el archivo OMF y finalmente hacer click en aceptar.

El archivo OMF que creamos nos servirá para poder importar la sesión en otra interfaz de trabajo, sin embargo esta opción es la menos confiable porque suele tener problemas de compatibilidad. Como dije antes, lo mejor es exportar pistas consolidadas y empezar a mezclar de cero y para ello hay que planear con anticipación.

Conclusiones:

Existen varias formas de exportar archivos para poder trabajar en dos estudios diferentes, mandar a mezclar nuestro proyecto afuera o simplemente mezclar nuestros proyectos en una estación de trabajo distinta (hay gente que prefiere mezclar en Pro Tools aunque prefiere grabar en otras DAW)

La mejor forma de exportar sesiones desde Cubase a Pro Tools es usando pistas consolidadas, es decir pistas que tienen la misma duración. Para lograrlo hacemos que todas las pistas tengan la misma duración que la pista más larga del proyecto, esto nos asegura que todas las pistas estén sincronizadas e incluso nos permitirá el uso de un metrónomo sin necesidad de calcular mapas de tempo o hacer algún arreglo extraño.

También es posible usar el formato OMF para exportar sesiones pero este método no es del todo recomendable ya que no es igual de confiable que el uso de pistas consolidadas. La ventaja de los archivos OMF es que incluyen cierta información sobre la mezcla (como los archivos de fundido) pero estos suelen tener problemas de compatibilidad en las distintas DAW y por ende se deben usar con cuidado.

¿Vos como exportas tus sesiones?

Read More
featured Mezcla

Que es el reverb y como usarlo en tus mezclas

Que es el reverb: Teoría y usos prácticos.

Seguro que escuchaste muchas veces explicaciones incompletas sobre que es el reverb o como funciona algún efecto de reverberación. También hay grandes probabilidades de que confundas el concepto de eco con el de reverb o que sepas empíricamente lo que es pero no sepas describir el fenómeno.

En este artículo te exlicamos que es el reverb, cuales son los factores que influyen y cuales son los parámetros de funcionamiento de cualquier unidad de procesamiento. Además te mostramos algunos usos prácticos donde el reverb se hace imprescindible.

¿Que es el reverb?

La reverberación es un fenómeno que se produce en recintos o salas cerradas en las que un sonido dado incide sobre las distintas superficies reflejándose una gran cantidad de veces provocando que las reflexiones aumenten en cantidad y densidad; de tal manera que el sistema auditivo  no es capaz de distinguir las reflexiones individualmente y las integra en una sola masa de sonido.

Esa masa de sonido perdura en el tiempo una vez que cesó el sonido y el tiempo en que demora en hacerse inaudible se denomina tiempo de reverberación. Otra manera de definir la reverberación es: El tiempo que demora un sonido en decaer 60 decibeles desde que la fuente sonora cesó de emitir sonido. Por este motivo es que en muchos libros se expresa como RT60 (Reverberation time)

 ¿De que factores depende el tiempo de reverberacion?

Tiempo de reverberacion y el tamaño de la sala: Avery Fisher Hall

El tamaño de la sala es uno de los factores que influyen en el tiempo de reverberación de la misma.
Foto: Avery Fisher Hall en Nueva Y ork (Wikipedia)

En el decaimiento de la reverberación entran en juego un conjunto de factores que alteran el resultado veamos algunos de ellos.

  •  Tamaño de la sala: Tal vez el parámetro mas importante en el tiempo de decaimiento de la reverberación es el tamaño de la sala, cuanto mas grande sea la sala mayor es el tiempo que va a permanecer el sonido en el aire.
    Esto se debe a que el sonido tiene que viajar distancias mas importantes y las reflexiones están mas espaciadas en el tiempo. Un ejemplo de salas muy reverberantes son las iglesias o templos similares, en ellos es común tener un tiempo de reverberación de varios segundos. 
  • Material de las superficies: Es determinante en el decaimiento y en el timbre de la reverberación el material de las superficies o de recubrimiento de las mismas.No es lo mismo una sala recubierta con superficies absorbentes, que una sala con superficies altamente reflectantes.
    Esto es por que cuando el sonido incide sobre una superficie parte de la energía se refleja, parte se transmite al otro lado y parte es absorbida. Mientras mas absorbente es el material mas energía se pierde en el mismo y por lo tanto no es parte de las reflexiones que mencionamos forman parte de la reverberación. 

Estos son los dos parámetros mas importantes para determinar el tiempo de reverberación en salas o recintos cerrados y nos dan una idea clara de por que por ejemplo cuando estamos en un recinto de grandes dimensiones y con pocos materiales absorbentes el sonido va a tender a persistir por mucho tiempo y a dificultar el entendimiento o inteligibilidad de la palabra.

Distancia crítica

Otro concepto que es bueno tener en mente es el de la distancia critica, que se refiere a una cierta distancia (dependiente del tamaño de la sala y superficies) desde la fuente emisora de sonido en la que el sonido directo (sonido emitido por la fuente sonora sin intervención de la sala) es igual al sonido reverberante (sonido producido por el conjunto de las reflexiones generadas por la sala).

Me explico, el sonido directo de la fuente va decayendo con la distancia a un ritmo aproximado de 6 decibeles por cada duplicacion de la distancia por ejemplo si a 1 metro hay 100 dB a 2 metros van a haber teoricamente 94 dB, lo mismo va a pasar a 4, 8, 16 metros, etc.

Por otro lado tenemos el sonido reverberante que es basicamente siempre el mismo en la sala (si es que la energia se distribuye homogeneamente) y es determinado por el tamaño y recubrimiento de las superficies. El nivel de volumen de la reverberacion depende del nivel de la fuente, es decir mientras mas fuerte suene la fuente la reverberacion aumenta en proporcion.

Por este motivo es necesario conocer esta distancia para procurar que el oyente  se encuentre dentro del espacio que tiene mayor nivel de sonido directo y por tanto va a tender a tener mas inteligibilidad, claridad y a recibir mejor el mensaje.

Volviendo al ejemplo de la iglesia grande el mantener al auditor dentro de la distancia critica es el motivo por el cual  se tiende a colocar y distribuir un sistema de parlantes o cajas acusticas cada cierta distancia para aumentar el sonido directo de la fuente en las distintas posiciones de los auditores, es decir en todo el recinto.

Reverberaciones artificiales:

controlador-lexicon-reverb-480L

Controlador del famoso reverb 480L de Lexicon.
Fuente: ja.wikipedia.org Autor: JacoTen

Hasta ahora hablamos sobre el fenomeno acustico de la reverberación. Sin embargo, los parámetros que encontramos en las reverb de las DAW son equivalentes a los de la reverberación acústica. A continuación repasemos los mas importantes.

  • Tiempo de decaimiento/reverberación: Este es el equivalente al RT60 y es tal vez el parámetro modificable que mas influencia directa tiene sobre como percibimos la reverberación. Un consejo es usar tiempos de reverberación mas largos cuando el pulso/tempo de la canción es mas lento y tiempos de reverberación mas cortos en canciones o música de mayor pulso. 
  • Early Reflections/Reflexiones tempranas: Son el equivalente a todas las reflexiones que existen antes de que el sistema auditivo comience a integrar el sonido como reverberación.Generalmente hablamos de reflexiones tempranas cuando nos situamos dentro de los 100 milisegundos después del sonido directo. En los procesadores de reverb podemos modificar la densidad/ cantidad de reflexiones así como su espaciado en el tiempo y por tanto cambiamos el carácter de la reverberación. 
  • Predelay: Este parámetro se refiere al tiempo entre el sonido directo y las primeras reflexiones o tempranas que es modificable en muchas unidades de reverb artificiales. Aplicar pre-delays mas largos va a provocar que el sonido este mas al frente o en un plano mas cercano.

¿Cuando puedo usar la reverberación?

Habiendo visto la teoría básica de la reverberación acústica además de los parámetros que la rigen pasamos a ver los usos prácticos de la reverberación para nuestras mezclas. A continuación mostramos

  • Al hacer una mezcla para músicos: Al grabar overdubs suele suceder que los músicos se escuchen distinto a como están acostumbrados  a escucharse perjudicando así su interpretación. Este fenómeno es más frecuente a la hora de grabar voces, una voz sin ningún tipo de reverberación puede sonar antinatural e incomodar a los cantantes.
    Por eso es recomendable agregarle un poco de reverberación (artificial) a su mezcla de audífono para que escuche su voz de manera mas natural y no tan seca y artificial.
  • En el tambor  de la batería: Si bien ya no estamos en los ochenta donde el reverb en el tambor se usó y abusó hasta el hartazgo (gated reverb) el uso de la reverberación es muy importante en las baterías y en especial en el tambor.
    Muchas veces es una reverberación corta de tal vez medio segundo, pero el efecto que tiene es el de darle un espacio o sumar al timbre del instrumento. Con esto podemos lograr asignarle un
  • En la mezcla a las familias de los  instrumentos principales: Una técnica muy buena es tener una reverberación que haga de elemento unificador de toda la mezcla, en el que enviamos un poco de todas las familias de instrumentos al mismo. Con ello hacemos que todo pertenezca a un mismo lugar incluso si los sonidos son mayoritariamente de microfonía cercana o generados por instrumentos virtuales, etc. Por lo general a este reverb es sano aplicarle un filtro pasa altos (HPF) antes o después del mismo. 
  • En las voces en la mezcla: Un uso muy recurrente es en las voces a la hora de mezclar tanto en la voz principal como en los coros o backgrounds, ya sea para dar una cierta espacialidad, como para hacer que la voz principal suene mas al frente o en un plano mas cercano.
    Para lograr que la voz principal este mas adelante lo que tenemos que hacer es enviar mas voces background al reverb y menos de la voz principal. 
  • En cualquier instrumento: En una mezcla podemos usar desde un reverb principal hasta varios por grupo de instrumento, el límite es lo que busquemos sónicamente y el poder de procesamiento de nuestra computadora.
    Mas allá de eso no es cosa rara encontrar mezclas con 4-6 reverberadores haciendo cosas distintas o con objetivos distintos. Ya sea para las baterias, tambor, voces, guitarras, solo de guitarra, instrumentos acusticos, etc.
    Lo importante con el reverb es saber cuando detenerse y entender que muchas veces menos es más.

Más adelante seguiremos profundizando el tema, explicando los distintos tipos/motores de reverberación (Room, hall, plate, ambience etc.) y mostraremos los distintos tipos de usos mediante ejemplos auditivos. Hasta mientras pueden empezar a practicar con los ejemplos acá explicados. Hasta pronto y a mezclar!

Read More
featured Mezcla

Guia de compresión: Ataque y Release

Guia de compresión: Ataque, Release y el Envolvente acústico.

La compresión no solamente nos permite modificar una señal en términos de sus niveles sino que gracias a ciertos parámetros nos permite modificar el timbre del sonido para moldearlo a nuestro gusto. Los parámetros de los que hablo son el ataque y el release (relajación en castellano). Dichos parámetros nos permiten trabajar y modificar el envolvente de una señal. Veamos de qué se trata:

El Envolvente Acústico:

Envolvente-acústico-ataque-release

El envolvente acústico es la evolución temporal en amplitud de cualquier sonido. Consta de 4 parámetros: Ataque, Decaimiento, Sostenimiento y Relajación

Antes de entrar a explicar los parámetros del compresor es necesario entender un concepto fundamental en sonido y audio, me refiero al envolvente acústico.

Envolvente es el nombre que recibe el desarrollo en el tiempo de un determinado sonido y se compone de:  ataque, decaimiento, sostenimiento y relajación.

Explicado de otra manera es la manera en la que se desenvuelve en términos de volumen en el tiempo un sonido dado. El envolvente es una  característica muy importante del sonido ya que en conjunto con los armónicos conforman el timbre que distingue un sonido de otro.

Es decir es lo que nos permite, por ejemplo, distinguir un piano de una guitarra o una voz humana de un trombón. Repasemos las partes que componen el envolvente acústico:

  • Ataque: Es el tiempo  entre que comienza el sonido  y demora en llegar a su amplitud máxima.Es lo que se denomina como transiente o transitorio ya que es de corta duración.
  • Decaimiento:  Es el tiempo que le toma al sonido para reducir la amplitud desde el valor  máximo  conseguido en el ataque hasta el valor de sostenimiento.
  • Sostenimiento: Es el tiempo en el que la amplitud del sonido se mantiene constante hasta que se deja de inducir vibración en el instrumento.
  • Relajación: Es el tiempo que tarde el sonido en reducir su amplitud hasta la inaudibilidad, luego de haber  cesado la vibración.

Esto implica que si de alguna forma podemos modificar el envolvente podemos modificar el timbre del instrumento para nuestros propósitos, esto nos permite tanto manipular algunos sonidos para transformarlos en otros distintos y también nos puede servir para los usos creativos de la compresión.

Ataque y release: Parámetros fundamentales para la compresión:

Parámetros de ataque y release

Los parámetros de ataque y release son muy importantes porque no solo determinan como se comprime sino que pueden tener una influencia directa en el sonido.

 Estos dos parámetros son vitales para entender la compresión ya que actúan directamente sobre el envolvente del sonido modificándolo.

Con esto me refiero a que un determinado tiempo de ataque por ejemplo va a tener efecto sobre el ataque natural del instrumento acentuándolo o reduciéndolo y por lo tanto cambiando las cualidades del sonido en cuestión.

Un punto muy importante a resaltar es que ya que los compresores están siempre comparando la señal de entrada contra los parámetros de compresión que seleccionamos y actuando en consecuencia el compresor necesita un tiempo de ataque mínimo para no provocar distorsiones o pérdidas de graves al actuar.

Me explico, cuando ingresa la señal al compresor el mismo necesita un tiempo mínimo para saber si la señal paso el umbral que escogimos y si tiene que comprimir, este tiempo  equivale a  un semiciclo de la frecuencia que vamos a comprimir. Mientras más baja sea la frecuencia a comprimir más largo tiene que ser el ataque mínimo para evitar distorsiones.

Para 20 Hz (frecuencia más baja del rango audible) el semiciclo es de 25 ms (milisegundos). Esta es una muy buena razón para que algunos compresores en especial los musicales tengan como ataque más lento 30 ms.

Compresor del tipo musical CLA2A: No permite ajustar los parámetros de ataque y release

Algunos compresores de los denominados musicales no permiten ajustar los parámetros de ataque y release.

Lo que sucede cuando colocamos tiempos de ataque muy rápidos al comprimir un instrumento con alto contenido en estas frecuencias (bajo, bombo, etc.) es que aparecen distorsiones del tipo click y además que se empieza a notar una pérdida de estas frecuencias. Nos empezamos a quedar sin el cuerpo y peso del instrumento.

El release  por otro lado va a tender a modificar el propio relajamiento  presente en el envolvente del instrumento tendiendo a  reducir su amplitud  haciendo que un sonido pierda graves si tenemos seleccionado un tiempo largo de release por ejemplo.

Ejemplos prácticos del uso de ataque y release:

A continuación te mostramos algunos ejemplos prácticos de como podés usar los parámetros de ataque y release para la compresión en tus mezclas:

Exagerar el ataque o pegada de un tambor (caja, tarola):

Aumentar la pegada del tambor usando la compresión

Podemos usar la compresión para aumentar la pegada del tambor.

Un ejemplo clásico de cómo sacar ventaja al ataque de un compresor es usarlo para que un tambor tenga más pegada o ataque del que tiene.

Para hacer esto luego de elegir la razón de compresión y el umbral para que el compresor actúe sobre la parte del sonido que necesitamos, vamos a tener que ir alargando el ataque del compresor (haciéndolo más lento)


[optin-monster-shortcode id=»xwjauffiwarrci1h-2″]


Usualmente vamos a comenzar con unos pocos milisegundos y vamos a ir subiendo desde ahí hasta que comencemos a escuchar como el sonido adquiere un carácter explosivo (ataque exagerado). Lo comprobamos usando el bypass del plug in y comparando la pegada del instrumento original contra el comprimido.

El release se ajusta en un tiempo rápido para no perder los graves del sonido. Hay que tener en cuenta que si no escuchamos resultados tal vez sea por que el umbral del compresor esté muy alto así que vamos a tener que ir jugando con eso también.

Por último hay que tener cuidado con la ganancia de salida del compresor para no clippear es decir que si el compresor dice 6 dB de reducción no darle toda esa ganancia de salida.

Comprimir manteniendo los graves de un instrumento:

Siguiendo el ejemplo del tambor a la hora de colocar el release si queremos mantener el cuerpo o graves del instrumento tenemos que colocar un release rápido para que cuando el sonido empiece a decaer naturalmente (en el caso del tambor parte del cuerpo va a estar en ese decaimiento) no le comprimamos ese decaimiento.

Por eso es necesario que el release sea muy rápido de tal manera de no tocar esa porción del sonido y mantener los graves. 

Controlar los picos de un sonido:

Por otro lado cuando estamos hablando de un sonido que tiene mucha información de picos que no nos sirve, vamos a tener que comprimir de tal manera de solo agarrar esos picos (ataque muy rápido, razón de compresión media a alta 4:1 en adelante y un release rápido).

Con valores de ataque y release rápidos vamos a tender a solo comprimir lo que pase el umbral pero durante un periodo muy corto y que solo afecte a esos sonidos.

Compresión de voces:

UREI LA2A compresion vocal

El LA2A de Teletronix es un compresor óptico. Sus parámetros de ataque y release son fijos pero son ideales para comprimir voces.

En este caso generalmente lo que se busca es que sea una compresión lo más transparente posible y para esto vamos a tener que buscar un tiempo de ataque largo (varios milisegundos) y un release igual o más largo que el ataque.

Esta es una compresión del tipo musical que no se tiene que notar. Típicamente tenemos que apuntar a una reducción de unos cuantos decibeles 3-6 dB, es un número razonable ya que con reducciones muy altas los compresores (especialmente los digitales o plugins) comienzan a presentar problemas.

Un compresor que es excelente para este trabajo es el LA-2A de Universal Audio y sus versiones de plugin. El LA-2A es un compresor que tiene un circuito de detección óptico y un circuito de amplificación valvular. La detección óptica hace que tenga un ataque y release que funcionan muy bien con el envolvente de la voz.

Esto se produce porque la lampara que emite la luz tiene una inercia determinada hasta llegar a su intensidad nominal, lo que produce una respuesta bastante agradable al oído para el caso de las voces. 

Compresión del tipo RMS:

Este tipo de compresión busca dejar pasar a los picos del sonido y concentrarse en lo que pasa en la parte de la señal de más bajo nivel. Es decir si con la compresión de picos queremos reducir algunos picos que se escapan o parte de ellos estamos generalmente trabajando la parte de mayor nivel de la señal, en cambio la compresión rms busca no tocar los picos pero entrar a comprimir a mucho mas bajo nivel y por lo tanto entrar a resaltar lo que pasa a ese nivel.

Para lograrlo vamos a tener que colocar un umbral bastante más bajo en el compresor, una razón baja de compresión (para que el compresor no induzca distorsiones graves, por ejemplo de 2:1) y un ataque lento y release lento también. El número específico va a depender del instrumento pero vamos a tener que ir buscando y procurando que cuando hayan sonidos del tipo picos el compresor no muestre reducción de ganancia.

Un ejemplo de este tipo de compresión es la compresión de bus, en ella buscamos dejar pasar los picos usando un ataque relativamente lento que podría rondar los 50-100 ms, un release lento 150-250 ms y una razón de compresión suave como 1.5-2:1.

Estos son solo algunos de los ejemplos que se nos han ocurrido para sacarle mayor provecho a los parámetros de ataque y release y por lo tanto a  nuestro compresor. Para buscar comprimir una pista o instrumento en particular vamos a tener que ir ajustando a oído los parámetros para que el compresor sea transparente o buscando un resultado particular como los que mencionamos.

Algo que hay tener siempre en cuenta cuando estamos usando plugins es que no están diseñados para hacer grandes reducciones de ganancia o comprimir mucho, si una versión de compresor en hardware podemos hacer una reducción de tal vez 10 o incluso 15 dB en un plugin es aconsejable manejarse entre los 3 a 6 dB o tal vez un poco más.

Hacer uso del botón bypass que nos proveen y comparar la entrada con la salida, si suena distorsionado o mal es por que probablemente nos estemos equivocando en alguno de los parámetros.

Nuestro consejo es que experimentes con todos los parámetros y con diferentes fuentes o instrumentos, además de con los compresores que dispongas en tu D.A.W para aprender como se comporta el compresor ante los distintos escenarios y como siempre la práctica hace al maestro.

Un saludo y a comprimir!

Read More
Consejos featured

La importancia de la preproduccion

La importancia de la preproduccion musical

Entendemos por preproduccion todo el proceso previo a la producción propiamente dicha de una pieza musical. La importancia de la misma radica en que es el proceso que va a terminar definiendo como suenan las cosas y suele ser bastante menospreciada o directamente ignorada por los artistas porque puede parecer un proceso innecesario o que le quita algo de la parte artística a la música.

Pero este preconcepto no es más que eso, la realidad es que no podemos librar al azar demasiados detalles de nuestra música. Pensemos que una canción se compone de muchos elementos, entre ellos tenemos: Melodía , Harmonía, Ritmo, Estructura, Dinámica, Tesitura, Tempo entre otras tantas.

En la mayoría de los casos se ve que muchos de estos factores no se piensan lo suficiente y eso se termina reflejando en el resultado final. Por estas razones, veamos en que consiste un proceso tipíco de preproduccion:

La idea en bruto

Debido a las facilidades que nos brinda el audio digital, es muy simple crear grandes instrumentaciones con un par de clicks y hacer que estas desvirtúen lo más importante: Lo básico.

Si tenemos una canción ya compuesta tenemos que tratar de grabarla sin demasiadas distracciones, para esto podemos usar el micrófono del celular o algún dispositivo similar. El objetivo en este proceso es que el núcleo de la canción quede registrado y que la tecnología en si sea lo menos obstrusiva posible.

En el caso de ser una canción que tocamos con nuestra banda y que la tenemos ya analizada podemos llevar una grabadora portátil al ensayo para grabarla y escuchar como suena transcurridos un par de días para que el juicio sea lo más objetivo posible.

Una vez grabamos la canción la escuchamos y analizamos de la manera más objetiva posible, para tratar de diseccionar el núcleo de la misma. ¿De qué se trata? ¿Qué quiero transmitir con esto?

Quizás ya tengamos las letras a mano y estas puedan servir para complementar el proceso de análisis ¿De qué hablan las letras? ¿La música las acompaña?

De este proceso necesitamos un juicio global del tema, podemos anotar nuestras percepciones para recordarlas incluso si la sesión se extiende por varios días o por si posiblemente cambiamos de opinión durante una segunda escucha. Una vez elaboramos nuestra percepción del tema empieza la parte divertida: Los cambios.

El cambio puede ser bueno: El alma de la preproduccion musical

No se asusten, cuando hablo de cambios no estoy hablando de echar al baterista o decirle al cantante que su novia lo esta engañando con el frontman de otra banda más popular. Estoy hablando por el contrario de cosas que se pueden cambiar para que el mensaje que se quiere comunicar sea el que efectivamente se comunique.

Los cambios puede ser muy sutiles o drásticos, lo que hay que entender es que hay cambios que por sutiles que sean hacen una diferencia enorme y pueden construir o destruir un tema. Después de todo la diferencia está en los pequeños detalles.

Algunas de las cosas que pueden ser susceptibles a cambiar son:

El tempo o pulso: 

El tempo de una canción: Foto de un metrónomo

El tempo no puede ser menospreciado, es una parte muy importante del feeling general de una canción.

Es increíble lo diferente que puede sonar algo con solamente cambiar el tempo. Esta diferencia es tan notoria que un cambio de unos pocos BPM (beats per minute o pulsos por minuto) puede representar el día y la noche en lo que transmite un tema. Si tuviesemos acceso a muchos temas de la música popular veríamos tempos extravagantes como 105.95 BPM o algo por el estilo, representando el grado de exactitud con el que se mueven algunos.

Para mi lo más importante en este aspecto es lo estilístico, es decir que si queremos tocar cierto genero vamos a estar atados de cierta manera a los tempos que se suelen manejar. Esto no quiere decir que somos esclavos pero basta prestarle un poquito de atención a la música como para entender el concepto: imaginense un rap en 180 o un swing en 94, sería horribile!

Ahora esto no quiere decir que seamos presos de lo que hacen otros artistas de nuestro genero o del genero de la canción, pero esto demuestra que el tempo es esencial a la hora de transmitir una idea.

En cuanto a la preproduccion lo ideal es tener un estimativo e ir jugando con el tempo para llegar al indicado. Una vez consideremos que tenemos el tempo indicado probemos dejar de lado el tema y volver en unos minutos, es posible que nos demos cuenta que lo que nos parecía indicado hace un rato ahora nos parece aburrido o demasiado «ansioso».

La tonalidad:

Tonalidad en la produccion musical

Es importante probar distintas tonalidades para lograr el resultado que queremos.

Este sin duda alguna es otro de los puntos más importantes. Es increíble el cambio que puede haber en un tema cambiandole la tonalidad, puede ser realmente esclarecedor y es importante probar con distintos tonos para darnos cuenta cual nos parece el indicado.

Ahora, soy conciente que mucha gente compone en base a la comodidad. Entiendo que en la guitarra sea mucho mas sencillo componer riffs en Mi (para hacer uso de las cuerdas al aire) pero llega un punto donde se nota que la música es demasiado guitarristica o hay bandas que no sueltan el Mi ni para salir a dar un paseo (Iron Maiden o Metallica me viene a la mente por ejemplo).

Sin embargo esto solamente nos encierra en una jaula de la que nos podemos liberar fácilmente pero no lo hacemos por comodidad. ¿Probaste afinar medio tono más abajo? ¿Alguna afinación Drop? ¿Usaste capos alguna vez? ¿Quizás alguna afinación abierta?

No dejemos que las limitaciones técnicas limiten la composición, si tenes un tema en La probá tocarlo en Sol# (afinando medio tono más abajo) o en Si o en Re, dejá que tu oído juzgue.

Ahora si las limitaciones técnicas pesan mucho tampoco te pongas muy exigente, es cierto que hay riffs o motivos que solamente pueden sonar como suenan cuando se usan las cuerdas abiertas.

La estructura:

Estructura musical: Una estructura convencional

Estructura convencional de un tema, es importante establecer la estructura en la etapa de produccion.

Este es otro de los puntos que pueden hacer una diferencia gigantesca y para mí uno de los puntos donde gran parte de los compositores pierde el norte.

Uno de los errores más comunes es extender demasiado algunas partes, no es necesario que tu estrofa dure 16 compases o que la intro sea interminable y distractiva, es importante sentar algunas bases y respetarlas.

La introducción se supone que sirve de manera de presentar el tema y de construir el ambiente necesario para comprometer al oyente, no es necesario que dure demasiado aunque tampoco existen reglas duras al respecto. Lo importante es escuchar y pensar si esta cumpliendo su función; mucha gente dice que no debería durar más de 17-20 segundos en una canción comercial aunque hay incontables excepciones, lo importante es que funcione para vos.

Así mismo otro de los errores más comunes es que las canciones no tengan parte C o puente o que el paso al estribillo/coro sea muy poco notorio y por lo tanto no atraiga tanto la atención del oyente. El mejor ejercicio para mejorar en este aspecto es escuchar la música que te gusta y analizar su estructura; se que puede ser tedioso y poco artístico pero te aseguro que si lo haces vas a empezar a notar como muchos patrones se repiten y vos ni siquiera te habías empezado a dar cuenta.

También me gustaría hablar de los solos: No es necesario que sean largos sino por el contrario que sean buenos y que sean musicales o estén dentro del plano de la canción. No me canso de escuchar temas comunes donde el solo parece una especie de piedra libre para que el instrumentista se luzca sin más. Los mejores solos de la historia suelen ser parte integra de la canción, casi como una melodía más y no como una maratón de notas.

El rango vocal:

Rango vocal

La importancia del rango vocal en la producción musical

Cuando compones un tema ¿Estás consciente del rango vocal de la persona que lo va a cantar? ¿Sabés con seguridad que el cantante va a estar cómodo cantando eso, o simplemente lo hacés por que se te ocurrió?

Es importante conocer el rango vocal de la persona con la que trabajamos o el nuestro si somos los que vamos a cantar. Si la canción incluye notas que esten en el límite del rango vocal del cantante lo más probable es que no pueda dar lo mejor de sí y que se sienta muy presionado o que no transmita la misma emoción que podría transmitir en el caso de estar cómodo.

La mejor forma de saber esto a ciencia cierta es preguntarle al cantante hasta donde se siente cómodo y en lo posible sacar las conclusiones con un piano.

En términos de producción y arreglos muchas veces se habla del rango sugerido de los instrumentos, viene siendo como el lugar donde el instrumento se siente cómodo, por ejemplo un saxo baritono puede tocar ciertas notas por debajo y por encima de su rango sugerido sin embargo es poco recomendable escribir partes que incluyan esas notas porque no sabemos si el instrumentista va a poder sacarles provecho, siempre es bueno acotar el rango a lo que sabemos con seguridad va a brindarnos buenos resultados.

Anotalo que es importante:

Si se nos ocurre algo durante la preproduccion es importante anotarlo para tenerlo en cuenta. Por citar un ejemplo podemos haber compuesto un riff y al mismo tiempo se nos ocurrió algo para la batería como un crescendo o algún lugar donde consideramos oportuno poner un corte.

Si anotamos estas cosas podemos revisarlas más adelante o cuando llegue el momento de ensayarlas o grabarlas. Es importante que si hacemos una anotación esta sea lo más clara posible. Es mejor evitar conceptos ambiguos como «Sonido cremoso en el puente» o similares que son demasiado subjetivos como para ser útiles.

Pegale una escuchada en unos días:

Una vez atravesaste este proceso es bueno que escuches lo que hiciste tratando de ser lo más objetivo posible.  Escuchar algo hecho por nosotros después de días de haberlo grabado es como leer algo que escribiste para corregirlo: Siempre vas a escuchar/leer cosas de las que no te habías percatado.

Esta perspectiva nueva te puede ayudar a corregir algunas cosas o a agregar algo que se te ocurre puede funcionar muy bien en determinada sección. Tomemos en cuenta también que esta sesión de re-escucha también puede servir para quitar o sustraer algo que sobra o acortar una sección que te diste cuenta se hacía demasiado larga.

No tengamos miedo en deshacernos de algo, si bien perdimos tiempo grabándolo o pensando en esa idea lo más importante siempre tiene que ser el resultado final. Las cosas tienen que ser lo mas simple posible y no más simples que eso. Si escuchamos las canciones que nos gustan nos damos cuenta que por momento pueden tener muchas cosas sonando al mismo tiempo, pero es raro que esas cosas estén ahí de casualidad y casi siempre hay una razón detrás de eso.

Por eso cuando escuchemos la canción nuevamente y vayamos incorporándola pensemos si los elementos presentes tienen alguna razón de ser y de no ser así consideremos que podemos hacer al respecto.

Conclusiones:

La preproducción es una etapa crucial de la producción musical porque es donde nos encontramos con la canción en su forma mas primitiva y es en donde la moldeamos y decidimos como va a terminar sonando.

Casi todas las decisiones que se toman en la preproducción se pueden tomar de manera intuitiva o sin pensar demasiado: El tempo o la estructura por ejemplo, pero si nos detenemos a pensar en el porque de esas decisiones y a contrastarlo con música similar nos vamos a dar cuenta de que tenemos que considerar algunos factores antes de tomar algunas decisiones.

La idea es que nuestras canciones sean lo mejor que pueden ser e incorporar estos conceptos nos ayudaran a crecer como compositores y a estar más preparados en caso de grabar para no llevarnos sorpresas desagradables o perder demasiado tiempo en el estudio.

 

Read More
featured Mezcla

Secretos de mezcla: Subgrupos y el Master fader

Portada: Subgrupos en la interfaz de Pro Tools

Los subgrupos son sin duda una de las herramientas más útiles para aprovechar al máximo las posibilidades de ruteo que nos da nuestra interfaz de mezcla, ya sea una consola o el mismo DAW. Sus usos son muy variados pudiendo ir desde facilitar la mezcla de baterías hasta usos creativos o menos convencionales.

Por eso vamos a aprender como rutear o direccionar las señales de nuestros canales a ellos, a usar procesamiento a un conjunto de pistas para obtener mejores resultados entre otros usos interesantes.

Veremos como además se nos simplifica la vida al momento de las automatizaciones cuando tenemos que hacer cambios sobre automatizaciones previas y también revisaremos el uso correcto del master fader y cómo sacar provecho de este. Veamos

 Los subgrupos

Son un canal  al cual podemos direccionar o rutear señales de canales individuales para su suma, procesamiento y manipulación simplificada, que a su vez pueden direccionarse a otros lugares como por ejemplo al fader maestro.  Otra manera de ponerlo es que son una instancia a la cual se le puede enviar señales que pertenecen a una misma familia por ejemplo  todos los canales de  la batería.

El uso de subgrupos o auxiliares en las D.A.W  en la mezcla viene de las consolas analógicas, estas disponen ademas de los canales por los cuales procesamos la señal individualmente una sección llamada grupos o  subgrupos que generalmente se identifica como un grupo de faders de distinto color que se ubican a un lado de la consola o hacia el centro de la misma.

Subgrupos en consola analógica

Sección de subgrupos de una consola analógica.

 

¿Para qué sirven?

Hay varias maneras en los que podemos sacar provecho de esta herramienta, a continuación vamos a mostrar algunos de los usos que pueden tener:

  • En primer lugar nos sirven para controlar  el nivel de una familia de señales o canales con un solo fader. Siguiendo  el ejemplo de la batería si tenemos el balance perfecto  entre  todos los canales pero en un punto de la canción queremos subirle o bajarle el nivel global lo podemos hacer creando un subgrupo y direccionando las señales ahí para luego tener en un solo fader la posibilidad de automatizar el nivel para las distintas secciones por ejemplo. 
  • Para facilitar la mezcla en sesiones grandes: Si tenemos una mezcla compleja con muchos canales y se nos hace inmanejable tener que ir de un lado al otro de la consola virtual, creamos subgrupos para todos los instrumentos o familias  (baterías, bajo, guitarras rítmicas, guitarras solistas, instrumentos rítmicos acústicos, voz solista, coros, etc), para enviar las correspondientes señales a ellos y una vez tenemos los balances de la mezcla global podemos hacer ajustes finos con 6 faders por ejemplo. Esto nos facilita mucho la vida para no perdernos en el mar de canales de la consola. 
  • Son otra instancia de procesamiento grupal en donde podemos comprimir, ecualizar o aplicar prácticamente cualquier tipo de proceso en forma grupal, lo que suena muy distinto a procesar individualmente y muchas veces es muy ventajoso. 
  • Nos dan la opción de   crear un grupo para todos los efectos que usamos en nuestra sesión de mezcla de manera que podamos controlar el nivel global de los mismos e incluso si decidimos grabar el resultado de nuestra mezcla en stems tendremos esta señal por separado por si decidimos hacer modificaciones más adelante o usarlas en mastering. Personalmente a veces envío las distintas submezclas (baterías, guitarras, voces, coros, etc) a un reverb desde los subgrupos, buscando homogeneizar el sonido de la mezcla y darle una sensación de que todo pertenece al mismo lugar.
Subgrupo de Efectos

Ejemplo del direccionamiento de los efectos de una mezcla hacia un subgrupo en Pro tools.

En la imagen mostramos una forma de  direccionar todos los efectos usados en una sesión de mezcla hacia un subgrupo (FXS en esta sesión). De esta manera podemos tomar provecho de una etapa más de control y procesamiento, así como la posibilidad de grabar los efectos en una pista aparte en el contexto de una mezcla por Stems.


[optin-monster-shortcode id=»xwjauffiwarrci1h-2″]


¿Como lo logramos en nuestra D.A.W?

Lo que tenemos que hacer dependiendo de nuestra D.A.W, es crear envíos auxiliares estéreo (baterías, guitarras, etc) o mono (bajo, voz principal) dependiendo de la señal a agrupar,  nombrar los auxiliares creados correctamente, aplicarles un color distintivo, para luego  direccionar los canales que queremos agrupar al auxiliar y repetir el proceso con cada uno que creemos.

Un truco que podemos usar de la misma forma es crear un auxiliar extra al cual le direccionamos todos los grupos le podemos llamar submaster o banda por ejemplo, este nos sera muy útil a la hora de procesar la mezcla completa con un compresor de bus por ejemplo.

Direccionamiento de sub grupos

Ejemplo de direccionamiento a un subgrupo de los canales de una batería en Pro tools.

La imagen nos muestra un ejemplo del ruteo o direccionamiento de las pistas de batería en una sesión de mezcla dentro de Pro tools. En púrpura se resalta el direccionamiento hacia el subgrupo DRUMS que es el nombre que escogí para las baterías.

Subgrupos vocales

Ejemplo del direccionamiento de las voces usando sub grupos en Pro tools.

En esta imagen mostramos la manera de direccionar las voces principales (LD. VOX) y las harmonías o coros (BGS) hacía respectivos subgrupos y a su vez hacia otro subgrupo que suma todos los subgrupos antes de ir hacia el master fader. Una cosa a observar es que ya que la voz principal generalmente va paneada al medio se direcciona a un subgrupo mono. Si la voz tuviese paneos sería conveniente que el subgrupo sea estéreo como en las voces BGS. de esta sesión.

Grabación de la mezcla a un canal usando Sub grupos

Grabación de la mezcla hacia una pista nueva usando subgrupos en Pro tools.

En esta imágen vemos un ejemplo de la grabación de la mezcla hacia una nueva pista (nombre REC. , en esta sesión) y su respectivo direccionamiento de los subgrupos (la salida en esta sesión se llama BAND.). Tanto el subgrupo BAND. como el master se direccionan hacia el buss 2-MIX que es el que llega a la entrada de la pista REC.

 

El Master Fader

El concepto de master fader viene también del mundo analógico, específicamente de las consolas. Generalmente los subgrupos se direccionan para ser sumados a otro fader llamado master ya que aquí es donde acaban generalmente las señales, este fader es muy importante ya que de él depende en parte la calidad de la mezcla puesto que aquí se están sumando en tiempo real todas nuestras señales para formar una señal estereo que contiene los canales izquierdo y derecho.

Debido a que es el lugar de suma de las señales es también el punto en donde vamos a poder saber si nuestros niveles son correctos, si estamos distorsionando y es el lugar ideal para colocar un analizador de espectro para revisar y asegurarnos que no estamos teniendo un error grave.

Algunas consolas de alta gama incorporaron en su diseño procesamiento en esta etapa y especialmente uno de los más famosos es el buss compressor de las Solid State Logic  (buss ya que es el lugar de suma). Este compresor está pensado para hacer de forma de «empaquetador» de la mezcla; en la práctica lo que se busca es usarlo de forma de comprimir unos pocos decibeles 2-4 dB, de forma tal que se dejen pasar los sonidos transiente y se comprima la parte RMS y se engorde el audio final.

De ninguna manera están pensados para limitar o para subir excesivamente el nivel ya que esto se logra en el master, son simplemente una manera de procesamiento global que nos unifica las señales.

Se recomienda que el master fader este en su posición nominal ( 0 dBFS) por varios motivos:

 

  • En esta etapa se esta sumando todas las señales en tiempo real, es decir se hace un cálculo desde el punto de vista matemático importante y si además le agregamos otra exigencia (bajarle el fader), se tiene que hacer procesos extra para lo que no esta diseñado.
  • Si existe clipping al sumar las señales (distorsión del tipo recorte digital, de un sonido muy desagradable) y bajamos  el master fader de la posición nominal lo que va a pasar es que no vamos a ver la luz roja pero al reducir la resolución y escuchar nuestra mezcla vamos a escuchar ese sonido desagradable que conlleva una pérdida de la claridad, profundidad entre otras cosas.

 

Además de lo que mencionamos  antes   podemos emplear  el master fader  para colocar un analizador de espectro como último plug in de nuestra cadena. Usado de esta manera nos va a permitir saber que pasa en todo momento con nuestra mezcla o master. Es decir cuando queremos saber que pasa con las pistas individuales lo que tenemos que hacer es mantener el analizador abierto e ir colocando en solo las pistas una por una y revisando con el analizador.

Así podemos saber cuando colocar filtros pasa altos por ejemplo y también ayudarnos con las frecuencias de corte; además de saber si nuestra mezcla tiende a ser plana, si tenemos problemas de fase o polaridad  al sumar las señales y además de revisar el nivel de la mezcla y asegurarnos que no hayan distorsiones o clipping. Una herramienta muy poderosa que hay que tener en cuenta siempre.

 

Compresor de buss en un sub grupo

Compresor de buss de Solid State Logic en Pro Tools.

En esta imagen podemos ver como hacer uso de la compresión de buss en la mezcla, en esta ocasión fue colocado como punto de inserción en el sub grupo BAND. el que alimenta finalmente el Master fader, sin que esto modifique su funcionamiento. Sin duda es una técnica muy ventajosa para homogenizar y empaquetar nuestras mezclas (notemos que tanto el subgrupo BAND. como el Master fader están en 0 dB, que es altamente recomendable)

 Como pudimos ver el uso de subgrupos son una parte muy importante del proceso de mezcla y aprender a como funcionan es imprescindible para sacarle el máximo provecho a tus mezclas. Además también pueden tener usos creativos.

Por eso te pregunto:

¿ Vos como usás los subgrupos?

Read More
featured Principiantes Tutoriales

Guía para principantes: La compresion

Compresion guia para principiantes

La compresión de audio puede ser algo confuso en un principio por el hecho de que las herramientas para implementarla suelen tener muchos elementos que interactúan entre si y pueden ser un dolor de cabeza.

A todo esto se suma el hecho de que muchas veces se confunde la compresión de audio/sonido con la compresión en términos de formatos digitales (MP3 por ejemplo) que es un principio mucho más complejo.

Por eso hicimos esta guía que pretende atacar las dudas más comunes en cuanto a compresores. Las que tuve yo y las que seguramente tenés vos en este momento.

Pasemos a lo importante:

¿Qué son los compresores?

Son esencialmente un control automático de volumen o nivel.

Me explico: Son el equivalente al fader de una consola manejado por una persona en tiempo real, dicha persona tiene la función de bajar el fader cuando el volumen de algún elemento sube repentinamente en exceso. Todo esto para controlar el rango dinámico de dicho elemento y evitar que este se salga del plano.

Entonces lo que hace el compresor en esencia es  reducir el nivel de una señal con unos parámetros que son fijados por el usuario y que modifican como se comporta el mismo.

¿Cómo funcionan?

Compresion de audio umbral y knee

Un ejemplo de un compresor de audio actuando, mostrando una reducción de 4:1 contrastándola con la señal sin reducción alguna (1:1)

Comparando señales, es decir: al compresor  ingresa una señal por ejemplo la voz de la que hablábamos antes y nosotros fijamos un cierto nivel (umbral o treshold)  que de ser sobrepasado hace que el compresor  actue reduciendo el nivel de dicha voz a la salida como si fuera el fader en una consola.

Entonces el compresor está todo el tiempo comparando la señal de entrada contra este umbral y reduciendo la señal a la salida si es que pasa del mismo. Por otro lado la cantidad de reducción a la salida  no es siempre la misma si no que es modificable por el usuario con otro parámetro.

¿Qué son todas esas perillas?

Los compresores tienen varios parámetros modificables por el usuario que aparecen en forma de perillas tanto en los modelos digitales como en los de hardware. Veamos cuales son:

  • Umbral o Treshold: le decimos al compresor que si la señal pasa de un cierto nivel que la reduzca en ganancia. Mientras más bajo sea mayor cantidad de señal entra en la compresión y por lo tanto va a haber mayor reducción de ganancia. Un detalle a tener en cuenta es que en los modelos digitales el umbral va a aparecer como un número negativo en esencia cuanto más negativo sea ese número mas bajo el umbral y más señal se comprime.
  • Razón de compresión o Ratio: acá le decimos al compresor que reduzca a la señal que sobrepase el umbral en una cierta proporción establecida por nosotros. Por ejemplo si nuestra señal pasa el umbral por 10 decibeles y queremos que se reduzcan 5 decibeles colocamos una razón de 2:1 (funciona como una división).A razones más altas mayor reducción habrá pero también la compresión puede empezar a ser notoria, cosa que generalmente no queremos que suceda. Lo que se busca es que sea transparente para que el oyente no se de cuenta que la señal fue manipulada.
  • Ataque o Attack: es el tiempo en segundos (por lo general en el orden de los mili segundos) que toma el compresor desde que la señal pasó el umbral hasta la reducción completa de ganancia que fijamos con la razón de compresión. Hay que tener en cuenta que el compresor en esencia actúa inmediatamente pero es este tiempo el que determina cómo interactúa con la envolvente de la señal a comprimir.
  • Release: es el tiempo en mili segundos que demora el compresor en retornar a la ganancia unitaria una vez que la señal dejo de estar por encima del umbral fijado. De igual forma que con el ataque el release puede modificar la envolvente del sonido en cuestión y por ello es muy importante en el funcionamiento del compresor.
  • Knee: es un parámetro que se encuentra en algunos compresores que modifica la manera en como comienza a actuar el compresor, el nombre se debe a que la curva que describe la manera de comenzar a actuar del compresor es parecida a una rodilla (knee en inglés).
    Para que entendamos mejor cuando hablamos de soft knee estamos hablando de que el compresor comienza a actuar gradualmente antes del umbral fijado y llega a su razón de compresión establecida de esa forma. En cambio un compresor en hard knee va a actuar solo cuando la señal pasa del umbral establecido y por lo tanto más agresivamente.
  • Make up gain o output gain: es el parámetro que controla la ganancia de salida del compresor, luego de haber actuado y reducido la señal por una cantidad de decibeles. Lo que se busca en general es que lo que se redujo en nivel se vuelva a ganar y por lo tanto hacer que las partes que tenían menos volumen ahora se acerquen a las que fueron comprimidas.
umbral de compresion

Demostrando como funciona el umbral de compresión

En esta imagen podemos observar el umbral de compresión en una gráfica de nivel vs tiempo. Nosotros establecemos un umbral a partir del cual el compresor va a empezar a actuar, si la señal que ingresa al compresor sobrepasa ese umbral será afectada por el mismo, de otra manera el compresor no actuará dejando pasar la señal. En la gráfica el umbral es la línea naranja.

La cantidad de compresión que será aplicada se determina por el ratio o razón de compresión. El mismo nos da cuenta de que tanto vamos a reducir el «exceso» de señal es decir cuanto se irá a comprimir lo que pase el threshold. Haciendo una analogía el ratio equivaldría a la fuerza si habláramos de comprimir algo físico.

Los parámetros de tiempo ataque/release equivaldrían a la velocidad con la que la fuerza actúa o deja de actuar.

C1: Compresor de la serie Waves

El compresor C1 de la serie Waves. Como podemos observar tiene todos los parámetros descritos anteriormente y algunos más.

 

¿Cuando usamos la compresión de audio?

Si bien hay una infinidad de ocasiones en los que podemos usar un compresor vamos a dar algunos ejemplos para entender mejor su uso:

  • Una voz que por momentos grita o canta muy fuerte y en otros momentos está muy baja y se pierde entre los demás elementos de la mezcla. En este caso buscamos que el compresor actúe en las partes que están mucho más fuertes y reducimos su nivel acercando de esta manera las partes mas débiles.
  • Una guitarra acústica que sube mucho de nivel o se va de plano en algunos momentos en  que el guitarrista se emociona y rasguea con mucha más intensidad. Acá lo que buscamos es reducir la parte de picos que hacen que la guitarra se escape y por lo tanto nivelar mejor a la misma.
  • Una batería inconstante: acá lo que buscamos es que si hubieron golpes que suenan mucho más fuerte que los demás comprimir sobre ellos solamente buscando reducir el nivel de los mismos sin tocar a el resto. Con esto vamos a lograr que todos los golpes estén más nivelados.
  • Un bajo que se excede en algunos lugares y  se pierde en otros: el bajo por su naturaleza de elemento que aporta la solidez y las frecuencias más graves en la mezcla es crucial que se mantenga lo más estable posible en cuanto a nivel; es aquí que un compresor nos puede dar una mano y reducir por ejemplo los picos que se exceden mucho para buscar la mayor constancia posible.
  • Instrumentos percusivos: muchas veces cuando tenemos una mezcla densa una de las pocas maneras que tenemos para que se noten todos los elementos es usando compresión tal es el caso de las percusiones que pueden tener algunos golpes muy fuertes y otros de mucho menor nivel. En este caso buscamos algo similar que con la batería comprimir lo más posible en los lugares en que se escapa esos golpes.
  • Cambio de timbre de un instrumento: además de funcionar como un mero nivelador de volumen los compresores también pueden incidir en el timbre del instrumento, para ello se trabaja con los parámetros de ataque y release de manera de modificar la información de envolventes de la señal.

Estos son solo algunos de los ejemplos en los que el compresor nos facilita la vida y hay una infinidad más de posibilidades. Lo importante es saber lo mejor posible que es lo que estamos buscando antes de poner las manos sobre las perillas por que es muy fácil marearse y perder la perspectiva con tantos parámetros y posibilidades.

¿Cómo usar la compresión?

El uso de la compresión va a depender un poco del tipo de sonido o fuente que necesitemos trabajar, ya que por ejemplo no da lo mismo comprimir una voz que un tambor de bateria, en particular por la forma en la que se desempeñan en el tiempo ambos sonidos.

En el ejemplo anterior el tambor tiene mucha energía en el instante inicial y rápidamente esa energía decae, en cambio una voz tiene una duración mucho mayor en el tiempo y menor cantidad de energía inicial.

Entonces el uso del compresor va a estar determinado por la envolvente musical que tiene cada elemento que vayamos a comprimir, modificandose principalmente la manera en la que se va a trabajar el: ataque, release, la razón de compresión y finalmente el umbral, ya que todos estos parámetros están estrechamente relacionados.

Veamos entonces un ejemplo típico del uso de la compresión y cómo ajustar los parámetros.

  • Determinar la parte de la canción a comprimir: recordemos que vamos a usar la compresión para atenuar una parte que tiene más nivel en favor de otra con menos nivel. El nivel lo podemos determinar viendo la forma de onda en la ventana de edición, viene representado por la altura del dibujo de la onda.
  • Ajustar la razón de compresión: en general te sugiero que empieces probando con una razón de 4:1 que es un valor intermedio y sirve para la mayoría de las aplicaciones generales; valores más bajos se suelen usar para compresiones más transparentes y valores mayores para compresiones más audibles.
  • Ajustar el umbral: la idea es ir reduciendo el umbral, llevarlo hacia números más negativos, hasta encontrar una cantidad de compresión en la zona de la canción que tiene mayor nivel. En general se estipula comprimir principalmente en esos momentos y no atenuar en las partes que tienen menos nivel; la atenuación sugerida para obtener resultados óptimos es de entre 3-6 dB.
  • Ajustar ataque: el tiempo de ataque va a depender un poco que la necesidad que tengamos al comprimir, pero podemos decir que en general para instrumentos percusivos (baterias, percusiones) podemos usar tiempos entre 10-50 milisegundos. Para los instrumentos que tienen envolventes de mayor duración se sugiere usar tiempos entre 30-100 milisegundos; hay que tener en cuenta que cada sonido es distinto y hay que probar hasta encontrar el valor que funcione en cada producción.
  • Ajustar release: va a depender del tipo de elemento a comprimir y su envolvente acústica, como sugerencia se pueden probar valores que sean algo más lentos que el ataque elegido. Por ejemplo si el ataque fue de 30 ms, podemos probar tiempos entre 30-50 ms para el release.
  • Ajustar la ganancia de salida: una vez tengamos la atenuación deseada en la sección de mayor nivel, es bueno aplicar una ganancia de salida para emparejar el nivel con la entrada; es decir debemos apagar/encender el plugin e incrementar la ganancia de salida solo hasta que el nivel subjetivo entre encendido/apagado sea igual.

En la práctica la compresión es de esas cosas que hay que refinar cíclicamente en la mezcla, por lo que muchas veces los ajustes iniciales pueden cambiar más de una vez a lo largo de toda la mezcla.

Al ser una herramienta que tiene dependencia entre sus parámetros, al ajustar una cosa debemos cambiar otra y es necesario probar exagerar cada uno de dichos parámetros para saber cuál es su efecto real dentro del contexto.

Por otro lado los compresores vienen en distintos «tipos o sabores«, que tienen que ver con el tipo de circuito de reducción de ganancia y el de amplificación que emplean para hacer la compresión: óptico, VCA, FET, Vari Mu, etc. Es muy importante conocerlos ya que vamos a poder seleccionar y usar la herramienta adecuada para cada ocasión.

Los limitadores: un caso extremo

L2 Limitador de los plugins de Waves

Probablemente hayamos escuchado de los limitadores y nos preguntemos de que se trata eso. En realidad son un caso especial de compresión en que la razón de compresión es de por lo menos 10:1.

¿Que quiere decir esto? Significa que si por ejemplo la señal a comprimir supera el umbral por 10 dB el compresor va a dejar pasar 1 dB a su salida. Generalmente se usan en casos en los que la señal tiene que tener muy poco rango dinámico como por ejemplo en un bajo que necesitamos que esté siempre con la misma intensidad.

Otro uso muy importante es en mastering en donde se usan limitadores del tipo brick wall (pared de ladrillo) que cumplen la función de no dejar pasar la señal de un nivel determinado por el usuario. Por ejemplo nosotros le definimos hasta donde  queremos que sea la salida y el limitador se encarga que no se supere ese lugar. (Es una de las herramientas que se  usan y abusan en la guerra del volúmen)

 Conclusiones:

La compresión de audio es un mundo de posibilidades  por sí mismo así que vamos a hacer una serie de artículos en los que vamos a abordar y ahondar en el tema con mayor detenimiento en los pormenores. Estén atentos que van a haber ejemplos auditivos también!

 

Read More
featured

La guerra del volumen y el mastering

La guerra del volumen

Si bien en los últimos años la guerra del volumen dejó de ser un tema de conversación exclusivo de los estudios de mastering para pasar a ser discutido en revistas de música, foros o sitios medianamente especializados todavía existen muchas dudas al respecto o personas que conocen el fenómeno por encima.

Por eso decidimos hacer este artículo donde trataremos de recopilar un poco de los orígenes, factores desencadenantes, su estado en la actualidad y el probable futuro de la implícita batalla por ver quien masteriza su disco mas fuerte.

El hecho que le dio una mayor relevancia al término «guerra del volumen» en la cultura popular fue sin duda alguna la salida del disco Death Magnetic de Metallica en el año 2008 porque demostró el hecho de que la lucha por lograr que la música suene muy fuerte puede traer consecuencias irreparables en cuanto a su calidad.

Esto sucedió porque la gente se dio cuenta que la versión masterizada del disco sonaba decididamente peor que la versión sin masterizar que estaba presente en el videojuego Guitar Hero. La gente en general no entendía a que se debía este fenómeno pero se empezó a cuestionar sobre el origen del problema.

Teniendo en cuenta eso haremos un análisis histórico de la guerra del volumen, dando algunos ejemplos prácticos para ilustrar el punto. Empecemos entonces:

Guerra del volumen: ¿Qué es precisamente?

De manera concisa,  la guerra del volumen consiste en una batalla implícita donde el ganador es el que logra que su música suene mas fuerte. Dicho de esta manera puede sonar estúpido pero la realidad es que el volumen de la música es uno de los factores que mas influyen en nuestro juicio sobre la calidad de la misma.

Es la práctica es la competencia que existe entre los lanzamientos discográficos en los que los ingenieros de mastering intentan que sus masterizaciones suenen igual o más fuerte que la competencia, ayudandose para este fin de herramientas como compresores y de limitadores esencialmente.

¿A qué se debe esto?

Primordialmente a la psicoacústica.

Veamos: Si se nos presentan dos sonidos iguales pero con una diferencia de volumen, los seres humanos tendemos a preferir los que suenan mas fuerte aunque el sonido en esencia sea exactamente el mismo.

El sonido más fuerte tendrá en apariencia mayor detalle, mayor definición y se escuchará con mas graves. Eso crea un sesgo inconsciente en nuestras mentes y nos hará creer que suena mejor.

El problema radica en que el sistema auditivo no responde igual a todos los volúmenes ya que el canal auditivo forma una resonancia  en las frecuencias medias (amplifica a dichas frecuencias). Justamente estas frecuencias son muy importantes para el entendimiento de la voz en esencia.

Debido a esta resonancia los seres humanos tenemos mayor sensibilidad en este rango de frecuencias en comparación con los graves y agudos, por lo tanto se necesita mas nivel de volumen en las bajas y altas frecuencias para tener la misma sensación de sonoridad que en los medios. Este fenómeno tiende a emparejarse a mayores niveles de presión sonora (volumen), este fenómeno subjetivo  fue estudiado por Fletcher y Munson en los 1930.

Curvas de igual sonoridad

Curvas de igual sonoridad de Fletcher y Munson

En la imagen podemos ver que cerca de los 3000 Hz se encuentra la zona de resonancia y que además se toma los 1000 Hz como referencia para formar las curvas (la curva interlineada es el umbral de audición o 0 phones). Por ejemplo un nivel de presión sonora de 30 dB forma la curva de 30 phones a 1 kHz pero se requiere cerca de 58 dB más a 20 Hz para tener una sensación de igual sonoridad.

Entonces lo que provoca esto es que tendamos a preferir de dos canciones iguales pero una mucho más fuerte la más fuerte ya que se va a oír con mas graves y agudos y va a parecer mejor siempre.

Esta premisa se usa en mastering pero muchas veces que suena mas fuerte no significa que suena mejor, el sonar mas fuerte trae consigo distorsiones, la pérdida de la claridad, calidez, la parte del ataque y transientes (transitorios) del sonido y  en general un deterioro de la calidad de la grabación final.

En los últimos tiempos he escuchado discos que directamente están distorsionados y que suenan muy mal, producen fatiga auditiva ( al escuchar por tiempo prolongado se cansa el oído). Todo esto por sonar más fuerte que la competencia un claro ejemplo de esto es el disco antes mencionado de Metallica que tiene altos niveles de distorsión.

Un poco de historia

Que  la discusión  sobre la guerra del volumen sea algo reciente en la cultura popular no quiere decir que el fenómeno sea nuevo o lo haya desencadenado Metallica.

La realidad es que la guerra del volumen se remonta de cierta manera a los inicios mismos de la grabación de audio y la producción de música o de contenido auditivo en general.

Ubiquémonos en un punto de la historia donde el medio de almacenamiento de la música era el disco de vinilo. A pesar de que sea difícil de creer, las compañías discográficas tenían la misma filosofía que tienen hoy: «Quiero que la música venda».

¿Cómo hacían antes? 

Acercamiento a un tocadiscos

El mismo rango dinámico del vinilo limitaba las posibilidades de sobre-compresión en las mezclas.

 

Como nos podremos imaginar no existían ni Soundcloud ni Facebook en esa época y la única forma de llegar a un público masivo era mediante la difusión radiofónica.

Entonces el filtro a superar era el tipo que decidía que se pasaba en la radio y que moría en el ostracismo. Este tipo vendría siendo el director de programación de la radio. Era el encargado de escuchar la música  y decidir cual se difundía y  cual no.

A raíz de este filtro, las bandas y su entorno se dieron cuenta que una manera de sortear ese escollo era simplemente hacer que la música suene más fuerte. Ante 2 bandas iguales de buenas el director de programación iba a elegir a la banda que sonase más fuerte, por el fenómeno antes explicado.

Fue así que nació la guerra del volumen, si yo tocaba pop me ponía a escuchar discos de pop y me preguntaba  porque mi competencia sonaba más fuerte que yo. Entonces acudía al ingeniero y le decía «Quiero que mi música suene mas fuerte que la de fulanito».

Uno de los métodos preferidos era distribuir la música en las caras del vinilo para que cuando la duración del disco fuese menor los surcos fuesen más anchos haciendo así que la música suene más fuerte por que el voltaje inducido en el transductor era mayor.

¿Cómo se hace ahora?

Básicamente mediante la compresión que explicado en términos simples implica llevar los picos más altos de volumen (por ejemplo un golpe de batería o percusivo que esté por encima del resto) a niveles más bajos para posteriormente elevar el nivel general del resto de la música ganando así volúmen aparente.

Esto se debe a que el oído tiene sensación de mayor sonoridad o volumen cuando se trata de sonidos que son de naturaleza constante o duran un cierto tiempo , no así con los picos que duran un instante solamente.

Por otro lado se ha logrado aumentar tanto la sonoridad a través de los años mediante el uso de limitadores que son un caso de  compresores con ciertos parámetros más extremos y que actúan por lo general muy rápido atrapando así picos muy rápidos. En el  entorno digital hay modelos que pueden ver hacia adelante y actuar en consecuencia.

Dicho de otra manera supongamos que tenemos una canción donde la voz suene susurre en una parte y grite en otra, mediante la compresión bajamos el nivel de la parte donde la voz grita tratando de emparejarla con la parte donde susurra, posteriormente subimos el nivel de todo y lo que obtenemos es que la parte donde la voz susurra suena prácticamente al mismo volumen que la parte donde grita.

Esto tiene como ventaja que podemos hacer que algo suene parejo en términos de volumen y que no se pierda ningún detalle pero por otro lado perdemos el nivel de expresividad, ya que por razones obvias un susurro no expresa lo mismo que un grito.

Todo esto ¿A cambio de qué?

Como casi en todo hay ciertas consecuencias o compromisos al elegir un objetivo en este caso aumentar la sonoridad o volumen de la música  veamos que es lo que pasa:

  • El aplicar compresión y limitadores en exceso hace que se pierda una parte esencial en la música que son los sonidos del tipo transiente o transitorios que es la primera parte de cualquier  sonido y da mucha información del timbre del mismo.
  • Se reduce el rango dinámico excesivamente: Escuchamos canciones que por ejemplo una voz y una guitarra acústica prácticamente suenan igual de fuerte que toda la banda con baterías, guitarras eléctricas etc. Esto es de por sí anti natural ya que nunca sucede esto en la realidad y por otra parte le quita a la música esa riqueza de sorpresa y de distintos paisajes sonoros que se crean con diferencias en la dinámica por ejemplo.
  • Al limitar en exceso se puede producir distorsión por recorte o clipping, este tipo de distorsión es muy desagradable ya que añade una cantidad de armónicos que no estaban y realmente le quita claridad, profundidad, detalle a la música. Este tipo de distorsión generalmente se produce en el entorno digital con bastante facilidad durante el mastering y es por eso que no es bueno llevar a un nivel tan alto un master realizado en el entorno digital.
  • Al aplicar compresión a la mezcla completa se cambian los planos: Sin darnos cuenta también estamos modificando la mezcla es decir si en la mezcla había por ejemplo un lugar en el que un elemento sonaba más fuerte apropósito, después de aplicar compresión va a tender a sonar igual que el resto. Existen ingenieros de mezcla mucho renombre que por este motivo rechazaban el mastering, consideraban que sus mezclas debían ser respetadas al máximo.

 

Pero si lo hacían antes ¿Por qué justo ahora nos preocupa?

Nos preocupa por el simple hecho de que si bien se hizo siempre, es en este punto de la historia donde esa práctica se lleva a extremos preocupantes, puesto que en la incansable búsqueda de que la música suene mas fuerte se dejan de lado factores que son esenciales para el disfrute de la música. Como son el rango dinámico, los sonidos percusivos y transiente de los instrumentos reales, los distintos planos y paisajes sonoros presentes en la música, etc.

Para mi uno de los mayores problemas con la guerra del volumen es la gente que crece escuchando la música de esa manera y de cierta manera pierde el conocimiento de como suena en realidad un buen instrumento  sin tanto procesamiento.

Para esto hay que educar nuestros oídos procurando escuchar música en vivo, música no amplificada, música clásica, o jazz, escuchar los instrumentos reales en persona y prestar atención a como suenan realmente.

Entender por otro lado que una canción más fuerte no es en realidad una que suene mejor comparar igualando el nivel para saber si realmente suena mejor o no.


[optin-monster-shortcode id=»xwjauffiwarrci1h-2″]


Limitadores en acción:

Como mencioné antes, los limitadores que son algo así como compresores en esteroides son la herramienta usada para exprimir el rango dinámico de las mezcla. Por lo general en el mastering para lograr resultados aún más extremos se usan varios limitadores encadenados evitando así los efectos negativos de sobre-exigir a uno, y al mismo tiempo ganándole unos decibeles al proceso.

A continuación mostramos de manera gráfica el efecto que tienen los limitadores en la música:

Mezcla sin limitador

Acá la mezcla sin ningún proceso aplicado. La presencia de picos implica que el rango dinámico no se ha tocado.

Este es el caso de una mezcla al que no se le aplicó un limitador.

Mezcla levemente limitada

Acá la mezcla limitada pero de manera leve, si bien el volúmen general aumento los picos se preservaron.

Este es el caso de una mezcla al que se le aplicó un limitador pero de manera de preservar los picos. El volúmen general aumenta pero el rango dinámico se preserva.

Mezcla con limitación extrema

Acá la mezcla a la que se le aplicó un limitador con seteos extremos. Podemos ver que el rango dinámico es casi inexistente.

Finalmente tenemos la mezcla a la que se le exprimió todo el rango dinámico existente. En términos de volúmen, todo suena casi igual y la vida que podía llegar a tener la grabación le fue succionada con un limitador.

Este es el precio a pagar si querés que tus mezclas suenen ridículamente fuerte. Lo importante es buscar un balance para que nuestro sonido sea competitivo pero tratando de no llegar a los extremos aquí mostrados.

Guerra del volumen: Comparativa gráfica

Como sabemos que una imagen vale más que mil palabras decidimos mostrarte la guerra del volumen en imágenes. Para hacerlo elegimos algunos discos que consideramos representativos de la música popular y usando información de una base de datos del rango dinámico  elaboramos un ranking de 10 discos con su respectivo rango dinámico promedio.

Comparativa Guerra del volumen

 

La escala representa el rango dinámico promedio de los discos. Es un excelente indicador para mostrarnos que tan comprimido está un disco y que tan fuerte suena.

También se puede observar que si bien la situación ha empeorado muchísimo con el paso de los años eso no implica que la relación sea lineal. Es decir, el Death Magnetic que salió en el 2008 tiene el menor rango dinámico, incluso contra discos salidos en el 2013. A su vez Californication de los Red Hot Chili Peppers tiene resultados similares ya en 1999.

En este ranking el disco que mayor rango dinámico tiene es «Kind of Blue» de Miles Davis, eso no significa que sea el de mayor rango dinámico de la historia, pero si da cuenta de que en géneros como el jazz la dinámica es una parte crucial y se suele respetar, por lo menos en la parte más tradicional del mismo.

En la reseña incluimos finalmente la forma de onda de algunos temas elegidos al azar para representar visualmente como se ve la música. Como se observa, a menor rango dinámico más parecida a un ladrillo es la forma de onda.

 ¿Y las re-masterizaciones?

Hay que tener mucho cuidado con las re-ediciones/re-masterizaciones porque si bien nos suelen vender que se busca mejorar el sonido o disminuir el nivel de ruido la realidad es que una abrumadora mayoría lo único que hacen es limitar las mezclas para lograr un volumen más competitivo, amen de hacernos creer que porque salió un producto nuevo lo tenemos que comprar.

Otro problema son las ediciones en vinilo actuales, el hecho de que un disco este en formato vinilo no implica demasiado ya que si la masterización se hizo a la usanza actual el formato en el que esté almacenado el audio es anecdótico. Hay que entender que el famoso sonido del vinilo no proviene solamente del mismo vinilo sino también de toda una cadena de producción que empieza por como se graba la música.

Activismo del volumen: El objetivo es la perilla

Muchos ingenieros de mastering, músicos y personas ligadas al audio en general decidieron tomar una iniciativa pro-activa en contra de la vorágine del volumen y para ello pusieron manos a la obra en la ardua tarea de concientizar al público consumidor y a los mismos implicados en la cadena de producción de la música.

Para esto es necesario que si el cliente quiere sonar más fuerte a toda costa, darle la opción de elegir con la información pertinente antes de arruinarle el master para siempre.

Para el usuario final, la mejor educación posible es tan simple que parece estúpida: La perilla de volumen. Personalmente me pasa que casi todas las veces que toco una perilla de volumen mientras escucho música lo hago para bajar el volumen cosa que es totalmente ilógica.

La perilla de volumen se hizo para usarse y si querés escuchar algo más fuerte lo único que tenés que hacer es moverla hacia la derecha, la cantidad de esfuerzo necesaria es tan baja que es ridículo.

Algunos hechos:

  • Estudios recientes demuestran que no existe una correlación directa entre lo fuerte que suena la música y el nivel de ventas.
  • La creencia de que es necesario limitar de manera extrema la música para ser competitivos en la radio es falsa porque las radios cuentan con limitadores al final de su cadena. La realidad es que la música con mayor rango dinámico va a sonar mejor en la radio porque los limitadores de la misma van a reaccionar mejor ante la misma que ante la música ya ultra-limitada.
  • A veces para no perder competitividad alguna se estila hacer distintas versiones de la masterización. Una para ser usada como single o para ser escuchada en dispositivos móviles (iPod, celulares etc) y otra que va a ser incluida en el disco.
  • Con el advenimiento y popularidad de plataformas como iTunes y Spotify que cuentan con normalización de volumen entre sus opciones de reproducción la guerra del volumen empieza a perder sentido.
  • Existe una incidencia directa entre el volumen al que escuchamos la música y el riesgo de daño auditivo permanente. Por eso más allá de opiniones personales, la guerra del volumen es negativa incluso en términos de salud.

 

Referencias y otros recursos sobre la guerra del volumen

Si te interesa el tema te dejamos algunos recursos externos que te pueden ayudar:

  • La lista de honor: Un interesante artículo de Bob Katz con discos que el considera deben ser rescatados por como fueron masterizados.
  • Turnmeup.org:  Una iniciativa para concientizar a la gente en cuanto a la degradación de audio producida por la guerra del volumen. Tiene mucha información interesante.
  • Dynamic Range Database:  Base de datos de donde saqué la información para este artículo. Muy completa además contiene información del rango dinámico de las distintas versiones de los discos o de las versiones remasterizadas o en vinilo.
  • Dynamic Range Day: Iniciativa muy similar a la de Turn me up tiene muchos ejemplos y artículos interesantes para leer al respecto.

Conclusiones

Es posible que la guerra del volumen haya llegado para quedarse pero la única herramienta que tenemos para combatirla es la educación. Hacía los productores, los músicos y el público en general.

Espero que este artículo ayude con dicha educación y que haga posible la difusión del activismo por el rango dinámico. Que el árbol no nos tape el bosque, aprendamos a distinguir la diferencia entre algo sonando fuerte y algo sonando bien, hagámoslo por el bien de la música.

Read More
featured

Entrevista con un productor: Mauricio Padilla

Mauricio padilla

Hoy  tuvimos la oportunidad de encontrarnos y entrevistar a nuestro amigo  el productor, músico y profesor chileno Mauricio Padilla.

Mauricio se desempeña como profesor de música en la academia El Centro en Santiago de Chile, es músico de la banda Killterry y además trabaja en un programa llamado Escuelas de Rock impulsado por el Consejo Nacional de la Cultura y las Artes de su país.

Este proyecto trata de acercar la música a lugares alejados de Chile,  en donde el acceso a grabar un disco o realizar una producción independiente es quizás mucho más acotado.

El proyecto consta de una temporada de clases de música en diversos instrumentos (guitarra, bajo, canto, teclado) e incluye la posibilidad de grabar material de músicos independientes de estos lugares.
En la entrevista Mauricio nos contó un poco de su experiencia en la producción musical y del rol que juega el productor.

A continuación lo que pudimos conversar con el:

Bueno Mauricio antes que nada saludarte y agradecerte por tu tiempo. Sabemos que sos productor  ¿Cuál es tu labor en el proyecto Escuelas de Rock?

Mi labor consiste principalmente en transmitir mi experiencia y aprendizaje de años a las bandas y artistas de la escena del rock emergente en Chile.
El proyecto es un programa itinerante que ha recorrido Chile de Norte a sur buscando fortalecer y potenciar el talento de las bandas, principalmente en aquellas zonas geográficas o regiones en donde existen pocas posibilidades de acceso a la información o la tecnología.

Las Escuelas  se localizan normalmente durante un período de 2 meses en alguna región (provincia) o comuna (barrio) en donde hay una convocatoria a las bandas locales para participar en clases grupales de batería, canto, guitarra, bajo, poesía, historia del rock y producción musical.

Mi taller (producción musical) consiste en revisar el material compositivo de la banda, para ser sometido a un riguroso análisis técnico tanto en lo que respecta a la composición como a la ejecución de los instrumentistas.

Para mi es fundamental mostrarles  la estructura de lo que ellos componen mediante gráficos simples en un pizarrón, y que vean el orden que  dieron a esos trozos que conforman la canción, de ser necesario les propongo un nuevo orden para estas partes.

Muchas veces ocurre que es  necesario agregar un puente para pasar de un verso a un coro por ejemplo. A veces es necesario  alargar un riff o cambiar una secuencia de acordes, en busca de  tensiones y paisajes interesantes.

Esto sirve mucho para poder resolver problemas estructurales,  al componer es bueno tener varias versiones de la misma canción, de esta manera ver cual resulta más sólida y coherente con la propuesta del grupo.

Una vez que tenemos la estructura clara y definida trabajamos los engranajes musicales, es decir  como se entrelazan los arreglos de guitarras, bajos, batería, etc.  dentro de la canción.

En este punto muchas veces sacamos guitarras,  dejamos el bajo solo e incluso  cambiamos los patrones de la batería para darle dinámica y matices a la canción. También a veces es necesario  simplificar los  arreglos, suele suceder que las bandas se ponen metas muy altas y escriben arreglos que no son capaces de tocar de manera precisa o satisfactoria. En estos casos  hay que  simplificar las partes en beneficio de una mayor calidad final; es importante que cada músico escuche atentamente las proposiciones de los demás para seleccionar el arreglo que mejor funciona con la canción.

También realizo un análisis lírico, de la propuesta y el discurso que la banda lleva como estandarte,  para que lo que se cante tenga sentido y  represente a toda la banda.

Me ha tocado trabajar con bandas en las que los músicos sólo tocan y no escuchan lo que el cantante dice en sus letras y para mi eso no sirve.  El discurso debe ser potente, ya sea que hables de amor, odio, tristeza, rabia de lo contrario lo mejor es hacer temas instrumentales. Si la letra no tiene peso por si misma no considero justo dar espacios para versos y coros que solo son un relleno.

Si la banda va a grabar un disco reviso una por una las canciones compuestas y selecciono aquellas donde se muestra mayor fortaleza en la composición y ejecución, las demás se descartan. De ser necesario se componen nuevas ideas para hacer un disco redondo. Es un proceso largo  que requiere de mucho compromiso de los músicos y productores.
Este puede ser un trabajo un poco invasivo para los autores y compositores, pero es muy necesario si se quiere que el resultado tenga un impacto y una mirada más profesional. Un claro ejemplo de esto fueron Los Beatles y George Martin quien era una figura casi anónima  pero fundamental para el sonido de la banda. Era tan fundamental que lo llamaban el quinto beatle.

Una vez que has seleccionado las canciones, compuesto más canciones (de ser necesario), trabajado los arreglos musicales y letras, normalmente comienza el trabajo gimnástico preparativo para dejarse caer en el estudio de grabación para optimizar el tiempo y en consecuencia el dinero.

La labor como productor que me ha tocado desarrollar, es muy hermosa y entretenida. He conocido mucha gente maravillosa, lugares y lo más importante, me ha permitido compartir mi experiencia y visón de la música.

2. ¿Qué implica ser un productor para vos?

En primer lugar ser alguien preparado en lo musical, tocar y dominar varios instrumentos. Para ser compositor y autor se necesita leer mucho. Por otro lado tener los sentidos bien abiertos y agudos, ser creativo, de mente abierta, es decir no encasillarte en un estilo solamente. Por lo menos a mi me gusta esa versatilidad, escucho desde folklore hasta el metal extremo.

Además considero importante tener experiencia en los estudios de grabación y conocer  los procesos de mezcla, edición y mastering. Si no se tienen estos elementos, es difícil tener criterios y argumentos a la hora de producir a un artista.

Lo demás es todo compromiso y pasión.

Nuestro amigo y productor Mauricio Padilla

Mauricio en el estudio.

3. ¿Cuáles son para vos los errores que ves más comúnmente en las bandas que producís y a que crees que se deben? 

Los principales errores consisten en un mal análisis estructural de lo que se compone, y errores  en la ejecución. Es ahí donde se trabaja más, esto se debe principalmente a que nadie les ha mostrado los errores desde una mirada profesional.

En Chile la producción musical está en pañales es decir, normalmente las bandas emergentes no conocen de que se trata este proceso y lo importante que significa en su desarrollo profesional. Los artistas consagrados por otro lado siempre trabajan con productores.

Como señalaba anteriormente, me siento un misionero en la música y cada vez que puedo transmito estos conceptos a los jóvenes, procurando ayudarlos a que sean más inteligentes y creativos a la hora de trabajar ya que  es la única manera de lograr buenos productos musicales.

Cuando se tiene más experiencia se puede  anticipar y pensar en los arreglos musicales en función de la mezcla también por ejemplo en los paneos la  dinámica, etc. y esto termina haciendo que la canción suene mejor.

Si una banda entra al estudio sin un entrenamiento y preparación en lo composición y en lo técnico puede suceder que la banda deje de tocar o existan algunos roces internos porque en el estudio de grabación se «amplifican» las falencias o errores que se ignoran en la sala de ensayo.

4. Las bandas con las que trabajas normalmente ¿Tienen por lo general nociones de lo que es la producción musical?

Las bandas con más experiencia lo saben, además  conocen  lo duro que es el proceso teniendo en cuenta que es alguien ajeno a la banda quien mete mano en el concepto y puede regenerarlo o destruirlo.

 Me atrevería a decir que sólo un 10% de las bandas se preocupa por este aspecto. También es cierto que las bandas jóvenes suelen estar mas abiertos a los consejos del productor y se entregan más al proceso  y así pueden aprender una metodología útil y eficaz para el trabajo futuro.

5. ¿Cuáles son las limitaciones que tenés que sortear generalmente a la hora de producir un proyecto?

El tiempo es el principal enemigo, como músico y productor  tienes que hacer mil cosas para sobrevivir. Por otro lado las bandas o artistas  están trabajando, estudiando o muchas veces tienen familia y prioridades antes de la música.

Otra limitación es  la escasa experiencia de los músicos en el estudio, para sortearla hay que trabajar mucho para llegar en optimas condiciones al registro. Por otro lado la mayor limitación es que acceder a los estudios de grabación buenos es muy caro, por ello si llegas a entrar a uno  debes ir con las cosas muy claras y muy bien entrenado para optimizar el tiempo y el dinero.

6. Sabemos que tenés una banda y compones regularmente ¿Qué tan distinto es componer y arreglar para tu banda con respecto a las bandas con las que trabajas?

Es más rápido por que tu mismo te apretas y te pones la pistola, además eres más exigente con el material que sale de tu cabeza y corazón. Personalmente no tengo mucho apego a las canciones hasta estar completamente seguro que será una buena canción. Ante la más leve sospecha de que una idea es mala esta se va al tacho de la basura.

Me entrego a un productor en el que confíe de la misma manera que cuando soy el productor para que nos ayude, sobre todo en la selección de canciones  y la estética general del disco

Personalmente sorteo a diario las mismas dificultades que cualquier músico, es decir no tengo el tiempo para dedicarme por entero a la composición; produzco mucho y estoy metido en mil proyectos pero trato de optimizar el tiempo y las  energías.

Antes andaba con libretas y cuadernos para escribir letras y grabadoras a cassette, ahora con la tecnología el celular es mi mejor aliado. Grabo las  maquetas en él  y también escribo las letras en cualquier lugar y posteriormente en mi casa o en el estudio termino de darles forma.

killterry

Killterry: La banda de Mauricio.

7. Si tuvieras que nombrarnos los pasos más importantes a la hora de producir ¿Cuáles serían?

  •  Composición. 
  •  Selección de canciones. 
  • Arreglos musicales y líricos de dichas canciones. 
  •  Entrenamiento de las canciones con todas sus modificaciones, previo a entrar al estudio grabación. 
  •  Grabación en estudio: En este ítem, la calidad de los micrófonos, interfaces y acústica de sala son vitales para el resultado final.
  • Edición y mezcla: Dependiendo del estilo la cantidad de procesos, soy enemigo de procesar todo en forma automática creo que si hay buenos registros, maquillar en exceso no es bueno, a veces perjudica lo natural y la calidez de una buena captura. 
  • Mastering: Lo mismo anterior buscar que no dañe la calidez natural de la música, mas allá de obtener buenos niveles de volúmen.

 

Para mi la producción musical no implica sólo las etapas de estudio de grabación que es lo que normalmente se entiende de esta actividad. En mi opinión la producción comienza desde la conversación con los músicos con los que vas a trabajar y desde allí se planifica y analiza el trabajo.

Si produces desde el estudio directamente sin conocer al músico o banda, puedes encontrarte con sorpresas y obstaculos.

Muchas veces los músicos no tienen la capacidad de resolver los problemas en el momento ya sea  cambiar patrones, simplificar, cambiar arreglos, etc. Lo mejor es que todos estos temas  vengan trabajados desde antes a menos que trabajes con músicos de sesión.

8.Sabemos también que enseñás guitarra eléctrica y acústica en la Academia El Centro ¿Qué conocimientos de la producción les transmitís a tus alumnos?

Cada vez que entra un alumno nuevo, le pregunto que es lo que necesita aprender o cuales son los principales problemas  que tiene en la técnica o teoría, o bien que expectativas tiene del curso con esa información le doy el enfoque necesario y el contenido ideal para cada alumno.
Existe un porcentaje menor de alumnos que más que técnica, busca la manera de plasmar sus ideas y composiciones y es ahí donde los conocimientos de producción musical son un gran aporte. En ese caso hacemos demos de sus canciones trabajando desde Pro tools.

9. ¿Existen para vos bandas “improducibles”?

Si, lamentablemente  muchas y normalmente son aquellas de gente que no tolera que se les critique cuando tocan mal o tienen malas canciones y arreglos.

Hay que verlo desde esta perspectiva: Si una banda quiere posicionarse en una escena musical,  profesionalizar su trabajo, proyectarse a nivel nacional, latinoamericano necesita en forma obligatoria experimentar y poner en práctica todos los procesos de producción que mencionamos,  es decir producir desde la composición.

Por otro lado si la finalidad de la banda es compartir un rato el fin de semana y pasarlo bien con un par de cervezas, la producción musical no es tan relevante. Personalmente cuando las bandas me piden producción musical les comento lo duro que es el proceso, si no están dispuestas a someterse al rigor del trabajo no seguimos adelante.

En estos momentos las plataformas digitales te permiten arreglarlo todo, incluso revivir un muerto. Pero no es muy buena idea hacer que algo suene perfecto en el disco y que posteriormente la banda no este a la altura a la hora de tocar en vivo.

10.¿Qué es para vos lo más satisfactorio de trabajar en el Escuelas de Rock?

Primero los desafíos, adquirir experiencias, aprender de grandes sonidistas,  conocer gente linda, lugares hermosos y sobre todo  que tu trabajo contribuya al desarrollo del talento de jóvenes músicos, al desarrollo del arte y la cultura nacional.

Bueno Mauricio, te agradecemos enormemente por tu tiempo y te mandamos un saludo a la distancia. ¡Que sea rock!

Agradecido de Uds. ¡¡Un saludos a todos los que lean el artículo y que ojalá sirva de algo!!

Read More
featured Mezcla

Secretos de mezcla: Herramienta trim

Herramienta Trim de Pro Tools que nos permite

Cuando aprendemos a mezclar por lo general usamos la analogía de la consola que nos presentan los DAW donde para subir o bajar el volumen usamos los faders como nos indica el sentido común.
A pesar de que los faders pueden ser muy útiles e intuitivos uno de los pequeños trucos que pueden ayudarte con tus mezclas es la herramienta de trim, a continuación te explicamos que es:

¿Qué es?

Es un plugin de manejo de niveles que viene con diversos nombres en las distintas D.A.W, en Pro tools por ejemplo  se llama trim o gain y se inserta como procesador en la cadena de procesamiento de la pista o bien se puede usar fuera de línea como proceso audio suite sobre la región de audio.  El uso que le vamos a dar nosotros va a ser como inserción en los canales.

Foto de la herramienta Trim en Pro Tools

Herramienta trim en Pro Tools. Nos sirve para poder aumentar o disminuir el nivel de una pista con mucha mayor precisión que los faders.

¿Para qué sirve?

Esencialmente se usa como atenuador del nivel de entrada en los canales de mezcla del programa, como primer proceso en el canal. Por lo tanto sirve para que nuestras señales entren con el nivel óptimo a la cadena de procesamiento ya sea que esta conste de ecualizadores, compresores, compuertas de ruido o básicamente cualquier otro dispositivo.

Al darnos la posibilidad de  reducir el nivel de entrada  para que ingrese al resto de la cadena en forma óptima, nos permite crear headroom para que nuestras mezclas suenen más limpias, con mayor profundidad y en general mejor.Ya que una mezcla sin headroom y al tope siempre va a tender a la distorsión que es uno de nuestros más grandes enemigos.

Otro uso muy interesante es el de mezclar hacia abajo con ellos, es decir en vez de subirle el volumen a un canal por que los demás están muy altos, bajarle a todos esos canales que están causando el problema.

En ese contexto podemos hacer la mezcla estática (mezcla que tiene el balance y sonido correctos en la mayoría de la canción, sin automatizaciones) desde esta herramienta, pudiendo incluso dejar en 0 todos los faders.

Si bien parece una práctica sin mucho sentido, lo empieza a tener cuando vemos que si tenemos los faders en 0 y la mezcla hecha prácticamente podemos ahora automatizar en una región más precisa en los faders.

Me explico no es lo mismo mover un centímetro de fader desde los 0 db (un incremento de 6 dB probablemente), que mover ese centímetro cuando el fader está en -20 dB (nos llevaría hasta – 40dB aproximadamente).

Es decir podemos hacer cambios mucho mas pequeños en nuestras automatizaciones, en especial si las hacemos con el mouse o en una superficie de control.

¿Cuando usarlo?

Tenemos varias opciones al momento de usarlo por ejemplo podemos usarlo en todos los canales de nuestra mezcla como regulador del nivel de entrada, tal como se haría en una consola con el potenciometro de ganancia que está primero en el canal; con el se regula el nivel de entrada para estar dentro del nivel nominal o de mejor funcionamiento del resto de procesadores.

Otra forma de usarlo es en los canales que tengan un nivel de entrada excesivo, es decir que hayan sido grabados con demasiado nivel o muy «calientes» , teniendo en cuenta que si la señal de entrada ya grabada está distorsionada no hay mucho que se pueda hacer en esta etapa.

Insertamos el plugin en primera instancia y buscamos el nivel de entrada óptimo, como recomendación en  señalas con contenido en picos (percusiones, baterías, etc.) se busca un nivel en promedio cercano a los -6 dBFS; por otro lado si es una señal del tipo RMS se busca un promedio cercano a los -20 dB.

Para este fin vamos a necesitar de un buen medidor de promedios, ya que los medidores de los D.A.W en general son del tipo peak, algunos ejemplos de medidores promedio o rms son:

  • PSP Vintage Meter
  • PAZ Meters de Waves
  • Dorrough loudness monitor de Waves
  • XL Inspector de RND

Otras funciones

La herramienta Trim nos da la posibilidad de cambiar de fase

La herramienta trim también nos permite cambiar la fase de la señal, por lo menos en la interfaz de Pro Tools.

 

Este plug in también dispone de otra poderosa herramienta, muy útil a la hora de revisar la polaridad en nuestras baterías por ejemplo estamos hablando de un inversor de polaridad.

El mismo se puede usar en conjunto con la función de nivel, colocándolo en primera instancia y por ejemplo usarlo al revisar el SD_T contra el SD_B (Snare drum o redoblante,tambor, caja, tarola, etc.).También podemos usarlo para revisar la polaridad del BD (Bass Drum, o bombo) contra los Overheads o los Toms contra los Overheads entre otros usos.

Al estar incorporado en el mismo plugin matamos dos pájaros de un tiro sin necesidad de procesamiento extra y al comienzo de nuestra cadena en el mezclador.

Esa es nuestra explicación de esta poderosa herramienta que esperamos les sea útil si no la han probado aún puede ser un factor a la hora de mejorar el headroom en las mezclas. En futuros artículos presentaremos otros plug ins que tienen incorporado una sección similar para cumplir esta función.

 

¿Conocías esta  herramienta? ¿Cual es tu experiencia con ella?

[divider_1px]

Si estás buscando un  servicio de edición, mezcla o mastering, podés consultar en nuestro sitio web:  Mezcla y Mastering Online | 7 Notas Estudio o en la sección Servicios del Blog.

 

Read More
Articulos featured

¿Llegó Spotify para cambiar el paradigma?

Afiche con una pregunta ¿Llego Spotify para cambiar el paradigma?

Quizás estoy haciendo este artículo 4 o 5 años muy tarde pero creo que para la realidad latinoamericana y en general mundial la piratería se vio acorralada recién durante el transcurso del 2012 y  personalmente, fue en el transcurso de este año que note una merma importante en la misma. Cuando hablo de Spotify, hablo en general de los servicios de streaming y se puede extender también al streaming de series/peliculas como Netflix.

Para el que no lo conozca es un servicio de streaming de audio donde podés escuchar música,  encontrar bibliotecas enteras de tus artistas favoritos, sincronizarlo con tu librería de reproducción «fisíca» (la que se encuentra en tu disco rígido) y además  hacer listas de reproducción dentro del mismo programa.

Las ventajas:

Entre las ventajas que ofrece Spotify tenemos:

  • Recomendaciones: Spotify te recomienda música basado en tus gustos previos y eleccion de canciones para reproducir. Esto para mi es uno de sus puntos fuertes porque te permite conocer nuevos artistas que hacen algo similar a los artistas que ya conocías de antes. Además representa mayores posibilidades de ser descubiertos para los artistas nuevos.
  • Catálogo: El catálogo de Spotify es bastante amplio y si bien hay algunas ausencias notorias la variedad es abrumadora.
  • Comodidad: Las opciones que te ofrece te permiten hacer bibliotecas de reproducción con facilidad y revisitarlas cuando te sea conveniente.

¿Que pasó con la piratería y que tiene que ver Spotify con esto?

A partir de la caída estrepitosa de Megaupload, la mayoría de los sitios que alojaban música fueron retirando los archivos dudosos y acatando las leyes contra la piratería. Esto causo una depresión enorme en la cantidad de discos disponibles para descargar de manera ilegal, provocando una herida mortal para la piratería como la conocíamos.

La gente dejó de subir discos a la red ya sea por miedo a ser detenidos o por la falta  de servidores en donde hospedar dichos discos. Quizás después de tantos años «la internet» le estaba dando la razón a la industria discográfica.

Lo único que hacía falta para escarmentar a los piratas que no querían pagar 20 dolares por un CD era castigando la difusión de contenido protegido por las leyes de derechos de autor, como sucedió con todo el revuelo del proyecto de ley SOPA (Stop Online Piracy Act) que le daba potestad a la justicia de EEUU de intervenir en casos cuya jurisdicción no le pertenecía pero que sin embargo infringían leyes de copyright estadounidenses.

Que hicieron para sentar precedente? Detuvieron a Kim «Dotcom» Schmitz:

La caída de Megaupload:

Foto del arresto de Kim "Dotcom"

Arresto de Kim Dotcom y la caída de Megaupload.
Fuente: http://pantograph-punch.com/wp-content/uploads/2012/06/kim-dotcom-arrest.jpg

Megaupload fue usado para sentar un precedente y como escarmiento para los dueños de servicios similares de alojamiento de archivos (Rapidshare, Mediafire etc.) Dotcom fue detenido y sus activos fueron congelados dejandolo en una situación bastante complicada, a partir de su detención la mayoría de los servicios de alojamiento fueron retirando los archivos que infringian los derechos de autor.
Portales como Taringa que eran famosos por la cantidad de contenido pirata al que facilitaban el acceso, borraron todos los post donde se proporcionaban enlaces para descargar discos o películas.

La lectura real:

Detrás de la caída de Megaupload existe sin embargo otra lectura. Antes de la debacle de la piratería uno de los argumentos más repetidos por la gente que compartía y descargaba discos era:

No es que la gente no quiera pagar por la música. Si la industria discográfica facilitara el acceso a la música con seguridad sería un negocio muy exitoso. Quizás no tan exitoso como en los años ’70 pero sin duda alguna generaría mucho dinero.

Y esto es justamente lo que pasó, los servicios de streaming desplazaron a la piratería puesto que son más legales,  cómodos y menos riesgosos.

En este momento nadie tiene la necesidad de navegar por oscuros blogs o páginas que tienen alojados los discos que queremos escuchar (a riesgo de bajar algún que otro virus).
En este momento esa música esta en los servicios como Spotify, Grooveshark etc. y no hay ningún indicio de que eso vaya a cambiar por lo menos en el futuro inmediato.

Esto demuestra que  para bien o para mal las reglas cambiaron y la gente ya no quiere CD’s (¿se acuerdan del cd?) ahora la música es un servicio y el bien físico se descarto de la ecuación.

 

Las desventajas:

Tapa del disco de Cream: Disraeli Gears

Tapa del LP de Cream Disraeli Gears.
Fuente: http://eil.com/images/main/Cream+-+Disraeli+Gears+-+LP+RECORD-418097.jpg

Quizás esto que estoy a punto de mencionar me transforme en un dinosaurio para muchos adolescentes que nunca vieron un CD y mucho menos manipularon un Cassette o saben lo que es un vinilo pero Spotify, Grooveshark, etc. tienen desventajas.

  • Regalías: Es sabido que las regalías que paga Spotify son muy pequeñas por cantidad de reproducciones. En especial si las comparamos con las regalías que se pueden percibir por la difusión en otros medios.
    Spotify no es un oasis de regalías pero puede ser visto como una ventana importante de difusión.
  • Perdemos la experiencia de interactuar con el arte: Aunque ud. no lo crea la música  solía venir con arte de tapa físico y eso era un motivo de exploración para el que lo descubría. Eso con los servicios actuales de streaming se pierde por completo. Cambio 600 .jpeg por 1 tapa de vinilo sin pestañear dos veces.
  • La calidad de la música esta limitada: Es obvio que en Spotify no escuchamos la música en formato WAV o Lossless sino sería imposible transmitirla en tiempo real. Esto para mí es una desventaja pero para el uso que le da una gran mayoría de las personas supongo que no representa demasiado problema.

 

Conclusiones:

Sin hacer un juicio de valor respecto a los servicios de streaming creo que no quedan demasiadas dudas de que son el presente y el futuro de la difusión musical y que hay que tenerlas en cuenta a la hora de pensar la difusión musical.

Considero también que en un futuro emulando un poco la filosofía invasiva de Google, los servicios de streaming podrán «predecir» tus gustos usando la información de tus hábitos de navegación para ofrecerte música que podría gustarte, como sucede ahora con las publicidades de Adsense.

¿ Vos que opinás de Spotify y los servicios de streaming?

[divider_1px]

Si estás buscando un  servicio de edición, mezcla o mastering, podés consultar en nuestro sitio web:  Mezcla y Mastering Online | 7 Notas Estudio o en la sección Servicios del Blog.

Read More
featured Mezcla

¿Como tengo que preparar mis mezclas para el mastering?

¿Como tengo que preparar mis mezclas para el mastering?

Algunas de las preguntas más comunes que surgen cuando tomamos la decisión de mandar a masterizar un tema por una persona ajena a la grabación y mezcla son: ¿Como tiene que estar mi mezcla? ¿Tiene que sonar fuerte? ¿Es necesario que le aplique los efectos o eso lo hacen ellos? ¿Le pongo un limitador a la salida? ¿Cual es el nivel óptimo en el master?

Ese tipo de preguntas son naturales porque al principio es difícil separar los procesos y a medida que vamos mezclando sentimos la necesidad de tratar de escuchar esas mezclas como el resultado final que tenemos en mente o compararlas con algo comercial, sin embargo esto suele ser un error porque estaríamos mezclando los procesos de la cadena.

Pensemos por ejemplo en un luthier que fue contratado para realizar una guitarra y a la semana de iniciar el trabajo le manda al cliente una foto de el cuerpo sin lijar y sin pintar, sería poco lógico que el cliente crea que ese es el producto terminado y que el luthier es un completo inútil.
La idea es diferenciar y entender que es necesario separar el proceso de producción con el producto terminado.

Con la mezcla y el mastering pasan cosas similares y por eso elaboramos esta guía que pretende ayudarte y facilitarte la tarea a la hora de preparar tus mezclas para mandarlas a masterizar.

Mezclas para el mastering ¿Es un mito?

No, de ninguna manera. Recordemos que el mastering es un proceso donde los detalles se pulen y se lleva la canción a un nivel de volumen comercialmente aceptable y el resultado final depende mucho de como sonaba la mezcla antes de si quiera «poner un pie» en el estudio.

Lo ideal es que la persona que mezcla el tema tenga una cierta conciencia de que es lo que espera el ingeniero de mastering.  Por ejemplo la mezcla no tiene porque sonar fuerte o tener remotamente el mismo nivel de volumen que un tema comercial.

Esto porque el nivel se lo damos después en el mastering y trabajar con mezclas que «respiren» en términos de dinámica facilita muchísimo la labor del ingeniero de mastering para poder lograr los resultados que vos esperás.

Algunas personas eligen no masterizar sus temas y hacerlo ellos mismos dentro de sus mezclas, cosa que no está mal aunque no es lo ideal evidentemente, y ahí si se podría justificar usar un limitador a la salida.

Pero si vas a mandar a masterizar tu tema ¿Por qué harías algo que le corresponde al ingeniero de mastering?

Limitadores en el master: Un pecado mortal

Uno de los errores más comunes que se cometen en un principio al mezclar es poner limitadores al fader maestro de la mezcla. Esto para limitar la salida estéreo y obtener una mezcla sonando mas fuerte.

A continuación un ejemplo de como se ve la forma de onda de tu tema con y sin limitador a la salida:

Sin el limitador:

Forma de onda de una mezcla estéreo sin un limitador en el master.

Forma de onda de una mezcla estéreo sin un limitador en el master.

Con el limitador:

Forma de onda de una mezcla estéreo con un limitador en el master.

Forma de onda de una mezcla estéreo con un limitador en el master.

Como podemos ver una vez tenemos puesto un limitador perdemos casi todo resabio de rango dinámico en nuestra mezcla.

Cabe aclarar que esto puede suceder también en el mastering, pero la diferencia esta en saber hasta donde se puede ir y tener la experiencia para no excederse.

Es muy emblemático el caso de Metallica  y lo que les paso con el Death Magnetic. Cuando salió el disco, mucha gente se dió cuenta que la versión del Guitar Hero sonaba mucho mejor que la versión masterizada que estaba en el disco.

Esto se debió a que por una decisión (a mi gusto una pésima decisión) buscaron que suene lo más fuerte posible y lo limitaron de tal manera que estaba distorsionando casi todo el tiempo.

Esto lo hizo un ingeniero de mastering a pedido de Metallica y Rick Rubin ahora, ese ingeniero de mastering sabia que estaba destrozando la canción y lo hizo porque se lo pidieron. Vos cuando mezclas ¿Estas consciente de que es lo que le esta pasando al rango dinámico de tus temas?

¿Por qué no debo hacerlo?

Porque le estás quitando todo el rango de acción al ingeniero de mastering que tiene la experiencia, el conocimiento y los medios para hacer que tu mezcla suene «fuerte». Esto sumado a que el ingeniero de mastering va a saber como llegar al volúmen deseado, provocando el menor daño posible.

¿Te imaginás ir a una pizzeria prestigiosa y darte cuenta que en realidad usan pre-pizzas genéricas de supermercado para hacer la pizza?

Ponerle un limitador a la salida de la mezcla es algo muy similar, estás sin darte cuenta masterizando tu mezcla y si mandás tu mezcla cuasi masterizada estás obligando al maestro pizzero a hacer maravillas culinarias con una pre-pizza y salsa de tomate enlatada.

Un consejo: Ponelo pero sacalo

Si tenés ganas de escuchar fuerte tu mezcla para hacerte una idea de como podría sonar con un limitador podés usarlo tranquilamente a la salida. Pero tenés que tener en cuenta que a la hora de mandar las pistas se lo vas a tener que sacar.

¿Y con los efectos que hago? ¿Se le pueden agregar en el mastering?

En el aspecto de los efectos se suelen trabajar en la mezcla. Se pueden usar distintos tipos de reverberaciones para varios instrumentos (baterías, voces, coros, guitarras, teclados, etc.) e incluso una reverberación global a la cual van todos los grupos de pistas por ejemplo. Lo mismo aplica para los efectos como modulaciones (delay, chorus, flanger etc.) para cualquier elemento que los precise.

Esto quiere decir que si queremos que la voz tenga reverberación tenemos que aplicársela durante la mezcla porque durante el proceso de mastering es imposible tratar las pistas por separado, recordar que es una sola pista estéreo y que todo lo que hagamos sobre esta pista afectará a TODOS los instrumentos al mismo tiempo.

Dejar los fades para el mastering

Otra de las recomendaciones es que los fades finales los haga el ingeniero de mastering, tanto los de entrada como los de salida si es por ejemplo necesario terminar la canción con un fade out.

Esta costumbre de dejar que los fades los haga el ingeniero de mastering se debe a que él es el que hace el montaje final de los temas y decide los espacios entre las canciones, además hay que sumar el hecho de que si en la mezcla esta hecho el fade la decisión esta tomada y es irreversible por ende aún si el ingeniero de mezcla tiene una opinión muy fuerte de donde tienen que ir los fades es recomendable que no los haga en la mezcla sino que l indique al ingeniero de mastering donde desea que vayan esos fade.

Además es  aconsejable dejar un espacio antes y después de la mezcla entre otras cosas por si fuese necesario remover algún tipo de ruido.Un par de segundos en lo posible suele ser suficiente.

 

Una imagen mostrando un fade out en Pro Tools

Así es como se ve un fade-out en una mezcla. Es importante que si querés que tu tema termine o empiece en un fade lo dejes para el mastering.

 

Con respecto al nivel ¿ Que nivel en términos de decibeles recomiendan para la mezcla?

Si bien no existe un nivel ultra-rígido en cuanto al nivel que tiene que tener la mezcla, existen recomendaciones hechas por profesionales con años de experiencia. Estas recomendaciones derivan del hecho de saber que mientras mas rango dinámico tenga disponible la mezcla, más fácil será procesarla en el mastering.
Un buen estándar para la mezcla es hacer que los niveles promedio (RMS) de la misma estén por los -20 dB RMS. Para esto nos podemos ayudar por ejemplo con el estándar de medición K-20 propuesto por Bob Katz, que se encuentra en algunos analizadores de espectro.

Este estándar nos dice que dejemos 20 dB de headroom (para señales del tipo rms), independientemente de las señales transiente o peak (baterías, percusiones, etc)  que pueden llegar incluso cerca de los 0dBFS cuidando siempre que no marque rojo o distorsione.

Para ello se dispuso que debido a que el soporte digital tiene como tope el 0dBFS (decibeles full scale), se le tenía que dar un headroom importante a la señal, para ello se escogió el -20 o -18 dBFS, dependiente del fabricante esencialmente. Este nivel corresponde en voltaje a 1.23V o +4dBu y con esto se pueden hacer interactuar las tecnologías analógica con digital.

En este sentido es bueno no depender del medidor de nuestra D.A.W ya que estos son medidores del tipo peak, por lo tanto no analizan bien el promedio; el contar con un analizador o medidor de niveles que funcione en los promedios (RMS) y en los picos  va a ser de vital importancia.

Por si te preguntas la diferencia entre RMS y peak.  RMS habla del promedio y da una información bastante concisa de que tan fuerte suena tu música, en cambio el peak representa los picos o puntos más altos y si bien los debemos tomar en cuenta no nos dicen que esta pasando con el resto de la música.

Para citar un ejemplo representativo supongamos que tenemos 30 personas y sabemos que su peso promedio es de 70 Kg, eso vendría siendo el RMS nos da una aproximación de que es lo que esta pasando en cuanto al peso.

Ahora como es de esperarse dentro de ese peso promedio hay gente que pesa menos, mucho menos, mas y mucho más. Estas personas representan a los picos o peaks.

Ejemplo de medidores dentro del software:

A continuación te mostramos como se ven los analizadores de espectro y en que tenemos que fijarnos para que nuestras mezclas esten dentro del rango sugerido:

Izotope: Observamos que nos permite elegir el estándar sugerido por Bob Katz (K-20):

Imagen de la interfaz del Izotope donde muestra los niveles RMS y peak de las mezclas

Interfaz del Izotope donde nos muestra los niveles RMS y Peak de nuestras mezclas.

 

 Dorrough: Este otro medidor digital, como podemos ver los peaks los muestra momentáneamente además nos permite setear donde queremos que sea el limite RMS (en este caso -20dBFS)

Imagen del estandar K-20 en el medidor Dorrough

Medidor Dorrough nos muestra el nivel RMS y los peaks. Además nos permite configurar donde queremos que este nuestro nivel RMS de acuerdo al estándar (en este caso K-20)

 

Conclusión:

Como pudimos ver si tenés decidido mandar tus mezclas para el mastering  hay muchas cosas que tenés que tener en cuenta en especial las que tienen que ver con los limitadores, los fades y siempre saber que más alla de tu mezcla todavía hay cosas que se le tienen que hacer y no es necesariamente un proceso finalizado.

 

¿Y vos como preparás tus mezclas para mandarlas a masterizar?

[divider_1px]

Si estás buscando un  servicio de edición, mezcla o mastering, podés consultar en nuestro sitio web:  Mezcla y Mastering Online | 7 Notas Estudio o en la sección Servicios del Blog.

Read More
featured Principiantes Tutoriales

¿Por qué no suenan bien mis mezclas?

Fader de una consola

Cuando recién empezamos a mezclar nuestros propios temas o algunos temas de nuestros amigos, solemos estar disconformes con los resultados. Y aunque notemos que a medida pasa el tiempo vamos mejorando, esas mejoras pueden tener un techo si no le prestás atención a ciertos detalles que son muy comúnmente ignorados y que van a lograr un cambio radical en los resultados que podes llegar a lograr mezclando.

El mayor problema con estos defectos es que a veces no son para nada evidentes aunque si lo pensamos bien, todos los consejos acá vertidos no son otra cosa que la aplicación del sentido común. A pesar de eso, a mi me costó algún tiempo entender que era lo que no hacía bien o porque mis mezclas no sonaban iguales que las que me gustaban.

Entonces te doy 5 razones por las que no suenan bien tus mezclas:

1.- El enmascaramiento y la falta de filtros:

 

Filtro pasa altos

Un filtro pasa altos (HPF). Es recomendable usarlos para evitar el enmascaramiento.
Fuente:http://media.soundonsound.com/sos/dec10/images/QA-5.jpg

Tal vez uno de los problemas principales cuando comenzamos a mezclar es la sobrecarga, o el exceso de «información» en ciertas frecuencias, que esta dado cuando dos o más instrumentos comparten frecuencias (pensemos en el bombo y el bajo, por ejemplo)

Otro claro ejemplo de este fenómeno es la guitarra eléctrica aislada y en contexto. Si tocamos solos frente a nuestro amplificador tendemos a usar muchos bajos en la ecualización, el problema es si en un contexto de banda esa guitarra va a «cortar» como se dice coloquialmente, o si se va a pelear (frecuencialmente hablando) con el bajo logrando una bola ininteligible de sonido.

Este problema se soluciona aplicando filtros en el caso de la guitarra y bajo se le aplica un filtro pasa altos  (HPF) a la guitarra con una pendiente de tal vez 6 o 12 dB/Octava. La frecuencia de corte se selecciona con ambos instrumentos sonando, se sube la frecuencia del filtro hasta aclarar esa zona.

Haciendo una analogía futbolera, existen jugadores «morfones» o que no largan la pelota ni con una orden judicial y existen jugadores que tienen mas conciencia de equipo. Los jugadores con conciencia de equipo resignan un poco de gloria personal a cambio de la gloria colectiva. En una mezcla es muy similar, todos tienen que relegar algo para que el resultado final sea óptimo. 

El concepto de filtrado se puede llevar a la inmensa mayoría de las fuentes de audio y de esta manera liberar un espacio vital para que las bajas frecuencias puedan convivir en armonía.

2.- El exceso de ecualización aditiva:

A veces es necesario jugar con el contraste para resaltar algo. Fuente: http://cdn.tutsplus.com/audio/uploads/legacy/223_eq/6Additive.jpg

A veces es necesario jugar con el contraste para resaltar algo.
Fuente: http://cdn.tutsplus.com/audio/uploads/legacy/223_eq/6Additive.jpg

 

Cuando aprendemos a usar los ecualizadores, generalmente tenemos la impresión de que si por ejemplo a una fuente le faltan agudos hay que buscar la frecuencia y agregarle hasta lograr el efecto deseado. Sin embargo el uso y abuso de este tipo de ecualización (aditiva) tiende a hacer que la mezcla pierda claridad y calidez, ya que es fácil ir subiendo frecuencias a un montón de instrumentos y hacer de esta práctica un circulo sin fin.

Sin embargo existe otra forma de ecualizar que consiste en quitar frecuencias (ecualización sustractiva). Por ejemplo si la faltan agudos a una fuente, buscar de quitarle graves o medios graves, hasta hacer que los agudos empiecen a resaltar.

Otro uso clave es cuando necesitamos liberar espacio en los medios graves (zona en la cual muchos instrumentos comparten gran carga de energía y que provoca falta de claridad, o mud) buscamos alguna frecuencia que suene mal y le quitamos algunos decibeles.

 

3.- La mezcla hacia arriba: 

Fader de una consola

Mezclar bajando volúmenes en lugar de subiéndolos, puede ser la solución a tus problemas.
Fuente: http://cdn.loopblog.net/wp-content/uploads/2010/10/fader.jpg

Otra forma de hacer que una mezcle empiece a distorsionar rápidamente, pierda claridad y profundidad, entre otras cosas, es lo que se denomina como mezclar hacia arriba. Con esto nos referimos a que si por ejemplo estamos ante una situación que las guitarras necesitan estar más fuerte, la lógica nos dice que le subamos el nivel a las mismas, pero esto va a hacer que después tengamos que subirle a la batería, al bajo, a la voz y así en un círculo.

Afortunadamente hay otra forma de manejar la situación y consiste en bajar los demás instrumentos en vez de subirle al que queremos, para que así se perciba al instrumento al que queríamos subirle el volumen como sonando más fuerte.

Lo primero que tendemos a pensar cuando leemos o se nos comenta de esta forma de mezcla es que es lo mismo que subir volumenes pero al revés. Lo que no entendemos es que no es la función de la mezcla tener todos los volúmenes a tope, y hasta diría que no es importante sino que la función de esta es que en el contexto las cosas se entiendan.

En principio puede parecer un proceso más difícil o largo, pero lo cierto es que una vez nos acostumbramos a hacerlo de esta manera lo incorporamos a nuestra manera de mezclar, se van a notar cambios grandes en nuestras mezclas.

 

4.- La falta de Headroom: 

Master Fader saturando Pro Tools

La saturación es otro de los problemas mas comunmente encontrados en las mezclas.
Fuente: http://guitarcenter.lithium.com/legacyfs/online/19668_Fig%202%20Pro%20Tools%20meters.png

Este problema viene de la mano con el anterior problema ya que en audio tenemos que pensar que a los parlantes se le entrega una potencia sola, la misma se tiene que dividir en las distintas bandas de frecuencia (por ejemplo graves, medios, agudos) y por lo tanto si tenemos una zona frecuencial excedida en la mezcla vamos a estar consumiendo potencia de las otras bandas frecuenciales y cuando querramos que se noten esas otras frecuencias lo vamos a lograr pero acompañado de un alto nivel de distorsión y esto no es para nada agradable.

Para lograr mezclas con mayor headroom, que suenen limpias y tengan claridad, debemos hacer todo lo posible para mantener los niveles óptimos en nuestra cadena de audio, esto es estar siempre dentro de los niveles nominales (niveles para los cuales los equipos trabajan de la mejor manera).

Una práctica que resulta útil es por ejemplo si vamos a ecualizar en forma aditiva,  es emparejar la señal a la salida para no tener aumentos significativos en el nivel con respecto a la entrada. Así mismo hacerlo al comprimir, comprimir pero simplemente a la salida igualar el nivel del entrada.

 

5.- El exceso de procesamiento individual: 

Plugin simulación del 1176

Las simulaciones digitales de circuitos analógicos puede lograr grandes resultados, pero no puede emular la capacidad de sus pares de procesar grandes cambios.
Fuente: http://cdn.loopblog.net/wp-content/uploads/2010/10/fader.jpg

Con esto nos referimos a cuando le pedimos a un plugin que comprima por ejemplo 10-15 dB, sin tener en cuenta que no están diseñados para este fin.

En el ámbito digital conviene un procesamiento moderado, por ejemplo al comprimir buscar 3-6 dB de atenuación usando un solo plugin, si depués necesitamos más, usamos otro compresor en serie.
Lo mismo se aplica a la ecualización, los ecualizadores y específicamente los del tipo correctivo, no están pensados para hacer grandes incrementos de ganancia más bien para cambios graduales, ya que empiezan a sonar poco naturales y a restar más que lo que están haciendo.

Conclusiones:

Estos son solo algunos de los problemas mas comunes a la hora de encarar las mezclas que se suelen repetir hasta el hartazgo en las producciones amateur.

También queremos notar que el uso de hardware no es en si una ventaja para tus mezclas y las mezclas no mejoran por tener ecualizadores y compresores por el valor de un Lamborghini. El hardware representa una herramienta que en las manos adecuadas puede hacer maravillas pero eso no implica que no se puedan lograr cosas superlativas sin él.

Pensemos en Lionel Messi por citar un ejemplo, el uso de botines de avanzada mejoraría su nivel de juego en un 4% (es ficticio obviamente) cosa que no representa la diferencia de precio con los botines desgastados o directamente jugar descalzo. Esto quiere decir que la herramienta es una parte de la ecuación que puede o no tener una influencia muy importante.

No me opongo para nada al uso de hardware analógico para mezclar o masterizar pero considero que no hay que torturarse psicológicamente si no tenemos procesadores prohibitivos porque hasta ahora no vi un martillo construyendo hoteles o una super-computadora programándose sola.

Como siempre, la práctica hace al maestro: Mezclen mucho y no dejen el sentido crítico de lado. Tampoco dejen de estudiar y aprender que es lo único que nos hace crecer a todos.

Saludos y a mezclar!

[divider_1px]

Si estás buscando un  servicio de edición, mezcla o mastering, podés consultar en nuestro sitio web:  Mezcla y Mastering Online | 7 Notas Estudio o en la sección Servicios del Blog.

 

Read More
1 2 3