Pregunta:
¿Por qué parece más difícil aprender a usar DAW que los programas de edición de video?
Vass
2012-02-16 17:26:29 UTC
view on stackexchange narkive permalink

Entre algunos amigos y yo, evidentemente nos resulta más difícil aprender a usar DAW que a usar programas de edición de video como Sony Vegas y Premier. Estamos probando Roland CakeWalk Sonar 8 y Ableton Live y lo encontramos complicado. Parece que debe haber un concepto en los DAW, la producción / edición musical, que es difícil de comprender y está evitando nuestra comprensión. Con Video, las pistas, superposiciones, efectos, transiciones, todo parece tener sentido para el producto final. Pero los DAW nos están perdiendo. Parece que las funciones y herramientas están dispersas y no se unen todas. Los términos utilizados en los programas simplemente no tienen una traducción intuitiva al sentido común, lo cual es fácil de encontrar.

¿Hay algunas oraciones que deberían venir a la mente al utilizar un DAW? Por ejemplo, considere XX, si desea YY y ZZ, también si desea WW y luego diríjase a A / B / C

¿Qué aspecto te resulta más complicado: grabar, editar, añadir efectos ...?
@FriendOfGeorge, hay tantos botones, MIDI aquí, MIDI allá, consolas, filtros, efectos, etc. Nos estamos perdiendo. Nada para dirigir y agilizar el proceso de pensamiento.
tal vez debería haberle preguntado qué tipo de música desea hacer antes de responder a continuación. ¿Nada en particular?
Not the answer you want to hear, but: if you're serious, you should specialize. In other words, you are trying to learn too many skills at once. If you are drawn to video editing and visuals, then hire someone to do your sound who is trying to make a career of it- they need the practice. And maybe they can teach you cool stuff in the bargain.
@he_artburns - No estoy de acuerdo, hay 2 escuelas de pensamiento, una es la avenida hollywood, especializada, que involucra a especialistas para cada tarea, con grandes equipos y grandes presupuestos, pero (con suerte) máxima calidad. La otra escuela de pensamiento es la escuela de pensamiento de cineasta mucho más independiente en la que se trabaja con equipos pequeños y con múltiples talentos que pueden manejar múltiples roles y tener una visión cohesiva. Comprender al menos los conceptos básicos de un DAW no está fuera de discusión para una persona en ese tipo de función. Sin embargo, tiene razón en que es importante tener en cuenta que son campos relacionados pero distintos.
Tres respuestas:
bot_bot
2012-02-17 00:14:36 UTC
view on stackexchange narkive permalink

Solo he usado Premier, he incursionado en él, es decir, y me pareció bastante sencillo entrar (con algo de perseverancia). Lo único que se me ocurre con el software de producción musical es el hecho de que estás tratando con múltiples conceptos. Al utilizar software de producción musical, puede resultar útil separar cada área en sus componentes constituyentes y estudiarlos de esa manera. normalmente tendrá una variedad de instrumentos, una grabadora multipista, un secuenciador, unidades de procesamiento y unidades de efectos. Si descompone las cosas así, será más fácil entender lo que está pasando. Con la forma en que la tecnología avanza, la línea entre estos diversos elementos se difumina cada vez más y puede hacer que sea más difícil entenderlo. Uso el estudio de lógica y ableton live. Sonar se parece mucho a la lógica. Me imagino que es más fácil entender los conceptos dentro del sonar que con Ableton, ya que tiene una estructura más tradicional.

OK -

Secuenciador: Se utiliza para controlar instrumentos virtuales o de hardware a través de mensajes MIDI. Debido a que el MIDI es un mensaje de 8 bits, por lo general, las cosas funcionarán con configuraciones de -128 a 0 a 127 (o al revés) con un máximo de 16 canales por instrumento. Como tales, los instrumentos MIDI utilizan controladores para controlar los diversos aspectos de su sonido. Cada canal puede tener hasta 128 parámetros que se pueden ajustar al mismo tiempo. Hay varias asignaciones para estos controladores, como GM GS y XG. Algo de información sobre MIDI aquí:

http://en.wikipedia.org/wiki/MIDI

Vale la pena aprender algunos de esos números de control, especialmente si está utilizando hardware. La mayoría de secuenciadores tienen varios métodos para trabajar con datos. Obviamente, puede grabar directamente, luego generalmente hay editores de partitura, matriz / pianola, Hyper (en lógica) y de eventos. Encuentro que los editores de matrices y eventos son, con mucho, los más útiles: no me siento cómodo con los editores de partituras y creo que para techno, D&B, Dubstep, etc., tienen mucho más sentido usarlos de todos modos. Matrix / piano rolls son una buena forma visual de editar sus eventos. El hiper editor en Logic es como una representación visual de eventos secuenciados que la matriz no muestra, como el control de respiración o controladores aleatorios que puede haber asignado a cosas específicas como lfo en un sintetizador externo, por ejemplo. El editor de eventos le mostrará TODO lo que está emitiendo un canal en particular en su secuenciador - nerd incondicional allí - excelente cuando sabe lo que está buscando / buscando.

  • Aprenda los conceptos básicos de su secuenciador -
    • agregar y configurar un instrumento o canal midi
    • asignar un VST o un instrumento de hardware externo
    • hacer un patrón vacío
    • agregar notas e información del controlador a través de Martix Editor / Piano Roll
    • agregando / editando mensajes de controladores a través de la lista de eventos (puede que no use esto al principio, pero después de un tiempo verá cuán útil puede ser.
    • agregar y editar la automatización del controlador tanto dentro de un clip como en la vista de organización (que será similar al material del video).

Sintetizador / sampler / caja de ritmos / VST / AU: sus instrumentos vienen en todas las formas y tamaños; el hardware se apegará a muchas de las reglas MIDI descritas anteriormente, el software puede ser un poco más intuitivo de usar. Los VST vienen como instrumentos múltiples (como hardware, generalmente hasta 16 instrumentos por sintetizador) y como instancias únicas. Personalmente, generalmente usaré instancias únicas, ya que es más fácil de ver en la OMI. Para empezar, elija un instinto que le guste y APRENDA. Los rpesets están muy bien, pero si tienes un sintetizador que te gusta y lo estudias con cuidado, trátalo como un instrumento APROPIADO: piensa en cuánto tiempo pasarías tratando de aprender a tocar la guitarra, los sintetizadores no son diferentes, incluso si no los estás tocando físicamente, tienes un poder increíble en tus manos y alguien que sabe lo que está haciendo con un simple sintetizador producirá resultados mucho, mucho mejores que alguien que tiene todos los plug-ins de las grandes marcas en funcionamiento, pero poca o ninguna comprensión de cómo usarlos. Para empezar, recomendaría un buen sintetizador sustractivo, muy versátil y que puede hacer mucho. Pasar 6 meses con algo como el ES-1 de lógica le servirá mucho mejor que luchar con instrumentos más complejos durante el mismo período, especialmente cuando esté aprendiendo cajas de ritmos, secuenciadores y otras complejidades que acompañan a un secuenciador. En cuanto a las cajas de ritmos, se aplican las mismas reglas: me encanta mi Novation Drum Station y también me gusta mucho NI Battery.

Aprenda sus sintetizadores:

  • -Estudie diferentes tipos de síntesis, comience con sustractivo.

    • Aprenda qué hace cada control en su sintetizador, cómo se relacionan con el secuenciador y cómo pueden ser controlados por un teclado con mensajes de control.

    • estudiar los diferentes tipos de envolventes, qué hacen y cómo se controlan.

    • estudiar osciladores, qué hacen y cómo están controlados.
    • aprende polifonía, partes y voces.
    • recuerda las cajas de ritmos por defecto en el canal MIDI 10.

Procesadores y efectos: Los dispositivos que afectan o cambian el sonido en sí mismos se dividen en dos campos, procesadores y efectos. Los procesadores son cosas que se usan para esculpir el sonido, supongo, generalmente se usan sutilmente y generalmente se aplican antes de los efectos (aunque, por así decirlo, no hay reglas, tome esta sección como guía) y en los puntos de inserción, ubicados en la mitad de los mezcladores. ruta de la señal después de la ganancia y, por lo general, antes del EQ si no recuerdo mal. Aunque con el software puede colocarlos en cualquier lugar que desee, es bueno conocer el principio. La razón es que, si tiene una señal ruidosa, es probable que desee eliminar ese ruido, por ejemplo, antes de aplicar su retardo o reverberación o lo que sea. Los procesadores son cosas como compresores, puertas de ruido, energizadores, filtros, desactivadores, etc. Los efectos son los sospechosos habituales como retrasos, reverberaciones, distorsiones, flangers, ecos, phasers, etc. Aprenda ambos, aprenda la diferencia. Los procesadores utilizados para mejorar las mejores cualidades o eliminar las malas cualidades del sonido, los efectos utilizados embellecen o arruinan totalmente el sonido. Para empezar, es bueno saber qué hace cada uno de los siguientes procesadores y para qué se utiliza:

  • compresor
  • puerta de ruido
  • de esser
  • filtros: filtros de paso de banda bajo, medio, alto y.

Para los efectos, simplemente juegue con ellos y vea lo que hacen, siempre es bueno tener un buen sin embargo, entendía la reverberación, el retardo o la distorsión a mano.

Es un tema infinitamente masivo, pero si lo divide en partes manejables, debería avanzar más fácilmente. Podría ayudar, ya que hay un grupo de ustedes, si asumiera aspectos específicos cada uno. Tome un sintetizador cada uno y conviértase en experto: uno de ustedes se convierte en el ecualizador / ingeniero, uno de ustedes toma los efectos, etc.

Ni siquiera entraré en la grabación multipista aquí. Lo dejo para otra pregunta.

¡Es bueno ver cuánto tiempo y esfuerzo pones en esto para ayudarlo! :)
Solo quiero contar mi historia:
Toco el piano en una banda y eché un vistazo a algunos DAW para configurar Autotune, pero no me di cuenta de la lógica hasta que aprendí a mezclar en vivo. Entré en Internet, busqué y leí sobre mezclas en vivo. Empecé a mezclar para nuestra iglesia local. Ahora es realmente lógico para mí. Le sugiero que haga lo mismo para obtener la comprensión básica del audio. ¡Buena suerte!
Sí, estoy totalmente de acuerdo, aprender un mezclador físico ayudaría enormemente con el proceso. Lo anterior es una especie de pregunta de "cuánto mide un trozo de cuerda", es muy difícil entender qué es una suite de producción musical cuando se empieza desde cero. Al principio, no hace clic en que cuando comienzas a usar algo como Logic o Cubase, Ableton o lo que sea, básicamente estás viendo toda la industria de la música en tu computadora, agregando un blog y la capacidad de publicar directamente en iTunes o Beatport y literalmente estarías viendo toda la industria de la música en tu PC.
Las palabras de datos en MIDI son en realidad de 7 bits (por extraño que parezca), es decir, el rango es 0-127 por defecto. A menudo me pregunto cuánto tiempo pasará hasta que lo reemplace algún formato que no sea de la edad del bronce digital, pero no soy muy optimista ...
0 cuenta también, ¿verdad? Piense en todo el increíble hardware que se perdería si eliminara el MIDI :-D
AJ Henderson
2014-10-07 01:12:58 UTC
view on stackexchange narkive permalink

Los DAW no son intrínsecamente más difíciles de usar que los NLE. El caso es que la mayoría de la gente tampoco conoce su NLE. La mayoría de los consumidores y principiantes no utilizan muchas funciones avanzadas de su NLE. Dado que el video es visual, las personas son intrínsecamente mejores para separar y visualizar lo que está sucediendo con múltiples capas y lograr lo que quieren sin tocar realmente el poder de su NLE. El sonido también tiene capas, pero como oyente pasivo procesamos el sonido como un todo, no capas.

Cuando vemos un video de un hombre parado frente a un sofá y detrás de un televisor, vemos claramente dónde cada objeto es y cómo se orientan entre sí. Con el sonido, es posible que escuchemos una guitarra, una batería y un vocalista tocando, pero realmente no filtramos qué partes son cuáles y quién es más lento que quién, solo escuchamos el sonido general.

La mezcla de audio es un estilo de pensamiento inherentemente diferente, ya que debe pensar en el sonido en capas de manera similar a cómo piensa en las capas para el video. Tienes que pensar en cómo interactúan los sonidos a través de los volúmenes y las frecuencias y alterarlos de tal manera que encajen. Los seres humanos son mucho más hábiles para colocar clavijas redondas en un orificio redondo (como ver un área en blanco del fondo para poner un título) que darse cuenta de que hay un espacio en el sonido entre 200 Hz y 400 Hz que se puede llenar al ecualizar la guitarra. simplemente así y ajustando el nivel para que se mezcle.

Hay muchas más funciones avanzadas en NLE que son difíciles de conceptualizar y son más desafiantes, pero la mayoría de la gente no tiene que lidiar con ellas. Si ingresa a la creación de fotogramas clave de animación de alto nivel en algo como After Effects (bueno, eso no es en realidad un NLE), rápidamente le da a cualquier cosa de automatización en un DAW una carrera por su dinero.

Lo único que realmente podría decirse que hace que un DAW sea más complejo que un NLE es que incluye los componentes de edición y adquisición. Los verdaderos NLE admiten un módulo de captura por lotes para fines de control de plataformas antiguas, pero es un módulo distinto que crea clips. Los DAW, por otro lado, admiten la adquisición directa y en directo de audio directamente en la línea de tiempo en varios canales, por lo que esto agrega cierta complejidad.

Sin embargo, a la inversa, los NLE no solo tienen muchas de las características de audio básicas de un DAW , pero también tienen que admitir funciones para la manipulación de video, lo que agrega una complejidad que un DAW no tiene cuando trabaja en la gama alta.

Tanto los NLE como los DAW tienen complementos de terceros, aunque es A menudo, es más común que un usuario medio de DAW use complementos de terceros para sonidos particulares de lo que es que un usuario de NLE necesite uno, por lo que tiende a haber muchos más complementos de audio para diferentes tipos de procesamiento. Sin embargo, esta no es realmente una distinción importante, ya que ambos tienen bibliotecas bastante grandes de complementos incorporados y puede pasar de un nivel básico a bastante avanzado sin complementos adicionales, solo se necesita un poco más de trabajo.

Entonces, en resumen, la aparente diferencia de dificultad no se debe al software, sino a la experiencia del usuario. Un DAW y NLE son aproximadamente similares en términos de dificultad, sin embargo, ambos requieren un conjunto de habilidades en el medio para usarlos y comprenderlos bien. El conjunto de habilidades para el video se adquiere de forma más natural en la vida cotidiana, por lo que parece más fácil. El conjunto de habilidades para el audio no es tan natural y es más difícil saber qué está sucediendo cuando intentas algo sin conocer la terminología, por lo que parece más difícil, pero si tuvieras experiencia en la mezcla de audio (pero nunca habías tocado una DAW), Sería bastante trivial sentarse a una nueva aplicación de audio y empezar a trabajar.

ghellquist
2020-04-07 10:49:17 UTC
view on stackexchange narkive permalink

Creo que la principal diferencia es que en los videos se edita principalmente mientras que en Daw se crea. Compare la edición de un podcast con la edición de video y no hay mucha diferencia.

Imagina tener que crear el video usando modelado y animación.



Esta pregunta y respuesta fue traducida automáticamente del idioma inglés.El contenido original está disponible en stackexchange, a quien agradecemos la licencia cc by-sa 3.0 bajo la que se distribuye.
Loading...