почитайте на досуге, может найдете и для себя что то смешное.
это финишь, на самом деле. это можно вот сюда вставлять...
http://krosh.tehnologia.info/forum/viewtopic.php?t=7347
почитайте на досуге, может найдете и для себя что то смешное.
Практика чего? В голове не укладывается логика такой работы. Т.е. под каждый виртуальный инструмент, в нормальных студиях устанавливается отдельный компьютер? И в чем заключается "желаемый результат"? В чем различие, если я выведу с секвенсера одного компьютера, несколько виртуальных инструментов, на отдельные каналы аудио интерфейса (buses)? Что в принципе я во всех студиях до сих пор и встречал. Или может я ещё не повидал "нормальных студий" с кучей компов и преобразователями DA для каждого их них? подключенных к микшеру? Даже не представляю как это всё будет выглядеть. Буду рад услышать объективное объяснение, иначе это просто бессмысленный спор.
Тоже не понятно, раз уж мы говорим о студии, а не о концертной аппаратуре. Обязательно в реальном времени? Для чего тогда опция Bounce to Track в Pro Tools? Это сколько MIDI контроллеров необходимо для управления всеми компьютерами? А о подключении каждого компьютера на отдельный канал пульта я спросил выше, но вопрос актуален и здесь - каким образом?
Если на концертах используют synth module, то с ноута никакие звуки не берутся. Возможно там настраивается управление посылов сигнала на различные каналы аудио интерфейса и опция менять midichannel что бы использовать звуки с других модулей.
Я работал и учился у таких людей. О вещах перечисленных выше - я узнал только в этой теме.
Так делается не иногда, а всегда, если обработка аудио идёт на внешних, аналоговых устройствах (channel strip, eq, compressor, reverb и т.п.). Точно так же делается и reamp гитар, записанных на компьютер через di-box.
В нормальных студиях как основные инструменты берутся всё же настоящие синтезаторы, и компьютер подключается по аналогии с синтезатором, отдельный звук на отдельный вход микшера. При такой работе не используется секвенсер компьютера, он (компьютер) работает как тон генератор. То есть пришла по миди команда сиграть ноту он её проиграл. Зачем кто то будет на каждом компьютере забивать свой сенквенсер? кому нужен этот геморой и ради чего? И куда же его подключать как не в микшер?
Последний раз редактировалось nafnt; 14.08.2011 в 11:14.
А по другому и нельзя. вот , допустим, у меня в одной упряжке в реальном времени работают несколько синтезаторов и компьютер как синтезатор. И мне захотелось немного изменить звук который идёт с компьютера. Ну тупо изменить скажем атаку звука, и что, после каждого изменения мне это всё баунсить переносить полученый aif файл в компьютер на котором у меня работает логик импортировать его туда чтобы потом в реальном времени послушать то что получилось? И так несколько раз, пока не получу желаемое звучание всего микса. Это не работа а мазахизм какой то. А миди контролёров ставят столько сколько нужно. у меня сейчас AMT-8 восьми портовый, но если буду расширять, то нужно будет и контролёр ещё один покупать. Тем более что никто не запрещает "посадить" компьютер на один порт с синтезатором, просто каждому назначить разные миди каналы.
Последний раз редактировалось nafnt; 14.08.2011 в 11:13.
Статья с технической точки зрения написанна не очень грамотно,
начнём её разбор,
цитирую:
автор наверно не имеет понятия что такое "мультипроцессорная обработка" и что современные ЦПУ давно умеют обрабатывать параллельные потоки,Но мы забываем (или не знаем), что ЦПУ выполняет операции последовательно, а не параллельно.
а изготовители софта в свою очередь научили свои приложения работать в мультипроцессорной среде
Далее он там пишит про DSP
Вот про какой развод он пишет?Почему никто на рынке производителей профессионального музыкального оборудования не делает новых законченных решений на DSP, с ресурсонезависимым вводом-выводом, без «мыла»… Зачем все эти новые «мощные» нативные карты с новыми DSP для обработки, но пишущие через ASIO…
Но мы-то ответ знаем. Кругом сплошной коммерческий развод
ASIO, это драйвер, который осуществляется взаимодействие с оборудованием напрямую,
тем самым снимая нагрузку с ЦПУ, при использовании аудиокарт Pro класса (которые кстати все построенны на DSP) не будет ни кокого "мыла"
Эта статья справедлива только для старых одноядерных систем и любительских аудиокарт
Этоуже карта за $30 с ASIO дравером стала профессональной? Или софт того же кубеса умеет работать с ресурсами процессора на карте?
Ну и наконец, самое главное (читайте внимательно!) вы сами то что, не слышите разницу меду тем, что приходило на микрофон с тем что вы потом имеете? А это самый важный тест. ради того, чтобы не было разницы и покупают оборудование за за десятки тысяч долларов. Причем, если вы её и не слышите это не значит что её нет на самом деле.
Социальные закладки