일단 결론부터 먼저 내려본다.

"Loudness war(레벨 경쟁)은 나쁜 것이다"

하지만 너도 나도 음압을 최대한 올린 마스터 본을 뜨는 이 시기에 혼자 높은 레벨보다 레벨이 낮더라도 좋은 다이나믹만 추구하기엔 무리가 있는 시점이기도 하다. 가장 이상적인건 좋은 다이나믹과 톤을 가지고 있으며 동시에 충분한 음압을 확보하는 것이다. 그러나 이상은 이상일 뿐, 레벨을 무리하게 올리면 올릴 수록 댓가를 지불할 수 밖에 없는 요소들이 분명 존재한다. 최대한 적게 손실을 입고 최대한의 레벨을 확보하는 것, 그나마 이게 절충선으로선 현명하나 소리가 다 깨지더라도 레벨을 우선시 하는 음악들은 계속 쏟아져 나오기에 좋은 소리를 만들고 싶은 이들도 어쩔 수 없이 레벨을 택해야 하는 경우가 너무 많다. 마스터링 레벨을 충분히 확보하려면 여러가지 신경 써야 할 것들이 많아서 글 한번에 담아내기는 쉽지가 않다. 그래서 여러 편에 걸쳐 조금씩 이야기를 해보려고 한다.

먼저 레벨을 키우러면 레벨이 뭔지를 알아야 할 것이다. 실제 그 마스터링 본이 가진 에너지 자체를 뜻할 수도 있고 심리음향(Psychoacoustics)적인 면에서의 레벨도 있다. 가장 기초가 되는 건 레벨이 뜻하는 수학적 또는 공학적인 개념을 정확히 이해하는게 우선이다. 기본적으로 dB라는 단위의 종류(dBu, dBV, dBFS, dBSPL 등등)와 그 의미 및 칼리브레이션(Calibration) 등등을 이해해야 할 것이고 우리가 흔히 사용하는 DAW 에서의 dBFS와 그걸 측정하는 여러 방식에 관해서도 이해를 해야 할 것이다. 또한 디지털 상의 레벨과 실제 아날로그 상의 레벨의 상관 관계, 즉 표준운영레벨(Reference Level)에 관해서도 이해를 하고 있어야 한다. 그 후에 기본적인 레벨 이해를 위해 최소한의 개념들과 용어들도 이해해야 할 것이다.(피크 레벨/Peak Level, RMS Level, 피크와 클립의 차이점, 인터샘플 피크/Intersample Peak, K-Weight, 트루피크/True Peak, LUFS 등등......) 간단히 팁 몇개 쓸고 끝낼 생각으로 시작한 글인데 생각보다 뭉뚱그려 설명할 수 있는 부분들이 거의 없어서 결국 여러 편으로 나눠서 이야기 해야 할 것 같다.


'나는 그런거 다 필요없고 레벨만 키우면 된다'...이런 분들도 계실거다. 작업자 본인일 수도 있고 클라이언트의 요구일 수도 있겠지만 분명 나쁜 방법이란 건 변함이 없다. 그래도 제대로 된 이해없이 레벨만 뻥튀기 해보겠다 싶은 사람들에게 독이 될 수도 있는 떡밥 또는 요령을 하나 던지는 걸로 1편은 일단 정리해본다.

성격 급한 이들에겐 꾹꾹 눌러 담아주는 컴프레서나 리미터만큼 손이 쉽게 가는 툴도 없을 거다. 그런데...더 꾹꾹 누르고 눌러 최대한 압축시켜 레벨을 뻥튀기 해보려는 마음이지만 생각처럼 레벨을 원하는 곳까지 키우기가 쉽진 않을 것이다. 왜냐하면 어딘가 소리가 찌그러지고 깨지는 부분들이 생기기 마련일테니깐. 이건 기본으로 돌아가 해결을 하는 걸 추천하지만 지금 여기서는 어디까지나 떡밥 차원이니 오로지 이것만 해결하는 방법을 이야기 해 본다.

1.오리지널 트랙 A에 리미터(또는 컴프나 등등 여타 다이나믹 프로세싱 플러그인)를 건다

2.오리지널 트랙 A를 복사해서 B 트랙을 만들고 똑같은 플러그인을 건다.

3.A트랙에 원하는 레벨이 확보될 때까지 트레숄드 또는 메이크업 게인을 통해 레벨을 올린다.

4.A트랙을 눈과 귀를 총동원해서 유심히 살펴 소리가 망가지는 부분들을 찾아낸다.

5.B트랙으로 와서 플러긴으로 레벨을 올리되 A트랙에서 찌그러진 부분들이 찌그러지기 직전 까지의 레벨로 키운다.

6.A와 B트랙을 같이 묶어 A트랙에 망가지던 부분을 DAW의 제로 크로싱(Zero Crossing)을 이용하여 똑같이 자른다.

7.자른 부위의 A트랙은 뮤트하고 B트랙의 자른 부분이 대신 플레이 되도록 한다.

8.앞 뒤 레벨이 이상한 점이 없는지를 확인하고 필요하다면 약간의 레벨을 추가 조정한다.

9.이렇게 만든 트랙을 필요에 따라선 조금 더 키울 수 있도록 이 과정을 재반복할 수도 있다.

이상 다이나믹 프로세서들을 운용하는 방법에 관한 떡밥이었다. 이걸로 만족할 수 있는 사람이라면 그냥 이렇게 써라. 다만 그런 분들은 앞으로 2편,3편으로 이어질 이 긴 글들을 굳이 안읽으셔도 될 것이다. 이 글의 목적은 소리를 키우는 그 자체가 아니라 소리를 키우되 어떻게 하면 좋은 사운드, 좋은 음악이 될 수 있는지에 관해 고민해보려 함이기 때문이다. 또한 기본적으로 나는 라우드니스 워,레벨 뻥튀기 뭐 이런 개념 자체를 싫어하는 사람이기도 하고...어쨌든 이 글은 언제 쓸지 모르는 2편에서 원점으로 돌아가 다시 기초 개념부터 재시작한다는 느낌으로 작성해보려 한다. 언제가 될 진 모르지만 관심있으신 분들은 그 때 다시 읽어보시길 바란다.


WRITTEN BY
캐슬롱
DAW,Guitar,Midi,Mixing,Review 등등

,

믹싱이란걸 진지하게 하다보면 누구나 한번쯤은 막연히 마법같은 플러그인이나 믹싱 스킬에 관한 갈증을 느끼는 시기를 겪게 된다.그 과정중에 많은 종류의 플러그인을 사용해보기도 하고 숙련자의 멀티를 들여다보고 고민도 하며 온갖 자료를 다 찾아보기도 한다.나도 역시 한 때 그런 것들에 깊이 빠져 있던 시기도 있었다.여러 경험 끝에 지금 내가 아는 최고의 노하우는 좋은 모니터링 환경과 곡을 이해하는 능력, 이 두가지가 최고의 무기란 결론을 내린 상태다.하지만 좀 더 디테일하게 스킬적인 부분에서 이야기 해본다면 지금의 내가 느끼는 최고의 스킬을 말해보려고 한다.

그냥 결론부터 말하고 시작한다. 내가 아는 한 가장 강력한 믹싱 스킬은 오토메이션이다. 누구나 믹싱을 처음 시작할 때 배우는 기초적인 요소이지만 아직까지 오토메이션보다 강력한 스킬은 본 적이 없다. 그 어떤 상황에서도 먹히고 그 어떤 문제도 해결 가능한 유일한 마법이 있다면 그건 오토메이션일거라고 확신한다. 단편적인 몇가지 상황들을 상정해서 간단히나마 한번 생각해보도록 하겠다.

레코딩한 공간의 공진 ,즉 룸 레조넌스가 문제가 되는 상황이다. 당연히 이큐를 사용해 그 대역을 적당히 내려 레조넌스를 줄일 것이다. 그걸로 해결될 수 있다면 좋겠지만 대부분 상황에선 계속해서 그 대역을 내려두는 건 소스의 필요한 대역들에도 영향을 끼치니 베스트 초이스는 못된다. 이 경우 멀티밴드 컴프레서를 사용해 그 대역의 에너지가 과하게 올라올 때만 컴프레싱이 되도록 설정해본다. 아까보단 다소 낫겠지만 레조넌스가 아닌 실제 필요한 에너지들을 죽여버리는 상황은 여전히 생길 수 있다. 그렇다면 그 트랙을 복사한 후 필터를 사용해 레조넌스 대역만 극히 좁게 부스팅하고 나머지 대역은 컷을 하여 그 트랙을 키인풋으로 받아 사이드 체인 컴프레싱을 할 수 있을 것이다.한결 나을 수도 있겠지만 여전히 모든 상황에 적합한 방식은 아니다. 그렇다면 어떻게 할 것 인가? 간단하다. 그냥 그 레조넌스가 문제되는 타이밍에만 그 트랙의 레벨을 살짝 내리도록 레벨 오토메이션을 하면 된다. 좀 더 정확히 하고 싶다면 그 타이밍에만 해당 대역의 이큐를 살짝 컷하도록 이큐 오토메이션을 하면 완벽할 것이다. 별 거 아니지만 다른 부분에 피해주지 않고 정확히 그 부분만 수술하는 가장 명확한 해법이다. 물론 손이 많이 가는 단순 무식한 방법일 수도 있다. 그러나 청자는 작업자가 뭘 어떻게 했는지엔 관심이 없고 단지 결과물을 들을 뿐이다. 결과물에 가장 좋은 방법이 있다면 그게 바로 가장 좋은 선택이다.


치찰음을 없애기 위해 습관적으로  디에서부터 걸기 보단 몇군데의 레벨 오토메이션으로 심각한 부분을 해결할 수 있는지 생각해봐야 한다.디에서는 어떤 경우엔 필요한 트랜지언트들을 죽이기 쉽상이다.립노이즈가 심한 보컬 소스에 고민일 경우도 마찬가지다. 손이 많이 가는 만큼 많은 부분들이 해결될 것이다.

두 소스가 부분적으로 부딪히고 있다면 원소스의 느낌이 상하지 않고도 문제를 해결할 수 있도록 습관적인 이큐 스위핑을 하여 최적의 대역을 찾아내려 할 것이다. 하지만 건강한 상태의 다른 부분들에도 영향을 끼치기 마련이고 그걸 피해 보려고 멀티밴드 컴프나 요즘 누구나 자주들 쓰는 다이나믹 이큐들을 사용해볼 수도 있다.하지만 그것들도 완벽한 타게팅을 하기엔 무리가 있다. 하지만 이런 플러그인들을 최적값을 찾기보다 최적 타이밍에만 작동하도록 오토메이션한다면 완벽한 타겟팅이 가능해진다.

들쑥 날쑥한 다이나믹을 가진 소스를 다룰 때면 누구나 컴프레서를 먼저 생각할 것이다. 가장 적합한 컴프를 가지고 최적의 세팅을 하더라도 과연 완벽한 해결이 될까? 만약 그 소스의 문제가 되는 부분들을 필요한 만큼의 레벨 오토메이션을 먼저하고 그 후에 컴프레싱을 한다면 최소한의 컴프레싱으로 최고의 결과를 얻을 수 있을 것이다.여기에다 복사한 트랙과 단순히 섞는 패러랠 컴프레싱이 아니라 다른 소스들과의 조합,곡의 음악적 요소들을 고려해 섞는 비율마저 타이밍에 따라 오토메이션을 한다면 더욱 음악적이면서 동시에 기술적으로도 완벽한 프로세싱이 가능할 것이다.

패닝 역시 마찬가지다. 정위가 부딪히는 소스들 간에도 타이밍을 고려해 약간의 패닝 오토메이션을 함으로 인해서 해결 가능한 요소들은 정말 곳곳에 많이 있다.좌우의 정위뿐만 아니라 상하,앞 뒤의 정위들도 곡의 음악적 상황에 따라 조금씩만 배치를 바꿔도 훨씬 좋은 믹싱이 가능한 부분들을 곳곳에 널려있다.

심지어 그루브에 영향을 미치는 오토메이션도 얼마든지 사용이 가능하다. 대부분 리듬이 강한 트랙들은 어디선가 트랜지언트가 겹치기 마련이고 그게 긍정적 상호작용을 할 때도 있지만 오히려 뭉쳐서 그루브를 해칠 때도 있다. 그럴땐 비교접 서스테인이 긴 소스의 트랜지언트들을 음악적인 필요에 따라 부분적으로 짧은 페이드인을 하도록 오토메이션을 하면 명확한 트랜지언트와 안정적인 서스테인으로 인해 보다 더 적합한 그루브를 만들어 내는 경우도 있다.누구나 오토튠이나 멜로다인 같은 툴들로 피치는 미친듯이 오토메이션을 하지만 리듬적 요소들에 오토메이션에 인색한 경수가 많은데 이런게 오히려 더 음악적으로 이득인 경우가 정말 많다.

편곡적 요소와 곡 전체의 다이나믹을 고려하여 공간계 이펙터들의 뎁스와 세부 파라미터들 그리고 센드 리턴의 양들을 부분적으로 오토메이션 할 경우 그 음악에 필요한 감성을 효과적으로 제어할 수 있는 좋은 장치가 되기도 한다.숏 딜레이 들이 뿌려지는 정위를 오토메이션 할 수도 있고 리버브의 양이나 리버브 테일을 오토메이션하여 음악적 딕션들을 더 효과적으로 표현할 수 있는 부분들은 항상 있기 마련이다.또한 코러스나 페이저,플랜저를 이용해 패러랠 프로세싱으로 소스가 강조될 부분과 뒤로 물러설 부분들을 오토메이션하여 보다 더 효과적이고 깔끔한 믹스를 만들기에도 좋다.

마스터링의 경우도 마찬가지다. 어떤 시그널 체인과 어떤 기술적 방법론으로만 접근하지 말고 음악적인 오토메이션으로 투트랙에 어떤 이득을 줄 수 있는지도 고민해볼 필요가 있다. 가령 A,B,C 파트가 차례로 나오는 전형적인 구성의 곡이 있다고 하자. A파트에서 단순한 트랙들로 구성되어져 있다가 B파트에서 점점 악기가 추가되며 C파트 시작과 함께 여러 편곡적 요소가 터져 나오는 곡에서 C파트의 임팩트를 극대화 하고 싶다면? 이 경우엔 B파트의 시작부분 부터 C파트가 터져 나오기 직전까지 아주 천천히 리스너가 눈치채지 못할 정도의 양으로 완만하게 레벨이 점차 줄어들도록 오토메이션하면 된다.별 거 아니지만 이렇게만 해도 C파트 도입부의 임팩트 차이는 생각보다 많이 극대화된다.동시에 A파트 역시 음악적인 다이나믹을 고려해 공간이 많이 비는 부분들을 잘 활용해 눈 앞에 생생히 들리도록, 즉 인유어페이스 효과를 극대화 해줄 수 있는 부분적 오토메이션의 가능성을 찾아보면 좋을 것이다.

몇가지 상황들에 한정해서 이야기 했지만 오토메이션은 언제 어떤 상황에서도 무궁무진하게 활용이 가능하다.물론 수고스럽고 손이 많이 가는 작업이다.하지만 동시에 가장 효과적이고 강력한 방법이다.나 역시 오토메이션을 더욱 많이 활용하며 더 좋은 믹스를 만드는데 많은 도움이 됐었고 오토메이션을 꽤나 잘 활용한다고 생각한 적도 있었는데 한번은 운좋게 그 유명한 토니 마제라티의 믹스 프로젝트 본을 목격하고 아직 한참 멀었구나하는 생각이 들었었다.조금 과장하자면 정말 무수히 많은  오토메이션들 때문에 프로젝트 화면이 시커멓게 보일 정도였다.지금 내 생각은 머리를 효과적으로 쓰고 거기에 더해 손이 가면 갈 수록 믹스는 나아진다고 생각한다.시간이 많이 걸리고 더 힘들 수 있다.하지만 익숙해질 수록, 숙련이 될 수록 점차 작업속도는 빨라지고 더 쉬워지기 마련이다. 선택의 문제라고 생각한다. 좀 더 쉽게 가고 다소 부족한 결과물을 만들 것인가 아니면 좀 더 고생하더라도 더 나은 믹스를 만들 것인가. 시간이 허락하는 상황이라면 후자를 선택하는게 당연한게 아닐까.



WRITTEN BY
캐슬롱
DAW,Guitar,Midi,Mixing,Review 등등

,

일단 나는 케이크워크부터 사용해 소나를 거쳐 큐베이스에 안착한 케이스이다.중간 중간 사이드로 PC로직을 쓴 적도 있고 리즌도 제법 썼었고 프로툴스는 LE로 한동안 사용했었다.여러 툴들을 사용해봤지만 큐베이스를 메인 DAW로 쓴건 큐베이스SX때 부터니 15년은 넘은 셈이다.초반엔 크랙으로 시작했지만 어느 시점부터 정품을 쓰기 시작해서 매 버전 마다 업그레이드를 빠짐 없이 해왔고 현재는 가장 최근 버전인 큐베이스9을 사용중이다.큐베이스는 구석구석 빠짐없이 100퍼센트 가깝게 사용하는, 나름 파워유저이지만 만약 다음 9.5버전에서 뭔가 새로운 메리트가 생기지 않는다면 다른 툴로 갈아탈 생각을 하고 있다.몇몇 이유들이 있는데 거기에 관해 간단히 이야기 해볼까 한다.

먼저 큐베이스는 업그레이드 초기 안정성이 무척 안좋은 편이다.새 버전이 발매되면 자잘한 초기 버그들이 제대로 수정되는데 짧아도 두달 이상은 걸린다.개인적인 견해지만 아마도 스테인버그의 기본 정책이 새 기능들을 큐베이스에 넣어 구매자들을 베타테스터 처럼 이용한 후 그 기능들이 안정화되면 플래그쉽 제품인 누엔도에 넣는 방법을 쓰고 있는게 아닐까 싶다.항상 새 기능은 큐베이스에 먼저 생기고 버그 픽스가 몇달간 이루어진 후 다음 버전 누엔도에 그 기능들이 적용되는 방식으로 계속 버전업이 반복되고 있다.큐베이스 유저 입장에선 상당히 짜증스러운 방식이 아닐 수 없다.

두번째로 X.5방식의 업그레이드는 지나친 상술이 아닌가 싶다.쩜오 버전업 중에 정말 업글 비용의 가치가 확실한 메이저 업글은 단 한번도 없었다고 생각한다.거의 대부분 있어도 그만 없어도 그만인 기능인데도 불구하고 굳이 업글 버전을 내놓아 판매하는것도 어쩌면 훨씬 고가인 누엔도를 위한 측면이 있는게 아닐까 의심이 들 정도로 부실한 내용으로 업글이 감행되는 느낌이 강하다.꼭 그런 어중간한 기능 추가를 꼭 메인 업데이트의 형태로 해야만 하는건지 의심스럽다

셋째로는 가격 정책이다 기존 풀버전 정식판이 대략 60만원 선인걸로 알고 있고 그걸 구입하면 이전까지의 모든 버전을 무료로 쓸 수 있다.여기까진 좋다.그런데 이전 버전의 풀버전을 구매한 사람은 새로운 버전이 나오면 대략 15만원정도를 내고 새버전을 사야만 쓸 수 있다.가령 지금 최신판인 9버전 구매자는 60만원으로 모든걸 다 쓸 수 있으나 8.5 풀버전 구매자는 60만원+15만원을 내야 9를 쓸 수 있는 셈이다.여기서 좀 더 들어가보면 가령 3.0부터 쓴 사람은 3.0에 60만원을 쓰고 9.0까지 12번 메이저 업데이트라고 단순 계산하면 60만원+(15만X12)=240만원을 내야 9를 쓸 수 있는 셈이 된다. 이렇게 되면 결국 기존 유저가 가장 많은 비용을 들여야 하는거다.이런 방식이라면 계속된 악평을 듣고 있는 프로툴스의 구독방식(Subscription)과 다를 바가 딱히 없는게 아닐까? 반대로 큐베이스의 가장 라이벌이라 할 만한 로직은 단돈 20만원이면 평생 업데이트를 받는 시스템이 거의 확립된 상태고 에이블톤라이브 등의 다른 툴들도 로직과 비슷한 정책을 쓰고 있다.때가 되면 어김없이 중요한 기능 변화없이 꾸준히 돈을 요구하는 스테인버그의 정책과 비교하면 정말 하늘과 땅 차이다.


업그레이드에 관하여 이런 저런 불만을 늘어놓긴 했지만 큐베이스는 여전히 시장에 나와있는 가장 강력한 툴이라는 사실은 여전하다.솔직히 로직이나 에이블톤라이브,스튜디오원 등등 여러 툴들이 나와 있지만 내가 살펴본 바론 큐베이스가 아직은 가장 막강하다는 생각엔 변화가 없다.다만 DAW시장 특성상 좋은 기능들은 어김없이 다른 툴들에도 전파가 되기 마련이고 타 툴들이 계속 수준이 높아지고 있기에 결국 언젠간 상향평준화에 가깝게 될 것이다.지금처럼 큐베이스가 경쟁사들보다 가격정책에서 계속 뒤쳐진다면 유저들도 조금씩 등을 돌리게 되지 않을까 싶다.지금도 많은 유저들이 이탈하고 있는 추세이기도 하니 말이다.



WRITTEN BY
캐슬롱
DAW,Guitar,Midi,Mixing,Review 등등

,

DAW의 사용에 있어서 레이턴시는 항상 화두거리다. 문자 그대로 지연 ,즉 딜레이를 말하는 것이지만 딜레이 컴펜세이션,모니터링 레이턴시,타이밍 딜레이 등등 여러 상황에서 발생하는 다양한 지연 상황들이 있고 그것들을 하나하나 다 이해하는 것들 역시 여러 상황에서 좀 더 나은 작업에 큰 도움이 된다. 여기서는 일반적으로 레이턴시라고 말하면 대부분 사람들이 생각하는 바로 그 DAW 레이턴시에 관하여 알아보려고 한다.

일반적으로 소리가 발생한 시점에서 3~10ms의 딜레이는 대부분 사람은 레이턴시를 느끼지 못한다. 또한 20~30ms를 초과하는 레이턴시는  원소스와 각각 명확히 분리되어 들리기 시작한다. 문제는 12~15ms 전후의 딜레이인데 이 지점이 흔히 레코딩 시의 모니터링 레이턴시라 불리는 요소들이 많이 있는 구간이고 항상 문제거리가 되는 지점이다.

라운드트립(Roundtrip) 레이턴시는 말 그대로 전체를 한바퀴 다 돈 레이턴시를 말하는데, 즉 싱어나 연주자가 소리를 냈을 때 자신의 헤드폰으로 그 소리를 모니터하며 느끼는 전체 경로의 레이턴시를 지칭한다. 이 라운드 트립 레이턴시가 길어지면 레이턴시라기보다 분리된 딜레이 소스로 명확히 들릴거고 이 경우엔 연주자나 싱어의 퍼포먼스에도 영향을 주게되어 좋은 트랙을 녹음 받는게 거의 어렵다고 생각해도 된다. 위 그림처럼 이 라운드트립 레이턴시를 좀 더 세분화해서 보컬이 일반적인  USB 인터페이스로 녹음받을 때로 상정해 위의 그림처럼 단계별로 살펴보면

1.노래가 마이크를 통해 AD컨버팅되는 시간 : 0.5ms

2.일반적 USB 입력 버스 레이턴시 : 6.0ms

3.ASIO 인풋 레이턴시 : 자신의 설정에 따라

4.ASIO 아웃풋 레이턴시 : 자신의 설정에 따라

5.일반적 USB 출력 버스레이턴시 : 6.0ms

6.헤드폰 아웃으로 DA컨버팅 레이턴시 : 0.5ms

이렇게 하여 오디오 인터페이스의 버퍼사이즈를 얼마로 세팅해두든 관계없이 일반적인 DAW 모니터링의 경우 기본적으로 걸리는 레이턴시가 1,2,5,6번 과정에서 총합이 13ms가 된다. 그런데 연주자나 보컬의 퍼포먼스에 미묘하게 영향을 주기 시작하는 레이턴시의 지점은 앞서 말했듯이 12~15가 일반적인데 이미 이 기본 레이턴시 합만으로도 벌써 아슬아슬한 단계에 이르게 된다. 문제는 아직까지 ASIO 인풋,아웃풋 레이턴시는 더하지도 않은 상황이라는 거다. 만약 자신의 DAW에서 어떤 버퍼사이즈를 설정해뒀을 때 인,아웃 레이턴시 합이 10ms 정도라면 이미 총합이 23ms ,즉 개인차는 조금씩 있지만 레이턴시를 구분된 딜레이로 느끼는 영역에 들어서기 시작한 셈이 되는거다. 어떻게든 녹음상황에서 이런 불상사를 막아야 하는건 너무나도 당연한 이야기다.

---2편에서 계속---

DAW 모니터링 레이턴시에 관하여(DAW Latency) - 2편




WRITTEN BY
캐슬롱
DAW,Guitar,Midi,Mixing,Review 등등

,

DAW 모니터링 레이턴시에 관하여(DAW Latency) - 1편

---1편에 이어서 계속---

앞선 포스팅에서 레코딩시의 모니터링에 관련된 최소 기본 레이턴시에 관해 알아봤다면 이번엔 기본 레이턴시가 아닌 유저가 조절이 가능한 레이턴시들 ,즉 DAW 내부 레이턴시에 관해 알아본다.

흔히들 DAW에서의 레이턴시를 조절할 때 버퍼사이즈라는 것을 조절하곤 한다.128sample,256sample 등등 작은 숫자일 수록 레이턴시가 더 짧아지는 것은 다 알고 있겠지만 여기서 말하는 sample의 의미를 모르는 분들이 많아 간단히 설명해본다면 버퍼사이즈시의 세팅의 샘플이란 말 그대로 해당 프로젝트의 샘플레이트를 의미한다.가령 흔히 많이 쓰는 프로젝트 세팅인 24/48의 의미는 24비트뎁스에 48KHz의 샘플레이트를 의미하며 48KHz, 다시말해 48000Hz는 1초를 4만8천개로 분할한 최소 단위로 프로젝트가 만들어져 있음을 의미한다.여기서 가령 버퍼사이즈 512sample로 세팅을 했다면 그 최소단위의 샘플 512개만큼의 레이턴시가 생기도록 기본 틀이 형성 되며 그에 따라 발생한 512sample 길이의 레이턴시만큼 컴퓨터가 여유를 가지고 작업을 할 수 있게 되는 셈이다.그러니 버퍼사이즈의 샘플 수가 늘어날 수록 레이턴시는 늘어나지만 안정성은 올라가게 되는 것이다. 반대로 레이턴시를 줄이면 안정성은 떨어지게 되는 셈.


또한 샘플사이즈외에도 드라이버를 얼마나 안정적으로 구동하는가의 사용인터페이스의 기술력에 따라 레이턴시들은 차이가 나며 그 이상으로 중요한 것은 비슷한 버퍼사이즈,비슷한 레이턴시에서 얼마나 프로젝트를 더 안정적으로 구동할 수 있는 가가 무척 중요한데 일반적으로 PCI계열의 인터페이스가 더 유리한 구조이지만 요즘 들어선 거의 사용하지 않는 인터페이스 부류이고 사실상 USB,1394,썬더볼트 등의 포맷이 일반적인 인터페이스라고 봐도 무방하다.PCI보다 불리한 구조이지만 그럼에도 불구하고 탁월한 안정성,레이턴시 등을 제공하는 업체는 당연히 더 나은 기술력을 확보하고 있는 셈이고 RME같은 회사가 세계적으로 많은 이들에게 최고의 인터페이스 중 하나로 인정받는 이유이기도 하다.

레이턴시를 줄여야 연주자나 싱어나 더 훌륭한 퍼포먼스를 보이게 되는 건 너무도 당연한 일이다.따라서 어떻게든 레이턴시를 최소화 하는 건 레코딩 결과물에 직,간접적으로 큰 영향을 주게 된다.물론 그 외에도 큐 시그널 퀄리티 등등 모니터링에 중요한 여러 요소가 있지만 일단 여기선 레이턴시에 집중해서 이야기 해본다.

앞서 말했듯이 버퍼사이즈는 샘플 단위이다.그 샘플의 갯수만큼 기본 레이턴시를 늘려 안정성을 확보하는 구조인데 여기서 첫번째로 생각할 부분은 샘플레이트 포맷이다. 샘플레이트가 48KHz일때 다른 요소는 그대로 두고 프로젝트 샘플레이트를 96KHz로 올린다면 1초당 들어가는 샘플의 갯수는 정확히 두배로 늘게되니 결국 샘플 하나의 길이는 샘플레이트를 두배로 올일 때 정확히 2분의 1로 줄어들게 된다. 이 때에 같은 버퍼사이즈 ,가령 512 sample이라면 48과 96의 버퍼사이즈는 같지만 샘플당 길이는 96의 경우에 48에 비해 2분의 1이기에 같은 버퍼사이즈라도 레이턴시도 2분의 1로 줄어든다.

이렇게 DAW 내부 레이턴시를 줄일 방법이 있지만 96KHz 샘플레이트를 원하지 않는 경우도 있을 것이다. 프로젝트이 사이즈 자체에 민감한 사람도 간혹 있을 수 있다. 또한 안정적으로 구동할 사이즈의 레이턴시를 설정했다고 하여도 연주자나 싱어가 민감한 편이라면 레이턴시를 이미 느끼고 있을 거고 결과물에 안좋은 영향을 받고 있을 수도 있다. 그러면 DAW내부 레이턴시를 줄여도 해답이 아닌 셈이니 다른 방법을 찾아야 한다.


결국 위 사진과 같이 마이크나 악기등의 인풋 소스를 인터페이스로 AD컨버팅 된 상태에서 DAW를 거치지 않고 DA 컨버팅을 거쳐 헤드폰이나 스피커등으로 바로 모니터링 하는 방법이 있다. 컨버팅 레이턴시는 앞의 글에서 말했듯이 AD,DA 각각 0.5ms 수준이라 둘을 합쳐도 1ms 정도의 아주 짧은 레이턴시이기에 이런 방법으로 모니터링을 하는 것을 니어 제로 레이턴시라고도 부른다. 거의 실시간 모니터링에 가깝다는 의미이다. 그런데 이 경우 인풋소스를 모니터링할 때 레벨이 충분하지 못하거나 너무 드라이하거나 등등 여러가지 이유로 모니터링 품질이 낮아서 레이턴시 문제는 해결이 됐지만 또 다른 퍼포먼스 저하를 일으킬 수 있다. 이런 모니터링 품질 저하를 애초에 막을 수 있는 방법은 역시 가장 흔한게 프로툴스의 HD 시스템인데 DSP를 사용하여 다시 한번 니어제로 레이턴시에 가깝게 다이나믹이나 공간계의 이펙터를 사용할 수 가 있어서 모니터링 품질을 확보할 수 있게 된다. 대체용으로 TC일렉트로닉의 파워코어나 포커스라이트의 리퀴드 시스템 등등이 있었지만 지금은 다 단종이 됐고 UAD정도가 살아남은 상황이다. 하지만 UAD의 상술 역시 만만치 않기에 그냥 프로툴스를 최소사양으로 돌려서 녹음용으로 쓰는 사람도 제법 많고 RME나 Yamaha,프리조너스 등등 몇몇 회사들은 높은 CPU파워는 아니지만 인터페이스 자체적으로 DSP를 사용해 모니터링용 정도 까진 무난하게 쓸 수 있는 자체 이펙터들을 제공하는 경우가 있어서 별 돈 안들이고 유용하게 쓸 수 있는 좋은 대안이 된다. 아마 가장 현실적이고 손쉬운 방법이 아닐까 싶다. RME 상위 모델들은 기본적으로 다이나믹,공간계,이큐까지 다 제공하므로 모니터링용으로야 충분히 쓸만하다 생각한다.

사실 전통적인 트루 제로 레이턴시 모니터링을 제대로 구현하려면 역시 하드웨어를 적재적소에 활용을 하는게 유일한 방법이다. 물론 그 하드웨어적인 리얼 제로 레이턴시를 구사하도록 인터페이스 제조사들이 움직이고 있지만 아직까지 100퍼센터 만족하기는 어렵다. 위 사진처럼 구식의 또는 비싼(?) 방법이지만 아날로그 믹서를 사용한 예전의 레코딩 방식은 트루 제로 레이턴시 모니터링이 실제로 손쉽게 구현이 됐었다. 물론 헤드폰 앰프 품질이나 공간계 이펙터나 등등 여러가지 요소를 고려하면 하드웨어가 계속 추가되거나 또는 제품 선택의 제약이 있거나 등등 많은 변수들이 있을 수 있지만 어쨋든 레이턴시의 축소만 생각하면 가장 확실한 방법이기도 하다. 요즘의 인터페이스들은 입력단에서 AD를 거치지 않고 바로 출력으로 보내주는 기능들이 있는 경우도 있지만 이럴 경우 앞서 말했듯이 품질을 보장받기 힘들기에 AD,DA 컨버팅 레이턴시 와 DSP프로세싱 레이턴시 정도는 감안하고 라도 니어 제로 레이턴시 방식을 쓰는게 더 편리하고 유용한 방법일 수 밖에 없는 시기다. 물론 경제적으로 무척 여유롭거나 반드시 그래야 할 어떤 이유가 있다면 하나하나 기기들을 선정해서  하드웨어 모니터링 ,즉 트루 제로 레이턴시를 구현해낼 수도 있긴 하다. 하지만 대부분의 경우엔 니어 제로 레이턴시 셋업에 자체적인 DSP 품질이 어느 정도만 보장된다면 대부분의 레코딩 상황에선 모니터링 품질을 확보하는데 큰 문제가 없을 것이다.

여기까지 레이턴시에 관해 다양하게 접근 해봤는데 내가 가장 강조해서 말하고 싶은건 모니터링 품질이야 말로 결과물 퀄리티와 직결된 다는 점이다. 많은 A급 세션맨들과 같이 작업을 해봐도 실제 녹음 전에 모니터링 밸런스에 까다롭게 구는 사람일 수록 항상 퀄리티가 더 좋았다는 말을 하고 싶다. 작업자들이 흔히 빠지는 컨버터 품질,스피커 품질 등에 딴지를 걸고 싶은 정도는 아니더라도 그것보다 훨씬 중요한건 연주자,싱어의 모니터 품질이라는 걸 다시 한번 강조하고 글을 마친다.


WRITTEN BY
캐슬롱
DAW,Guitar,Midi,Mixing,Review 등등

,