80년대 CGA 혹은 모노크롬 시절에는 14인치 15인치 정도의 CRT 모니터면 훌륭했었습니다. 그러다가 이제는 개인용 데스크탑에서도 30인치 이상의 모니터들을 쓰고 있죠. 4K니 5K니 하면서 해상도도 더 높아진 것들을 쓰고 있습니다. 인간의 눈이 광학적인 부분 뿐만아니라 감성적 분해능까지 가지고 있어서 실제로는 300dpi 이상까지도 구분할 수 있다고 하는데(실제로 1000dpi로 인쇄된 활자와 2000dpi로 인쇄된 활자의 차이를 육안으로도 느낄 수 있지요) 애플이 '레티나'라는 이름까지 붙여가면서 '이 정도면 충분함'이라고 선언한 해상도 혹은 그보다 조금 더 세밀한 집적도를 가진 모니터들이 나오면 그 이후에는 뭔가 다른 걸로 더 승부를 보려고 하겠죠.

40인치, 400dpi 정도면 대략 16,000 픽셀 정도의 모니터가 나와야 합니다. 세로로는 25인치쯤 될 테니까 9천에서 1만픽셀 정도 되겠네요. 그러면 가로세로 곱해서 대략 1억6천만화소 정도가 됩니다.

이 얘기를 왜 하느냐면, 디지털카메라의 화소경쟁이 어디까지 갈 것인가를 예측해보려구요.

하이엔드 사용자들이 일반적으로 접근할 수 있는 렌즈교환식 SLR 혹은 미러리스(중형포맷 포함)의 최대 유효화소 기종들이 5천만화소쯤까지 왔더군요. 이 정도만 해도 대단하기는 한데, 1만6천x1만 픽셀의 모니터에서는 100%로 표시해도 화면의 1/3 정도도 못 채웁니다. 실제로는 크롭할 수 있는 가능성까지 고려해야 하니까, 촬영해서 만들어낼 수 있는 이미지의 최대 사이즈는 모니터의 유효 픽셀 수보다 더 커야겠죠.

모니터가 1억6천만화소라면 이미지는 2억화소 정도는 필요할 겁니다. 이쯤이면, 40x60인치의 프린트를 실제 300dpi로 뽑는 데 필요한 12,000x18,000 픽셀의 이미지가 실제 물리적으로 뻥튀기를 거치지 않고도 1:1로 존재하게 되는 셈이죠.

이런 이미지의 비트맵 사이즈는 12,000x18,000x48비트 = 12억9천6백만 바이트, 한 컷당 1.2GB가 넘는군요. 물론 효율적으로 압축하고 풀어내는 기술이 등장하고 있지만 그러려면 또 전송속도, 저장공간과 어마어마한 컴퓨팅 파워가 필요할 겁니다.

아직도 한참 더 발전해야 한다는 얘기가 되네요. 그런데 언젠가 드디어 일단 저만큼 다 발전하고 나면..

그 뒤에는 뭐가 있을까요. 그건 조금 궁금하기는 합니다.

그 때까지 살 수는 있을까 모르겠네요.


Posted by 이루"