Dehazing
헤이즈 (hazy)라 불리는 흐릿함, 연기, 안개 등을 제거하는 방법
Projects
- TransWeather - Transformer-based Restoration of Images Degraded by Adverse Weather Conditions
- Single-Image-Dehazing-Python - python implementation of the paper: “Efficient Image Dehazing with Boundary Constraint and Contextual Regularization”
Datasets
- SOTS Indoor
- SOTS Outdoor
- Haze4k
- O-Haze
- RS-Haze
- RESIDE-6K
- Dense-Haze
- I-Haze
- KITTI
- NH-HAZE
Models
- CasDyF-Net
- ChaIR
- CasDyF-Net
- DehazeFormer-B
- CasDyF-Net
- EDN-GTM
- FFA-Net
- CFEN
실시간 수증기 제거를 위한 딥러닝 접근법
WARNING |
Deep research 답변 결과임. |
수증기 제거는 전통적으로 안개(haze)나 연기(smoke) 제거 문제와 유사하게 다루어집니다. 최근 딥러닝의 발전으로, 단일 프레임 또는 연속 영상에서 수증기를 제거하는 다양한 접근법들이 등장했습니다. 본 절에서는 U-Net 기반 분할, GAN 기반 영상 복원, Diffusion(확산) 모델, 트랜스포머 기반 모델 등 주요 범주로 나누어 실시간 수증기 제거 기법을 살펴봅니다. 또한 필요에 따라 이러한 모델과 후처리 기법의 조합을 통해 성능을 향상시키는 방안도 함께 고려합니다.
U-Net 기반 분할 및 복원 모델
U-Net과 같은 인코더-디코더 구조의 분할(segmentation) 네트워크는 수증기 영역을 픽셀 단위로 분리하거나, 직접 깨끗한 영상을 복원하는 데 활용될 수 있습니다. 예를 들어 개선된 U-Net 기반 모델을 통해 내시경 수술 영상의 연기를 제거한 연구에서는, U-Net 구조에 라플라스 피라미드 등 개선을 도입하여 연기 제거 성능을 높였습니다 [^0]. 이처럼 U-Net은 수증기 분할 마스크를 출력하거나 맑은 영상을 재구성하도록 학습시킬 수 있습니다. 분할 마스크를 얻으면 후처리로 해당 영역을 블렌딩하거나 인페인팅해 제거할 수 있고, 혹은 U-Net 출력 자체를 깨끗한 영상으로 만들어 후속 객체검출에 투입할 수도 있습니다. U-Net 계열의 장점은 구조가 비교적 단순해 학습과 추론 속도가 빠르고(RTX 4090에서 실시간 처리 용이) 임베디드 구현도 가능하다는 점입니다. 다만, 복원된 영상의 세부 디테일이나 색감이 GAN 같은 생성 모델에 비해 부족할 수 있고, 두꺼운 수증기로 완전히 가려진 영역의 정보 복원에는 한계가 있습니다.
GAN 기반 수증기 제거 (영상 복원)
생성적 적대 신경망(GAN)을 활용한 영상-대-영상 변환 기법은 수증기 제거 문제에 매우 효과적으로 사용되고 있습니다. 이러한 접근에서는 수증기 낀 영상을 입력하면, 대응되는 깨끗한 영상을 생성하도록 네트워크(Generator)를 학습시킵니다. 예를 들어, Bolkar (2018)등은 합성한 안개 이미지를 이용해 AOD-Net을 미세조정하여 초기 딥러닝 기반 수증기 제거를 시도했고, Chen (2018)등은 Blender로 생성한 데이터를 활용해 조건부 GAN을 훈련한 바 있습니다. 이후 연구들은 GAN 기반 기법의 성능을 크게 발전시켰는데, Salazar-Colores (2020)등은 다크 채널(prior) 정보를 입력에 포함시키는 개선된 Pix2Pix 계열 GAN을 적용하여 내시경 연기 제거 품질을 향상시켰습니다[^1]. 해당 방법은 PSNR/SSIM 지표에서 기존 대비 향상된 결과를 보였으며, 92 FPS의 실시간 처리 속도를 달성하여 임베디드 시스템에도 적용 가능함을 보였습니다. 이는 Generator가 U-Net 유사 구조로 구성되어 최적화되었기 때문으로, RTX 4090 같은 고성능 GPU에서는 고해상도 영상도 충분히 실시간 처리할 수 있을 것으로 기대됩니다. GAN 기반 방법의 장점은 가려진 영역의 세부묘사 복원에 탁월하여, 수증기로 인해 보이지 않던 플레이트의 문자나 경계도 생성적 추론으로 어느 정도 재구성해낼 수 있다는 점입니다. 다만, GAN 훈련에는 깨끗한 정답 영상이 필요한데, 실제 공정 데이터에서는 동일 장면의 수증기 없는 영상 확보가 어려워 합성 데이터로 훈련하거나 CycleGAN 같은 비지도 기법을 활용해야 합니다. 또한 생성 모델 특성상 때때로 원본과 다른 아티팩트나 왜곡이 생길 위험이 있어, 결과를 신뢰해야 하는 산업 응용에서는 주의가 필요합니다.
확산 모델 기반 접근법
Diffusion(확산) 모델은 최근 이미지 생성과 복원 분야에서 각광받는 기법으로, 여러 단계의 노이즈 제거 과정을 통해 이미지를 점진적으로 복원합니다. 확산 모델은 이론적으로 매우 높은 품질의 복원이 가능하며, 복잡한 수증기/안개 분포도 잘 모델링할 수 있다는 장점이 있습니다. 예를 들어 2023년 제안된 DehazeDDPM은 물리 기반 안개 모델을 확산 모델과 결합하여 정보손실이 큰 짙은 안개 환경에서 최신 성능(SOTA)의 복원 품질을 달성했습니다[^2]. 이 접근법은 안개가 낀 영상을 물리식으로 1차 보정한 후 DDPM으로 세부 정보를 보완하는 2단계 복원을 수행하여, 기존 방법들이 놓치는 내용과 색상을 효과적으로 재현해냅니다[^3]. 그러나 확산 모델은 기본적으로 수십~수백 단계의 연산을 거쳐야 하기 때문에 실시간 처리에 큰 제약이 있습니다. 하나의 프레임을 복원하는 데 수백 밀리초 이상 걸릴 수 있어, 특별한 경량화나 가속 기법 없이는 30 FPS에 이르는 실시간 성능을 얻기 어렵습니다. 연구자들이 모델 경량화나 단계 축소, 지능형 샘플링 등으로 속도를 높이려는 시도가 있지만 아직 GAN이나 U-Net만큼 단일 단계 실시간 성능을 내기는 어려운 상황입니다[^4]. 따라서 현 시점에서 확산 모델은 “최고의 복원 품질이 필요하고 약간의 지연이 허용되는” 경우에 고려할 수 있으며, 실시간성이 최우선인 본 과제에는 부가적 보조로서 제한적으로 활용하거나 향후 기술 발전을 지켜볼 대상입니다.
트랜스포머 기반 영상 복원 모델
최근에는 비전 트랜스포머(ViT) 기술을 응용하여 수증기/안개 제거 성능을 극대화하려는 시도가 이루어지고 있습니다. 트랜스포머는 전역적인 문맥 정보를 잘 포착하기 때문에, 넓은 영역에 걸쳐 희미하게 퍼진 수증기의 영향도 효과적으로 모델링할 수 있습니다. TransWeather라는 모델은 하나의 트랜스포머 인코더-디코더 구조 안에 여러 기상 현상(비, 안개, 눈 등) 제거 기능을 통합하여 제안되었는데, 날씨 유형에 따른 쿼리(query)만 다르게 입력받아 단일 모델로 다양한 환경을 처리합니다[^5]. 이 모델은 별도 조건별 분기 없이도 안개 제거를 포함한 복원 성능에서 개별 특화 모델에 필적하거나 뛰어넘는 성과를 보였으며, 추론 시에도 하나의 네트워크만 거치므로 효율적이라고 보고되었습니다 (멀티-인코더 방식 대비 경량). 또한 다른 연구에서는 CNN+ViT 혼합 구조를 사용하여 지역 세부 특징(U-Net식 CNN 분기)과 전역 문맥(ViT 분기)을 동시에 활용하는 안개 제거 네트워크를 제안하기도 했습니다.[^6]. 트랜스포머 기반 접근은 일반적으로 높은 정확도와 뛰어난 비주얼 품질을 달성하지만, 모델 파라미터 수와 연산량이 많아 GPU 메모리 및 연산 부하가 큰 편입니다. 다행히 RTX 4090 급의 GPU라면 최신 트랜스포머 모델도 실시간 처리가 가능할 수 있는데, 예를 들어 TransWeather 논문에서는 자사 모델이 기존 다중모델 대비 추론 속도가 빠르다고 언급하고 있습니다. 실제 FPS 수치는 구현 해상도와 최적화 여부에 따라 다르겠지만, 트랜스포머 기반 모델도 네트워크 경량화(예: Swin Transformer나 MobileViT 등 사용)와 TensorRT 최적화 등을 통해 실시간 대응이 충분히 가능할 것으로 예상됩니다. 따라서 수증기 제거에 있어 트랜스포머는 최신의 고성능 해법으로서 고려할 가치가 있으며, 특히 정확도를 최우선으로 할 경우 후보군이 됩니다.
기존 연구 사례 분석
수증기 또는 안개 제거와 연관된 기존 연구들을 살펴보면, 의료 영상부터 자동차 자율주행, 실외 감시 등 다양한 도메인에서 관련 문제가 다루어져 왔습니다. 대표적으로 내시경 수술 영상에서 연기(Smoke)를 제거하는 연구들은 본 과제와 매우 유사한 문제 설정을 가지고 있어 참고할 만합니다. Bolkar (2018) 등은 합성 연기 데이터를 활용해 기존 AOD-Net(경량 안개제거 CNN)을 미세 조정함으로써 최초로 딥러닝 기반 연기 제거를 시도하였고, 이어 Chen 등(2018)은 Blender로 생성한 가상 연기 이미지를 가지고 조건부 GAN을 훈련하여 연기 제거를 구현했습니다. 이러한 초기 시도들은 실시간 연기 제거 가능성을 보여주었지만, 실제 복원 품질은 제한적이었습니다.
이후 Salazar-Colores (2020) 등은 이미지-대-이미지 번역 방식의 cGAN에 Dark Channel Prior를 결합한 네트워크를 개발하여 연기로 인한 대비 저하를 효과적으로 개선하였고, PSNR 및 SSIM 지표에서 기존 기법들보다 향상된 결과를 얻었습니다. 특히 해당 기법은 약 92FPS의 매우 빠른 성능을 보였는데, 이는 연기 제거와 같은 복원 작업이 고도화되면서도 실시간으로 충분히 구현 가능함을 입증하는 결과입니다.
한편 Lin (2021) 등은 개선된 U-Net 기반의 분할+복원 알고리즘을 통해 연기가 낀 내시경 영상을 정화하였으며, Laplacian pyramid 등을 활용해 경계 강조 및 다중 해상도 특징 결합으로 성능을 높였습니다 (Concurrency and Computation: Practice and Experience, 2021). 또한 Wang (2019) 등은 다중 스케일 특징을 사용하는 Multiscale Deep Desmoking 기법을 SPIE 의료영상학회에서 발표하여, 얇은 연기부터 짙은 연기까지 다양한 농도를 효과적으로 제거하였습니다. 비지도 학습으로는 Vishal (2019) 등이 제안한 Cycle-Desmoke가 대표적으로, 연기 낀/없는 이미지 간 사이클 변환을 통해 실제 데이터로도 학습이 가능함을 보였습니다. 자율주행 분야에서도 안개 낀 도로 환경에서 객체 탐지 성능 향상을 위한 전처리로 안개 제거가 연구되었는데, 전통적 안개 제거 기법인 Dark Channel Prior (DCP)를 딥러닝과 결합하거나, 안개 농도를 추정하여 처리 강도를 조절하는 기법들이 시도되었습니다. 다만 전통 기법들은 짙고 불균일한 수증기에는 성능이 떨어지고 가정이 어긋나면 오히려 화질을 악화시키는 한계를 보여, 최근에는 딥러닝 기반 방법으로 무게중심이 완전히 이동한 상태입니다.
특히 Detection (객체 탐지)와 연계한 연구도 주목할 만합니다. 안개 제거 후 객체 인식을 하는 2단계 파이프라인 vs. 안개 제거와 탐지를 엔드투엔드로 공동 학습하는 방식을 비교한 연구들이 존재합니다. 예를 들어, AAAI 2018에 발표된 EVDD-Net은 영상 안개 제거 네트워크(EVD-Net)와 Faster R-CNN 탐지기를 결합하여 통합 학습한 모델로, 안개 상황에서 탐지 성능의 큰 향상을 보고했습니다.[^7] 이러한 결과는 전처리+후속탐지를 개별로 최적화하는 것도 좋지만, 가능하다면 하나의 모델 내에서 공동 최적화할 때 최상의 성능을 얻을 수 있다는 점을 시사합니다. 다만 엔드투엔드 접근은 구현과 학습이 복잡하고 많은 데이터가 필요하며, 전처리 모듈의 유연성을 잃을 수 있어 실용화 관점에서는 2단계 방식이 선호되기도 합니다.
요약하면, 기존 연구 사례들은 수증기(연기/안개) 제거를 위해 다양한 기법을 제안해왔으며, U-Net 기반의 빠른 분할부터 GAN/트랜스포머 기반의 고성능 복원, 그리고 탐지 통합에 이르는 폭넓은 스펙트럼이 존재합니다. 이러한 배경 지식을 토대로 다음 절에서 정확도와 속도 측면에서 각 접근법을 비교합니다.
모델별 성능 비교 (정확도 및 속도)
여러 접근 방법들의 장단점을 정확도(화질/복원 정도)와 속도(실시간 처리 가능 여부) 관점에서 비교하면 다음과 같습니다:
- U-Net 기반 분할/복원: 비교적 가벼운 모델로, RTX 4090에서 수십 FPS 이상의 추론 속도를 쉽게 달성할 수 있습니다. 수증기 영역을 분할하는 정확도는 학습 데이터에 좌우되나, 뚜렷한 연기 경계나 분포는 잘 잡아낼 수 있습니다. 다만 분할 후 후처리로 실제 영상을 복구해야 하므로 완전한 디테일 복원 능력은 제한적입니다. U-Net을 직접 영상 복원용 AutoEncoder로 쓸 경우 어느 정도 원본 재현이 가능하지만, 두꺼운 수증기로 인한 정보 손실 복구는 어려워 최고 화질 면에서는 열위입니다.
- GAN 기반 복원: 뛰어난 세부묘사 재생 능력으로, 수증기로 가려진 플레이트의 문자나 무늬까지 예측 복원할 잠재력이 있습니다. 적절히 학습되면 원본에 가까운 선명도를 회복하여 객체 탐지 성능을 크게 끌어올릴 수 있습니다. 또한 최신 연구에서 증명되었듯이 최적화된 GAN(generator) 모델은 실시간 처리도 충분히 가능합니다(수십 FPS 이상). 그러나 학습 데이터 준비가 어려운 점과, 생성 모델 특유의 불안정성(간혹 원치 않는 왜곡 생성)을 고려해야 합니다. 정확도 면에서는 데이터셋에 따라 편차가 있지만, PSNR/SSIM 등의 지표에서 기존 CNN기반 기법보다 높은 성능을 보이는 사례가 많습니다.
- Diffusion 모델: 현재까지 보고된 결과로는 가장 높은 복원 품질을 달성하지만, 속도 측면의 단점이 큽니다. 복잡한 수증기 환경에서도 상세한 색상과 물체 경계를 복구해내는 등 정확도에서는 우수하나, 한 프레임당 수십 번 이상의 네트워크 추론을 필요로 하므로 실시간성을 확보하기 어렵습니다. 예를 들어 diffusion 기반 DehazeDDPM은 혁신적인 물리결합으로 품질은 뛰어나지만 2단계에 걸친 연산으로 실시간 적용에는 도전이 따른다고 추정됩니다. 속도를 극적으로 높이기 전까지는 산업 실시간 시스템보다는 비실시간 후처리나 오프라인 분석용으로 적합합니다.
- 트랜스포머 기반: CNN 대비 전역 문맥 이해를 통해 매우 깨끗하고 자연스러운 복원이 가능합니다. 여러 악조건 환경에 대한 범용성도 높아 하나의 모델로 다양한 연무 제거에 적용할 수 있습니다. 최신 모델인 TransWeather의 경우 전통적 개별 모델보다 PSNR 약 1~3dB 개선된 성능을 보였으며, 시각적으로도 디테일 손실이 적은 결과를 제공합니다. 추론 속도는 모델 크기에 영향을 받지만, 보고서에 따르면 멀티분기 구조보다 효율적이라 실시간 구현이 가능한 수준으로 알려져 있습니다. 다만 메모리 점유와 구현 복잡도는 고려해야 하며, 최적의 성능을 내려면 사전 학습된 거대 모델을 fine-tuning해야 하는 등 개발 난이도가 있을 수 있습니다.
요약하면, 정확도 우선 순위로 보면 Diffusion ≈ Transformer >= GAN > U-Net 순으로 예상할 수 있고, 속도 우선 순위로 보면 U-Net >= GAN > Transformer >> Diffusion 순입니다 (구체적인 수치는 모델 최적화 상태에 따라 달라집니다). RTX 4090이라는 강력한 연산 자원이 있으므로, 어느 정도 복잡한 모델도 실시간에 도전해볼 수 있지만, 가장 무거운 Diffusion은 현실적으로 어려워 보입니다. 대신 GAN이나 트랜스포머 기반 방법은 적절한 최적화 시 충분히 목표 FPS(예: 30fps 이상)를 달성할 것으로 판단됩니다.
실시간 적용을 위한 최적 파이프라인 제안
위 분석을 바탕으로, 높은 정확도와 실시간 속도를 모두 만족하기 위한 최적의 파이프라인을 다음과 같이 제안합니다:
- 수증기 제거 전처리 모듈: 영상 스트림 입력을 받아 수증기를 제거하거나 감소시키는 딥러닝 모듈을 첫 단계로 배치합니다. 이 모듈로는 정확도를 최우선 고려하여 GAN 기반의 영상 복원 모델이나 트랜스포머 기반 복원 모델을 채택하는 것이 바람직합니다. 예를 들어, Pix2Pix 계열로 커스텀 학습된 수증기 제거 GAN이나, 사전학습 TransWeather를 플레이트 데이터셋에 미세조정한 Transformer 모델을 사용할 수 있습니다. 이때 입력 영상과 (가능하다면) 수증기 없는 레퍼런스 영상을 이용해 모델을 감독 학습하며, 레퍼런스 데이터가 부족하면 합성 데이터를 생성하여 보충합니다. 출력으로는 수증기가 걷힌 맑은 영상을 얻으며, 가능하면 원본과 동 해상도로 복원합니다.
- 객체 검출 모듈: 수증기가 제거된 영상을 바로 이어서 플레이트 검출 모델에 입력합니다. 여기서는 MMDetection 등에서 제공하는 검증된 실시간 객체 탐지기(예: YOLO 계열, RetinaNet, 또는 커스텀 CNN Detector)를 사용합니다. 수증기 제거로 이미지 대비와 객체 경계가 뚜렷해진 만큼, 복잡한 모델이 아니라도 검출 정확도가 크게 향상될 것입니다. 만약 수증기 제거 모듈이 완벽하지 않아 일부 연무가 남더라도, detector를 수증기 환경에서도 강인하도록 데이터 증강(안개 효과 합성 등)으로 훈련하거나, 탐지기 내부에 attention 메커니즘을 둬 연무 영향을 감소시키는 개선을 추가할 수 있습니다.
- 후처리 및 모델 결합: 최종 검출된 플레이트 위치에 대해 후처리를 적용하여 정확도를 높입니다. 예를 들어, 연속 프레임에서의 검출 결과를 트래킹하여 일시적 오검출을 걸러내거나 보정할 수 있습니다. 또한 필요 시 수증기 분할 모델을 보조적으로 사용하여, 수증기 영역을 별도로 마스크링하고 이를 참고해 검출 신뢰도를 조정하는 방법도 고려할 수 있습니다. 예를 들어 검출 결과가 수증기 잔류 부위에 겹쳐 있으면 신뢰도를 낮추고, 여러 프레임에 걸쳐 sporadic하게 나타나는 검출은 무시하는 등의 규칙을 설계할 수 있습니다. 더 나아가, 연구 단계에서는 엔드투엔드 결합도 실험해볼 수 있습니다. 수증기 제거 모듈과 검출 모듈을 연결하여 하나의 모델로 공동 학습하면 탐지 정확도가 극대화될 수 있는데, 이는 충분한 데이터와 튜닝 여력이 있을 경우에 적용을 검토합니다.
- 성능 최적화: 전체 파이프라인이 실시간 동작하도록 각 부분을 최적화합니다. 1단계 복원 모듈의 경우 TensorRT 등의 기술로 추론을 가속하고, 2단계 탐지 모듈도 경량화된 backbone을 선택하거나 FP16 연산 활용 등으로 딜레이를 최소화합니다. 두 모듈을 직렬 연결해도 RTX 4090 수준이면 30 FPS 이상을 기대할 수 있지만, 만약 병목이 발생하면 입력 해상도를 약간 줄이거나, 복원 모듈 출력을 ROI로 제한하여 탐지에만 필요한 부분만 고해상도로 처리하는 등 스마트한 최적화를 고려합니다. 또한 멀티스레딩을 활용해 한 프레임 복원 중에 이전 프레임 검출을 병렬화하는 식으로 파이프라인 단계의 파이프라이닝을 구현하면 지연을 줄일 수 있습니다.
상기 절차에 따라 구축된 2단계 파이프라인은 모듈별 이점을 살려 수증기 제거 정확도와 실시간성을 모두 확보할 수 있을 것으로 예상됩니다. 특히, 수증기 제거에 특화된 딥러닝 전처리를 통해 난이도 높은 환경에서도 플레이트 특징을 되살리고, 검증된 실시간 탐지기로 안정적 검출을 수행함으로써 전체 시스템의 신뢰도를 높일 수 있습니다.
결론 및 추천 방안
실제 공정 데이터의 수증기 환경에서 플레이트를 효과적으로 감지하기 위해서는 영상 향상(front-end)과 객체 인지(back-end)를 결합한 종합적인 접근이 필요합니다. 문헌 조사 결과, GAN 기반의 영상-대-영상 복원과 Transformer 기반 복원이 수증기 제거에 있어 높은 정확도를 달성하며, 적절한 최적화를 통해 실시간 구현도 가능함을 확인했습니다. U-Net 분할은 경량으로 실시간 처리에 유리하지만 복원된 세부정보 면에서 한계가 있고, Diffusion 모델은 뛰어난 품질에도 불구하고 현재 실시간 응용에는 부적합합니다. 따라서 조건부 GAN 또는 TransWeather 계열 모델을 이용한 선행 수증기 제거를 권장하며, 이후 경량 탐지기와 후처리를 연계하는 파이프라인이 최적입니다. 이러한 조합은 모듈별 장점을 활용하면서도 구현 난이도를 관리 가능한 수준으로 유지해 줍니다.
마지막으로, 제안된 솔루션을 실제 적용할 때는 학습 데이터 세트가 성공의 열쇠임을 강조합니다. 수증기 제거 모듈의 성능을 높이려면 가능한 한 다양한 수증기 패턴과 플레이트 모습을 포함한 데이터로 학습시켜야 합니다. 현실적으로 수증기 없는 깨끗한 영상의 확보가 어렵다면, 합성 데이터를 만들어 감독 학습을 하거나, CycleGAN처럼 짝 없는 학습 기법을 활용해 볼 수 있습니다. 또한 모델 추론 결과를 현장에 투입하여 성능을 모니터링하고, 필요한 경우 미세 조정하는 피드백 루프를 구축하면 지속적으로 성능을 개선할 수 있습니다.
요약하면, “수증기 제거 전처리 딥러닝 + 실시간 객체 검출”의 2단계 프레임워크가 현 시점에서 최적의 선택으로 판단되며, 구체적으로는 Dark Channel 보정이 가미된 GAN 또는 TransWeather 기반 모델을 추천합니다. 이들을 OpenMMLab 같은 프레임워크 바깥에서 별도 구현하거나, 전처리 결과를 MMSegmentation으로 활용한 후 MMDetection으로 연계하는 형태도 고려할 수 있습니다. 제안된 방식은 높은 정확도의 수증기 필터링을 달성함과 동시에 RTX 4090의 성능을 활용하여 실시간성도 확보할 수 있는 균형 잡힌 접근법입니다. 이를 통해 수증기로 가려진 플레이트를 신뢰성 있게 검출하여 공정 모니터링 및 제어의 정확도를 향상시킬 수 있을 것으로 기대됩니다.
Documentations
- Domain Adaptation for Image Dehazing
- https://openaccess.thecvf.com/content_CVPR_2020/papers/Shao_Domain_Adaptation_for_Image_Dehazing_CVPR_2020_paper.pdf
-
Shao_Domain_Adaptation_for_Image_Dehazing_CVPR_2020_paper.pdf
- Single Image Haze Removal Using Dark Channel Prior
- http://mmlab.ie.cuhk.edu.hk/archive/2009/dehaze_cvpr2009.pdf
-
Dehaze_cvpr2009.pdf - [추천] (논문 리뷰)Single Image Haze Removal Using Dark Channel Prior | Hyeongmin Lee's Website
-
Single_Image_Haze_Removal_Using_Dark_Channel_Prior_Hyeongmin_Lee's_Website.pdf
-
- Github - He-Zhang/image_dehaze: Single Image Haze Removal Using Dark Channel Prior
- [추천] (논문 리뷰)Single Image Haze Removal Using Dark Channel Prior | Hyeongmin Lee's Website
- See also: Guided filter
- 용어들: amtlight = Atmospheric Light
- Rethinking Performance Gains in Image Dehazing Networks (gUNet)
- https://paperswithcode.com/paper/rethinking-performance-gains-in-image
- https://github.com/idkiro/gunet
- On the Susceptibility of Deep Neural Networks to Natural Perturbations
- https://ceur-ws.org/Vol-2419/paper_25.pdf
See also
- 헤이즈 (hazy)
- Noise reduction (노이즈 감쇄; Denoising)
- OpenCV
- Image Processing
- Light
- Specular reflection (정반사) - 거울처럼 매끈한 면을 경계로 일어나는 반사.
- Diffuse reflection (난반사) - 표면으로 들어온 빛이 반사 될 때, 다수의 방향들로 반사.
- Segmentation Artifacts - 세그멘테이션 과정에서 발생하는 모든 시각적 왜곡 문제를 포괄하는 용어.