Index


Figures


Tables

Cho , Kwon , Kim , and Song: Autoencoder-Based Channel Denoiser for Block Codes

Yeji Cho♦ , Nahyeon Kwon* , Junghyun Kim° and Hong-Yeop Song**

Autoencoder-Based Channel Denoiser for Block Codes

Abstract: This paper proposes a new neural network-based channel denoiser designed to remove wireless channel noise before data decoding, thereby improving block code decoding performance. The proposed channel denoiser utilizes an autoencoder structure known to be effective in noise removal within image data. For performance comparison with the existing multi-layer perceptron-based model, the same neural network decoder was applied to Polar codes, LDPC codes, and BCH codes, and the denoiser effect was tested in AWGN and Rayleigh fading channels. Experiments confirmed that the proposed model utilizing an autoencoder-based denoiser significantly outperforms the traditional model using a multi-layer perceptron-based denoiser regarding block error rate across all assumed channel environments and channel codes.

Keywords: Channel noise , Denoiser , Autoencoder , Block codes , Deep learning

조예지♦, 권나현*, 김정현°, 송홍엽**

블록 코드를 위한 오토인코더 기반 채널 디노이저

요 약: 본 논문은 데이터 송수신 과정에서 발생하는 무선 채널 잡음을 데이터 복호 전에 미리 제거하여, 블록코드의 복호 성능을 개선하기 위한 새로운 신경망 기반 채널 디노이저를 제안한다. 제안하는 채널 디노이저는 이미지 데 이터 내 잡음 제거에 효과적이라 알려진 오토인코더 구조를 활용하여 무선 채널 잡음을 제거하도록 설계하였다. 기존의 다층 퍼셉트론 기반 모델과 성능 비교를 위하여 Polar 코드, LDPC 코드, BCH 코드에 대해 동일한 신경 망 복호기를 적용하고 AWGN 채널, Rayleigh fading 채널에서 디노이저 효과를 실험하였다. 실험을 통해 오토인 코더 기반 디노이저를 활용한 제안 모델은 가정한 모든 채널 환경과 채널 코드에 대해 다층 퍼셉트론 기반 디노 이저를 활용한 기존 모델보다 현저히 낮은 블록 오류율을 보임을 확인하였다.

키워드: 채널 잡음, 잡음 제거기, 오토인코더, 블록 코드, 딥러닝

Ⅰ. 서 론

무선 통신 시스템에서 데이터를 송수신할 때, 전송되는 데이터에는 무선 채널의 잡음이 추가된다. 이 잡음은 정보의 정확한 전달을 방해하는 요소로 작용한다. 그러므로 무선 통신에서는 송수신 과정에서 발생하는 잡음으로 인한 오류를 정정하는 것이 매우 중요하다[1]. 1948년 Shannon이 정보 이론을 제안한 이후, 채널 코드는 지난 수십 년 동안 다양한 통신 시스템에서 필수적인 오류 정정기술로 활용됐다. 채널 코드는 적절한 부호화 알고리즘을 통해 정보 비트에 적절한 패리티를 추가하여 전송하고 복호기를 통해 채널 잡음에 의해 발생하는 무작위 오류를 효과적으로 제거할 수 있다. 현재까지 Bose-Chaudhuri-Hocquenghem(BCH) 코드[2], Turbo 코드[3], Low-Density Parity-Check(LDPC) 코드[4], Polar 코드[5] 등 다양한 유형의 채널 코드가 제안되었다.

딥러닝의 급속한 발전으로 채널 코드의 복호기를 인공 신경망으로 설계하려는 다양한 시도가 이루어져 왔다[6-13]. 신경망 기반 복호기는 일반적으로 기존 복호기 대비 낮은 복잡도를 보이며, 일부 채널 코드에 대해서는 기존 복호기보다 더 우수한 성능을 보여준다. 최근에는 신경망 복호기 앞쪽에 채널 디노이저를 추가하여 무선 채널의 잡음을 우선 제거한 뒤 복호를 수행하는 수신 기법이 제안되었다[14,15]. 이러한 방법은 기존 수신기의 복호기 이전 복조기에서 변조 심볼 단위로 잡음 제거가 수행되던 것을 부호어 단위로 잡음을 제거하고 복호기와 연동하여 잡음 및 오류를 제거하게 함으로써 수신 성능을 더욱 개선시킨다.

오토인코더(Auto-Encoder, AE)는 이미지나 텍스트 등 많은 연구 분야에서 잡음을 제거하는 디노이저로서 사용된다[16,17]. 본 논문에서는 이러한 오토인코더 구조를 활용하여 무선 통신 시스템에서 채널 잡음을 제거하기 위한 오토인코더 기반 채널 디노이저를 제안한다. 전체 수신기는 신경망 구조의 디노이저와 복호기로 구성되며, 멀티 태스크 러닝(Multi-task learning)[18]을 통해 학습된다.

학습된 디노이저는 입력된 신호에 랜덤하게 추가된 잡음을 효과적으로 제거하고, 이를 복호기에 전달하여 원래의 메시지 비트가 성공적으로 복구될 수 있도록 기여한다. 성능 평가 실험에서 가우시안(Additive White Gaussian Noise, AWGN) 채널, 레일리 페이딩(Rayleigh fading) 채널 환경을 가정하여 실험한 결과, 제안 모델은 세 가지 대표적인 블록 코드인 Polar 코드, LDPC 코드, BCH 코드에 대해 기존 모델보다 향상된 성능을 보여주었다.

Ⅱ. 시스템 모델

본 논문에서는 채널 잡음 제거를 통해 Polar 코드, BCH 코드, LDPC 코드의 복호 성능을 더욱 개선하기 위한 오토인코더 구조의 디노이저를 제안한다. 이때 채널 잡음 제거 및 메시지 복호를 위한 전체 시스템 모델은 그림1과 같다. 시스템 모델의 송신기 입력은 메시지 비트 [TeX:] $$u_A$$이다. 각 채널 코드에 따른 부호화를 진행하여 코드워드 [TeX:] $$x_1^N$$이 출력 된다. 이후 [TeX:] $$x_1^N$$에 Binary Phase Shift Keying(BPSK) 변조를 적용하여 신호 [TeX:] $$s_1^N$$이 생성되고, [TeX:] $$s_1^N$$은 채널을 통과하여 수신기에 전달된다. 수신기에 전달된 [TeX:] $$y_1^N$$은 디노이저의 입력이 된다. 디노이저는 [TeX:] $$y_1^N$$에서 채널 잡음을 제거하여 잡음이 제거된 신호 [TeX:] $$\hat{s}_1^N$$을 복호기에 전달한다. 복호기는 복호화를 수행하여 최종적으로 메시지 비트 [TeX:] $$\hat{u}_A$$을 출력한다. 제안 모델은 디노이저와 복호기를 동시에 학습시키기 위해 멀티 태스크 러닝 방법을 사용한다.

그림(Fig.) 1.

오토인코더 기반 디노이저가 적용된 제안 시스템 모델 (Proposed system model with autoencoder-based denoiser)
1.png

Ⅲ. 제안 모델

그림 2는 제안된 모델의 디노이저 구조이다. 디노이저는 5개의 선형 레이어로 구성되며 데이터를 압축하는 오토인코더의 인코더(AE Encoder) 부분과 압축한 데이터를 복구하는 오토인코더의 디코더(AE Decoder) 부분으로 나누어진다. 이러한 구조로부터 데이터가 압축되고 다시 복구되는 과정에서 고유한 특성에 해당하지 않는 채널 잡음이 제거되는 효과를 얻을 수 있다. AE Encoder의 노드 수는 각 채널 코드의 코드워드 길이인 N에서 256으로 변경된 후 128, 32개로 줄어들며, 이후 AE Decoder의 노드 수는 32에서 128, 256개로 늘어났다가 N으로 다시 변경된다. 각 레이어의 활성 함수는 모두 Rectified Linear Unit(ReLU)를 사용하였다.

그림(Fig.) 2.

제안된 모델의 디노이저 구조 (Structure of the denoiser for the proposed model)
2.png

기존 연구에서 제시한 디노이저의 구조는 3개의 선형 레이어와 잔차 연결로 구성된다. 기존 모델의 디노이저 입력 노드는 코드워드 길이 이며 이후 노드 수가 128, 64, 32인 선형 레이어를 거쳐 최종 출력은 코드워드 길이 N이 된다. 이때 입력과 출력 사이에 잔차 연결을 적용하며, 각 레이어의 활성 함수는 모두 ReLU를 사용한다.

제안된 모델의 복호기의 구조는 그림 3과 같이 3개의 선형 레이어로 구성된다. 복호기의 입력 노드 수는 코드워드 길이 N이고, 각 레이어의 노드 수는 128개, 64개, 32개로 구성되며, 최종 출력으로는 메시지 비트 길이인 K가 출력된다. 이때 각 레이어의 활성 함수는 모두 ReLU를 사용한다. 기존 모델의 복호기는 제안 모델의 복호기와 동일하다.

그림(Fig.) 3.

제안된 모델의 복호기 구조 (Structure of the decoder for the proposed model)
3.png

디노이저의 목표는 디노이저의 출력 [TeX:] $$\hat{s}_1^N$$과 변조 심볼 [TeX:] $$s_1^N$$ 간의 차이를 최소화하는 것이다. 따라서 [TeX:] $$s_1^N \text{ 과 } \hat{s}_1^N$$ 사이의 차이를 측정하기 위해 평균 제곱 오차(Mean Squared Error, MSE) 손실 함수를 사용하며, 복호기도 동일한 손실 함수를 사용한다. 디노이저와 복호기를 동시에 훈련시키기 위해서 멀티 태스크 러닝 전략을 채택했으며, 디노이저의 손실 함수와 복호기의 손실 함수를 합산하는 방식으로 수행된다. 멀티 태스크 러닝 전략은 아래와 같이 공식화할 수 있다.

(1)
[TeX:] $$L_{\mathrm{MTL}}=L_{\text {denoiser }}+\lambda^* L_{\text {decoder }},$$

여기서 λ는 가중치를 나타내고, 조정 가능한 하이퍼 파라미터이다. 논문에서는 λ=1로 고정하였다.

Ⅳ. 실험 결과

모든 실험은 소프트웨어상에서 수행되었으며, Python 3.10.13 및 PyTorch 2.1.2를 사용하고 캐글 (Kaggle)에서 제공하는 단일 NVIDIA T4 Tensor Core GPU를 통해 수행되었다. 제안 모델의 성능을 평가하기 위해 가우시안 채널과 레일리 페이딩 채널에서 실험을 진행하였다. 가우시안 채널에서 훈련은 신호 대 잡음비 (Signal-to-Noise Ratio, SNR) 3dB에서 진행하였으며, [TeX:] $$10^6$$개의 테스트 샘플에 대해 SNR 0dB부터 SNR 7dB까지의 SNR 영역에서 복호 성능을 살펴보았다. 다음으로 레일리 페이딩 채널에서 훈련은 SNR 7dB에서 진행하였으며, [TeX:] $$10^6$$개의 테스트 샘플에 대해 SNR 0dB부터 SNR 14dB까지의 SNR 영역에 대한 복호 성능을 살펴보았다. 또한, 제안 모델과의 비교를 위해 기존 연구[14,15]에서 제시한 모델 구조를 사용해 가정한 모든 채널 환경 및 채널 코드에 대해 동일한 실험을 진행하였다. 실험에 사용한 채널 코드는 코드워드 길이가 32이고 메시지 비트 길이가 10인 Polar 코드, 코드워드 길이가 20이고 메시지 비트 길이가 10인 LDPC 코드, 코드워드 길이가 15이고 메시지 비트 길이가 11인 BCH 코드이다.

멀티 태스크 학습 과정에서 디노이저와 복호기는 동시에 학습되며, 이때 각각의 디노이저, 복호기, 멀티 태스크의 손실 값을 확인할 수 있다. 그림 4는 Polar 코드의 학습 과정에서 기존 모델과 제안 모델의 디노이저, 복호기, 멀티 태스크 손실 값을 전체 에포크(epoch) [TeX:] $$2^{16}$$에 대해 200 간격으로 나타낸 결과이다. 이때 멀티 태스크 손실은 디노이저의 손실과 복호기 손실의 합으로 계산된다.

그림 4에서 제안 모델과 기존 모델을 비교해보면 제안 모델의 디노이저 소실은 기존 모델의 디노이저 손실에 비해 매우 낮지만, 복호기에 경우 제안 모델의 복호기와 기존 모델의 복호기 손실 값이 비슷한 것을 확인할 수 있다. 이를 통해 본 논문에서 제시한 오토인코더 기반의 제안 모델 디노이저가 다층 퍼셉트론 기반의 기존 모델 디노이저보다 잡음 제거에 더 효과적임을 확인할 수 있다.

그림(Fig.) 4.

가우시안 채널에서 Polar(32,10) 코드에 대한 제안 모델과 기존 모델의 훈련 손실 (Training loss of the proposed model and the reference model for Polar(32, 10) code in AWGN channel)
4.png

다음으로 기존 모델과 제안 모델의 데이터 복구 성능을 평가하기 위해 블록 오류율(Block Error Rate, BLER)를 사용하였다. BLER은 전체 수신 데이터 블록 중 복호 과정에서 올바르게 복구되지 않는 블록의 비율을 나타내며 다음과 같이 정의된다.

(2)
[TeX:] $$\mathrm{BLER}=\frac{N \text { mber of error blocks }}{N \text { mber of received blocks }},$$

여기서 오류 블록 수는 오류 비트가 적어도 하나 포함된 블록의 수이다.

Polar 코드, LDPC 코드, BCH 코드 각각에 대하여 기존 모델과 제안 모델의 가우시안 채널에서 BLER 성능 평가를 진행한 결과는 그림 5, 6, 7에 나타내었다. 실험에 사용한 모든 채널 코드에 대해 제안 모델은 SNR 0dB부터 SNR 7dB까지의 SNR 영역에서 기존 모델보다 우수한 성능을 보이는 것을 확인할 수 있었다. 또한 제안 모델은 실험에 사용한 코드들 중 상대적으로 부호율이 낮고 코드워드 길이가 긴 Polar 코드와 LDPC 코드의 경우 더 큰 폭의 성능 향상을 보여주었다.

레일리 페이딩 채널에서도 Polar 코드에 대해 멀티 태스크 러닝을 통한 모델 훈련 과정에서 기존 모델과 제안 모델의 디노이저, 복호기, 멀티 태스크 손실 값을 에포크 200마다 살펴보았다. 결과는 그림 8과 같다.

그림(Fig.) 5.

가우시안 채널에서 Polar(32,10) 코드를 위한 기존 모델과 제안 모델의 블록 오류율 비교 (Comparison of BLER between the reference model and the proposed model for Polar(32,10) code in AWGN channel)
5.png

그림(Fig.) 6.

가우시안 채널에서 LDPC(20,10) 코드를 위한 기존 모델과 제안 모델의 블록 오류율 비교 (Comparison of BLER between the reference model and the proposed model for Polar(32,10) code in AWGN channel)
6.png

그림(Fig.) 7.

가우시안 채널에서 BCH(15,11) 코드를 위한 기존 모델과 제안 모델의 블록 오류율 비교 (Comparison of BLER between the reference model and the proposed model for BCH(15,11) code in AWGN channel)
7.png

그림(Fig.) 8.

레일리 페이딩 채널에서 Polar(32, 10)에 대한 제안 모델과 기존 모델의 훈련 손실 (Training loss of the proposed model and the reference model for Polar(32, 10) in Rayleigh fading channel)
8.png

그림 8에서 제안 모델과 기존 모델의 비교를 통해 제안 모델의 디노이저 손실이 기존 모델의 디노이저 손실에 비해 현저히 낮은 것을 관찰할 수 있고, 기존 모델의 복호기와 제안 모델의 복호기 손실은 비슷한 것을 확인할 수 있다. 이러한 결과를 통해 우리는 오토인코더 구조의 제안 디노이저가 더 열악한 채널 환경인 레일리 페이딩 채널에서도 기존의 다층 퍼셉트론 구조의 디노이저보다 잡음 제거에 효과적이고 적합한 구조임을 확인할 수 있다.

Polar 코드, LDPC 코드, BCH 코드 각각에 대하여 기존 모델과 제안 모델의 레일리 채널에서 BLER 성능 평가를 진행한 결과는 그림 9, 10, 11에 표현되어 있다. 실험에 사용한 모든 채널 코드에 대해 제안 모델은 SNR 0dB부터 SNR 14dB까지의 모든 SNR 영역에서 기존 모델보다 우수한 성능을 보임을 확인할 수 있다. 또한 가우시안 채널과 마찬가지로 레일리 페이딩 채널에서도 실험에 사용한 코드 중 상대적으로 부호율이 낮고 코드워드 길이가 긴 Polar 코드와 LDPC 코드에서 더 높은 성능을 보였다.

그림(Fig.) 9.

레일리 페이딩 채널에서 Polar(32,10) 코드를 위한 기존 모델과 제안 모델의 블록 오류율 비교 (Comparison of BLER between the reference model and the proposed model for Polar(32,10) code in Rayleigh fading channel)
9.png

그림(Fig.) 10.

레일리 페이딩 채널에서 LDPC(20,10) 코드를 위한 기존 모델과 제안 모델의 블록 오류율 비교 (Comparison of BLER between the reference model and the proposed model for LDPC(20,10) code in Rayleigh fading channel)
10.png

그림(Fig.) 11.

레일리 페이딩 채널에서 BCH(15,11) 코드를 위한 기존 모델과 제안 모델의 블록 오류율 비교 (Comparison of BLER between the reference model and the proposed model for BCH(15,11) code in Rayleigh fading channel)
11.png

제안 모델은 실험에서 사용한 모든 채널 환경 및 채널 코드에 대해 기존 모델보다 우수한 성능을 보였다. 특히 코드워드가 길고 부호율이 낮을수록 성능 차이가 크게 나타남을 확인했다. 이러한 실험 결과를 통해 기존 다층 퍼셉트론 구조의 디노이저보다 제안한 디노이저의 오토인코더 구조가 다양한 채널 환경과 채널 코드에 강건하며 채널 잡음 제거에 매우 효과적임을 알 수 있다.

Ⅴ. 결 론

본 논문에서는 대표적인 블록 코드인 Polar 코드, LDPC 코드, BCH 코드의 복호 성능을 개선하기 위한 채널 디노이저를 제안하였다. 제안 모델은 새롭게 설계된 오토인코더 구조의 디노이저를 통해 채널 잡음을 효과적으로 제거한 뒤 잡음이 제거된 신호를 복호기에 전달함으로써 최종 복호 성능을 크게 향상시켰다.

가우시안 채널과 레일리 페이딩 채널 환경에서 기존 모델과 성능 비교 실험을 통해 제안 모델이 열악한 채널 환경에서도 탁월한 성능을 보이며 채널 환경이 좋을수록 기존 모델과의 성능 격차가 크게 벌어짐을 확인할 수 있었다.

이러한 결과를 바탕으로, 블록 코드뿐만 아니라 컨볼루셔널 코드 계열의 채널 코드를 위한 새로운 신경망 기반 디노이저를 설계할 수 있고, 실측 데이터를 활용하여 제안 모델을 학습시킨다면 실제 무선 통신 시스템에서 효과적으로 사용될 수 있을 것으로 기대된다.

Biography

조 예 지 (Yeji Cho)

2023년 2월:순천향대학교 빅 데이터 공학과 졸업

2023년 3월~현재:세종대학교 인공지능융합학과 석박통합 과정

<관심분야> 인공지능, 무선통신시스템, 신약개발

Biography

권 나 현 (Nahyeon Kwon)

2021년 2월 : 세종대학교 경영학과 졸업

2023년 9월~현재 : 세종대학교 인공지능융합학과 석박통합과정

<관심분야> 딥러닝, 인공지능, 시계열

Biography

김 정 현 (Junghyun Kim)

2006년 8월 : 연세대학교 전기전자공학과 졸업

2008년 2월 : 연세대학교 전기전자공학과 석사

2010년 7월~2013년 2월:한국전자통신연구원 연구원

2017년 8월 : 연세대학교 전기전자공학과 박사

2017년 9월~2019년 2월 : 삼성전자 삼성리서치 책임연구원

2019년 3월~2022년 8월:순천향대학교 빅데이터공학과 조교수

2022년 9월~현재 : 세종대학교 인공지능데이터사이언스학과 부교수

<관심분야> 인공지능, 빅데이터, 무선통신시스템

[ORCID:0000-0003-0265-5169]

Biography

송 홍 엽 (Hong-Yeop Song)

1984년 2월 : 연세대학교 전자공학과 졸업

1986년 5월 : University of Southern California Dept.of EE. System 석사

1991년 12월 : University of Southern California Dept.of EE. System 박사

1992년 1월~1993년 12월:University of Southren California 박사 후 연구원

1994년 1월~1995년 8월 : Qualcomm, San Diego, Senior Engineer

1995년 9월~현재: 연세대학교 전기전자공학과 전임교수

<관심분야> 통신공학, 정보이론, 부호이론

[ORCID:0000-0001-8764-9424]

References

  • 1 W. Huffman and V. Pless, Fundamentals of Error-Correcting Codes, Cambridge University Press, 2003. (http://doi.org/10.1017/CBO9780511807077)doi:[[[10.1017/CBO9780511807077]]]
  • 2 R. C. Bose and D. K. Ray-Chaudhuri, "On a class of error correcting binary group codes," Inf. and control, vol. 3, no. 1, pp. 68-79, Mar. 1960.doi:[[[10.1016/S0019-9958(60)90287-4]]]
  • 3 C. Berrou, A. Glavieux, and P. Thitimajshima, "Near shannon limit error correcting coding and decoding: Turbo-codes. 1," in Proc. IEEE ICC, pp. 1064-1070, Geneva, Switzerland, May 1993. (http://doi.org/10.1109/ICC.1993.397441)doi:[[[10.1109/ICC.1993.397441]]]
  • 4 R. Gallager, "Low-density parity-check codes," IRE Trans. Inf. Theory, vol. 8, no. 1, pp. 21-28, Jan. 1962. (http://doi.org/10.1109/TIT.1962.1057683)doi:[[[10.1109/TIT.1962.1057683]]]
  • 5 E. Arikan, "Channel polarization: A method for constructing capacity achieving codes for symmetric binary-input memoryless channels," IEEE Trans. Inf. Theory, vol. 55, no. 7, pp. 3051-3073, Jul. 2009. (http://doi.org/10.1109/TIT.2009.2021379)doi:[[[10.1109/TIT.2009.2021379]]]
  • 6 L. Lugosch and W. J. Gross, "Neural offset min-sum decoding," in Proc. IEEE ISIT, pp. 1361-1365, Aachen, Germany, Jun. 2017. (https://doi.org/10.1109/ISIT.2017.8006751)doi:[[[10.1109/ISIT.2017.8006751]]]
  • 7 A. Bennatan, Y. Choukroun, and P. Kisilev, "Deep learning for decoding of linear codes-a syndrome-based approach," in Proc. IEEE ISIT, pp. 1595-1599, Vail, CO, USA, Jun. 2018. (https://doi.org/10.1109/ISIT.2017.8006751)doi:[[[10.1109/ISIT.2017.8006751]]]
  • 8 E. Y. Seo, Y. J. Choi, J.-H. Kim, and S.-H. Kim, "Training method of deep learning-based decoder for punctured polar codes," J. KICS, vol. 43, no. 7, pp. 1176-1181, Jul. 2018. (http://doi.org/10.7840/kics.2018.43.7.1176)doi:[[[10.7840/kics.2018.43.7.1176]]]
  • 9 E. Achmani and L. Wolf, "Hyper-graphnetwork decoders for block codes," in Proc. Advances in NeurIPS, pp. 1-11, Vancouver, BC, Canada, Dec. 2019. (http://doi.org/10.48550/arXiv.1909.09036)doi:[[[10.48550/arXiv.1909.09036]]]
  • 10 N. Shah and Y. Vasavada, "Neural layered decoding of 5G LDPC codes," IEEE Commun. Lett., vol. 25, no. 11, pp. 3590-3593, Nov. 2021. (http://doi.org/10.1109/LCOMM.2021.3113610)doi:[[[10.1109/LCOMM.2021.3113610]]]
  • 11 Y. Choukroun and L. Wolf, "Error correction code transformer," in Proc. Advances in NeurIPS, pp. 1-11, New Orleans, Louisiana, USA, Mar. 2022. (http://doi.org/10.48550/arXiv.2203.14966)doi:[[[10.48550/arXiv.2203.14966]]]
  • 12 S. Cammerer, J. Hoydis, F. A. Aoudia, and A. Keller, "Graph neural networks for channel decoding," in Proc. IEEE GC Wkshps, pp. 486-491, Rio de Janeiro, Brazil, Dec. 2022. (http://doi.org/10.48550/arXiv.2207.14742)doi:[[[10.48550/arXiv.2207.14742]]]
  • 13 Y. Choukroun and L. Wolf, "Denoising diffusion error correction codes," in Proc. ICLR, pp. 1-18, Kigali, Rwanda, May 2023. (http://doi.org/10.48550/arXiv.2209.13533)doi:[[[10.48550/arXiv.2209.13533]]]
  • 14 H. Zhu, Z. Cao, Y. Zhao, and D. Li, "A novel neural network denoiser for bch codes," in Proc. IEEE/CIC ICCC, pp. 272-276, Chongqing, China, Aug. 2020. (http://doi.org/10.1109/ICCC49849.2020.92389 1613 71)doi:[[[10.1109/ICCC49849.2020.92389161371]]]
  • 15 H. Zhu, Z. Cao, Y. Zhao, and D. Li, "Learning to denoise and decode: A novel residual neural network decoder for polar codes," IEEE Trans. Veh. Technol., vol. 69, no. 8, pp. 8725-8738, Aug. 2020. (http://doi.org/10.1109/TVT.2020.3000345)doi:[[[10.1109/TVT.2020.3000345]]]
  • 16 V. Pascal, L. Hugo, B. Yoshua, and M. Pierre-Antoine, "Extracting and composing robust features with denoising autoencoders," in Proc. ICML, pp. 1096-1103, Helsinki, Finland, Jul. 2008. (http://doi.org/10.1145/1390156.1390294)doi:[[[10.1145/1390156.1390294]]]
  • 17 K. Bajaj, K. S. Dushyant, and A. A. Mohd, "Autoencoders based deep learner for image denoising," Procedia Comput. Sci., vol. 171, pp. 1535-1541, Jan. 2020. (http://doi.org/10.1016/j.procs.2020.04.164)doi:[[[10.1016/j.procs.2020.04.164]]]
  • 18 R. Caruana, "Multitask learning," Machine Learn., vol. 28, no. 1, pp. 41-75, Jul. 1997. (http://doi.org/10.1007/978-1-4615-5529-2_5)doi:[[[10.1007/978-1-4615-5529-2_5]]]

Statistics


Related Articles

비암호화 데이터 학습을 통한 응용 트래픽 분류
J. Kim, Y. Jang, U. Baek, M. Kim
밀리미터파 및 테라헤르츠 무선 통신을 위한 컴퓨터 비전 기반 빔포밍
S. Kim, J. Kim, J. Lee, B. Shim
생성형 AI 기술을 이용한S/W원격 협업개발 개선에 대한 연구
K. Choi, D. K. Kang, J. T. Kim, J. P. Cho
자기장 맵과 딥러닝 모델을 결합한 위치 보정 기반의 실내 다층 측위
J. Kim and Y. Shin
통신 효율적 연합학습을 위한 오토인코더 기반 모델 압축 기법
Do-YunLee and HoonLee
다층 실내 측위에서 자기장 맵과 딥러닝 모델을 사용한 스마트폰 사용자 위치 초기화
J. Kim, S. Cho, Y. Shin
UAV 통신을 위한 멀티모달 센싱 기반 빔 예측
Y. Yeo and J. Kim
Denoising Autoencoder와 DBSCAN 기반의 미약 레이더 신호의 반송파 주파수 추정
J. Yoon, J. Jung, K. Kim, W. Yun, J. Baek, D. Seo, W. Yun, H. Nam
Efficient Detection of Space-Time Block Codes Based on Parallel Detection
J. Kim and K. Cheun
불균형 네트워크 데이터의 이상유형 분류를 위한 미세 조정 연구
M. Joe, M. Kim, M. Kwon

Cite this article

IEEE Style
Y. Cho, N. Kwon, J. Kim, H. Song, "Autoencoder-based Channel Denoiser for Block Codes," The Journal of Korean Institute of Communications and Information Sciences, vol. 49, no. 11, pp. 1607-1613, 2024. DOI: 10.7840/kics.2024.49.11.1607.


ACM Style
Yeji Cho, Nahyeon Kwon, Junghyun Kim, and Hong-Yeop Song. 2024. Autoencoder-based Channel Denoiser for Block Codes. The Journal of Korean Institute of Communications and Information Sciences, 49, 11, (2024), 1607-1613. DOI: 10.7840/kics.2024.49.11.1607.


KICS Style
Yeji Cho, Nahyeon Kwon, Junghyun Kim, Hong-Yeop Song, "Autoencoder-based Channel Denoiser for Block Codes," The Journal of Korean Institute of Communications and Information Sciences, vol. 49, no. 11, pp. 1607-1613, 11. 2024. (https://doi.org/10.7840/kics.2024.49.11.1607)