pISSN : 1226 - 4717 / eISSN : 2287 - 3880
발행기관 : 한국통신학회
  한국통신학회 논문지는 1976년부터 발행되고 있으며, 정보통신 분야에서 가장 오래된 역사를 가지고 있는 국문/영문 혼용 논문지입니다. 정보, 통신, 네트워크 및 융합 기술에 관련된 주제를 다루는 전문 학술지로 정보, 통신, 네트워크 및 융합 기술에 관련된 새로운 개념, 이론, 기술과 응용까지 논문에서 다루는 주제에 따라 일반논문(Part A (AI for ICT Applications), Part B (Communications Systems), Part C (Networks and Computings), Part D (Services Applications and Emerging Topics), Part E (ICT Convergence), Part F (System Implementation)), 특집논문으로 분류하여 연간 400여 편의 논문이 발행되고 있습니다.
Indexed in       SCOPUS

우수논문   (50권 8호, 8월  2025)

Binary Sequences of Even Period with 5-Level Autocorrelation and Their Variations for Optimum Odd Autocorrelation

Gangsan Kim  Hong-Yeop Song

In this paper, we propose a balanced binary sequence of period 2u for some even values of u with 5-level autocorrelation from a cyclic relative difference set with parameters (u,2,u-1,u/2-1). Furthermore, we identify its half-period as those having a...

사이버 및 물리적 스마트 팜 간 시스템 동기화를 위한 디지털 트윈 시스템 구현

노동희  이혜민  고태환

본 연구는 스마트팜 환경을 가상환경에서 관리할 수 있는 디지털 트윈 시스템 아키텍처를 제안하고 이를 실제농가에 적용한 사례를 기술하였다. 제안된 시스템은 실시간 동기화, 모델링 및 시뮬레이션, 재현성 확보를 중점으로 설계되었으며, 이를 Physical Layer, Interaction Layer, Digital Twin System Layer, Application Layer로 세분화하였다. 본 시스템은 충청남도의 농장에서 실증을 통해 활용 가...

최근 발간 목록   (50권 9호, 9월  2025)

A CAPTCHA System with Face Landmark Multiplication Operation 
Minkyu Jo  Eunjin Hwang  Jaeun Kim  Seung Hyun Jeon
Modern web and mobile applications face significant security threats from malicious automated bots, large-scale unauthorized data extraction, and server overload. Traditional CAPTCHA systems have been widely implemented to mitigate these threats; however, they often lead to an impaired user experience due to repetitive problem-solving and lengthy processing times. To overcome these limitations, this paper proposes a CAPTCHA solution that integrates Generative Artificial Intelligence (Gen AI) with object detection models and simple arithmetic operations, seamlessly combining them with web development techniques. This approach allows humans to quickly and effortlessly solve challenges using image recognition and basic multiplication, while making it difficult for automated programs to succeed―thus ensuring both security and usability. This dynamic CAPTCHA system enhances security by generating diverse and complex challenges that are difficult for bots to bypass, using Generative AI and object detection models. User evaluations show that the system provides an intuitive and efficient experience, making it a promising alternative to traditional CAPTCHA systems. It strikes a balance between security, accessibility, and user experience, offering strong defense against automated threats.
연합학습 참여 유도를 위한 교대 제안 협상 기반 기기정보 비공유 인센티브 메커니즘 
진수연  차채연  박형곤
본 논문에서는 연합학습(federated learning)에서 클라이언트 기기정보의 활용 없이 연합학습의 성능을 개선하는동시에 최적으로 보상자원을 분배하는 인센티브 메커니즘(incentive mechanism)을 제안한다. 연합학습에서 클라이언트의 자체적인 성능 평가를 반영하는 효용 함수를 정의하고, 이를 기반으로 서버에게 최소 보상정보를 전송함으로써 클라이언트 로컬 모델의 손실이나 데이터셋의 크기 등의 기기정보를 드러내지 않고 클라이언트를 선택하는방식을 제안한다. 또한 보상자원 분배지점 결정을 위해 서버와 클라이언트 간의 협상 분해 및 교대 제안 협상을수행함으로써 클라이언트의 효용 함수 등의 기기정보를 공유하지 않는다. 실험을 통해 제안하는 인센티브 메커니즘은 연합학습의 수렴 속도 및 정확도를 개선하며, 교대 제안 협상 기반의 보상 분배를 통해 최적 자원 분배 지점인 내쉬 협상 해법(Nash bargaining solution)을 근사한다는 것을 확인하였다.
IoT 환경에서의 병충해 작물 진단을 위한 메타 러닝 기반 신경망 구조 탐색 활용 연구 
김지욱  이현석
농업 분야에서 병충해 작물의 신속하고 정확한 진단은 생산성과 품질을 높이는 데 매우 중요하다. 그러나 실제농업 환경에서는 양질의 학습 데이터 부족, IoT 기기의 메모리 용량, 연산 용량 제약과 같은 어려움이 있다. 따라서 작물 병충해 진단을 딥러닝으로 해결하기 위해서는 작은 크기를 갖는 경량 모델이 적은 학습 데이터로도 작물병충해 진단을 효과적으로 수행할 수 있어야 한다. 본 연구에서는 이러한 문제를 해결하기 위해 메타 러닝 기법과신경망 구조 탐색 기법을 함께 활용하는 작물 병충해 진단 기법을 제안한다. 제안 기법은 경량 모델로 구성된 탐색 공간에서 다양한 병충해 작물 태스크에 대해 적은 데이터로도 일반화가 가능한 메타 모델을 탐색하여 활용한다. 실제 작물 병충해 데이터로 진행한 실험 결과, 제안된 기법으로 학습된 모델은 기존 연구에서 사용한 모델과비교하여 파라미터 수가 98.7% 적은 모델로 15.5% 이상의 정확도 향상을 기록하였다. 이와 같은 결과는 제안 기법이 실제 농업 환경에서의 제한된 환경에서도 효과적으로 작물 병충해 진단을 수행할 수 있음을 보여준다.
Analyzing Quantized Small Language Models for Efficient Edge Deployment 
Sooyoung Jang  Seungho Yang  Changbeom Choi
Quantized small language models (SLMs) offer a promising approach for deploying advanced natural language process- ing (NLP) services on resource-constrained edge devices. However, an in-depth examination of how different quantization configurations influence accuracy and efficiency remains underexplored. This paper systematically evaluates 72 quantized variants of Llama 3.2 (1B and 3B parameters) and Qwen 2.5 (1.5B and 3B parameters) across 13 quantization configura- tions, ranging from q2_K to q6_K. We use the MMLU-Pro benchmark to measure the accuracy (including and excluding random guesses), inference time, resource utilization, and power consumption on an NVIDIA Jetson Orin Nano. Our findings reveal that low-bit quantized models often rely heavily on random guessing, with modest accuracy improvements observed when these are excluded. Furthermore, Qwen 2.5 models generally yield superior accuracy and lower latency than Llama 3.2, albeit with higher sensitivity to quantization, whereas Llama 3.2 exhibits more consistent performance across quantization configurations. CPU utilization remains low (approximately 1-4%), with GPU utilization peaking up to 90% and power consumption ranging from 9.2 W to 11.5 W. Variability across different domains (computer science, engineering, and math) underscores the importance of selecting the appropriate model family, parameter size, and quantization configuration for specific applications. We conclude by outlining future directions for improving on-device NLP, including mixed-precision quantization, hardware-specific optimizations, and broader assessments covering multilingual or multimodal tasks.
A Case Study on Improving Ball Tracking Performance through Error Analysis Based on Data Class Refinement 
Youngsul Shin
This study addresses performance issues in a legacy golf ball tracker deployed in industrial applications, where recognition failures were long suspected to be caused by environmental factors such as ball color, obstacles, and lighting changes. This study presents a progressive class refinement method to systematically identify these error sources and leverages the findings to build a reliable, deep learning-based tracker. To investigate failures on a data-driven basis, this study employed this refinement method to define various environmental classes and analyze the legacy tracker’s errors within each class. The analysis confirmed that the tracker’s vulnerability was due to its reliance on a limited feature set (e.g., color, size, shape), making it susceptible to real-world variations. Based on the detailed classes derived from this analysis, this study trained a robust Deep Neural Network (DNN) using a comprehensive and well-structured training dataset. The resulting DNN-based tracker demonstrated significantly higher recognition rates and greater robustness across diverse environments compared to the legacy system. These results demonstrate that class refinement and data-driven error analysis significantly contribute to enhancing deep learning model performance.
우수 논문
  Fractional Programming for Multi-User ISAC Beamforming Design: A Bayesian CRB Perspective 
Seok-Hwan Park
Integrated sensing and communication (ISAC) is a promising paradigm for sixth-generation (6G) wireless networks, enabling spectrum-efficient coexistence of sensing and communication functionalities. This paper investigates ISAC beamforming optimization for a multi-user system, where a base station (BS) serves multiple communication user equipments (C-UEs) while sensing a target of interest. We adopt the Bayesian Cramer-Rao bound (BCRB) as the sensing performance metric, which is a expected value of CRB with respect to the target prior distribution. An optimization problem is formulated to minimize the BCRB while ensuring that C-UEs’ signal-to-interference-plus-noise ratios (SINRs) exceed predefined thresholds. To address the inherent non-convexity, we employ the fractional programming (FP), leading to a structured reformulation that enables efficient optimization. An alternating optimization (AO) algorithm is developed to iteratively update the primary beamforming and auxiliary variables, ensuring monotonic decrease of BCRB values. Numerical results validate the effectiveness of the proposed FP approach, demonstrating improved sensing accuracy while maintaining reliable communication performance.
저궤도 위성 기반 IoT 네트워크를 위한 기회적 상향링크 비직교 임의 접속 시스템 
한영진  이기훈  정방철
본 논문에서는 저궤도(low-earth orbit: LEO) 위성기반 상향링크 사물인터넷(internet-of-things: IoT) 네트워크를 위한 기회적 비직교 임의 접속(opportunistic non-orthogonal random access: O-NORA) 시스템을제안한다. 각 지상 IoT 단말은 자신의 무선 채널 이득이 특정 임곗값 이상인 경우에만 활성화되어 패킷을 전송하는 기회적 전송 기술을 이용하며, 위성은동시 비유일 복호(simultaneous non-unique decoding: SND) 기법을 통해 단말들의 신호를 복호한다. 모의실험 결과 기존 무작위 전송 기반의 비직교 임의 접속(non-orthogonal random access: NORA) 시스템에비해 대폭 향상된 정전 확률(outage probability) 성능을 달성하는 것을 검증했다.
시간 자원 재활용을 통한 IEEE 802.11ax UORA 성능 향상 기법 
이동규  백호기
본 논문에서는 IEEE 802.11ax 기반 OFDMA(Orthogonal Frequency Division Multiple Access) 환경의 UORA (Uplink OFDMA Random Access) 메커니즘에서 UL TXOP(Uplink Transmission Opportunity)의 효율적 재활용방안을 제안한다. 본 논문에서 제안하는 메커니즘은 802.11ax 표준과는 달리 단말의 데이터 전송이 UL TXOP에할당된 시간보다 일찍 완료되거나 충돌이 발생한 경우, 해당 자원을 다른 단말에 추가적인 전송 기회로 제공함으로써 성능을 향상시킨다. 시뮬레이션 결과, 제안 메커니즘은 기존 표준 방식과 비교하여 처리량과 채널 활용률 측면에서 높은 성능을 보였으며, 특히 UL TXOP 구간이 길수록 성능 향상 폭이 크게 나타났다.
저지연 및 고출력을 위한 전이 학습과 GNN 기반 UAV 네트워크 라우팅 최적화 
이승현  박창민  김황남
무인 항공기(UAV) 네트워크는 높은 이동성과 직선 시야 통신과 같은 장점에도 불구하고 높은 지연과 불안정한연결성이라는 문제에 직면해 있다. 이를 해결하기 위해 본 논문은 지연과 네트워크 출력을 고려하여 경로를 최적화하는 전이 학습 기반 그래프 신경망(GNN) 라우팅 방식을 제안한다. 실험 결과, 제안된 방식은 대규모 네트워크에서 다익스트라 기반 라우팅보다 더 빠른 추론 속도와 높은 정확도를 달성하였으며, UAV 네트워크에서 저지연및 고출력 솔루션으로서의 가능성을 입증하였다.
Development of an Effective Node Replication Based Consensus Algorithm for Reliable Small-Scale Blockchain Networks 
Siwakorn Pasawang  Junghun Kim  Sang-Il Choi
This paper explores blockchain as a decentralized and distributed storage technology where each device stores identical transaction data without reliance on a third party for verification or control. Consensus algorithms, particularly those based on voting systems, validate transactions and ensure tamper-proof records by achieving agreement among participants. However, existing voting-based algorithms face challenges such as high message transmission overhead, increased latency, and reliance on hardware evaluation to determine node reliability. To address these limitations, this study proposes a novel consensus algorithm designed for small-scale blockchain networks. The proposed scheme defines a fixed number of nodes within an internal group to perform consensus, significantly reducing transmission latency, improving throughput, and minimizing message exchanges. Simulators for PBFT, QPBFT, and the proposed scheme were developed and evaluated under varying conditions. Results indicate that the proposed scheme outperforms PBFT and QPBFT in terms of throughput and message verification success rates, while maintaining stable performance. This research provides valuable insights into the design of efficient consensus algorithms for reliable, small-scale blockchain systems and lays the groundwork for future implementation and evaluation in real-world networks.