Undergraduate Researchers Lead ICCV 2025 Paper on Memory-Efficient Quantization

IRIS 연구실의 학부연구생 한석호 학생(시스템경영공학과 3학년)과 윤서연 학생(전자전기공학부 졸업)이 1저자로 참여한 논문이 ICCV 2025(International Conference on Computer Vision)에 발표 승인되었습니다.

본 연구는 학부생들이 아이디어 기획부터 실험 설계, 결과 분석, 논문 작성에 이르기까지 연구 전반을 주도하여 수행했습니다. 미국 University of Arizona의 Huanrui Yang 교수 연구팀과의 국제 공동 연구로 진행되었으며, IRIS 연구실의 글로벌 연구 네트워크를 통한 협력 성과입니다.

논문 “MSQ: Memory-Efficient Bit Sparsification Quantization"은 모바일이나 엣지 디바이스처럼 자원이 제한된 환경에서 인공지능 모델을 효율적으로 학습시키기 위한 양자화 기법을 제안합니다. 기존의 비트 단위 분해 양자화는 정밀도 탐색이 유연하지만 학습 과정에서 메모리 사용량이 크게 증가하는 문제가 있었습니다.

MSQ는 비트 분해 없이 중요도가 낮은 비트만을 선택적으로 제거하는 방식으로, 학습 중 메모리와 연산량을 동시에 절감합니다. 모델 민감도 정보를 반영하여 여러 개의 LSB를 한 번에 제거할 수 있도록 설계되어, 메모리 효율성과 학습 속도를 모두 개선했습니다.

실험 결과 MSQ는 기존 방법 대비 메모리 효율성과 학습 속도에서 우수한 성능을 보였으며, 제한된 자원 환경에서도 효과적인 양자화 모델 학습이 가능함을 확인했습니다. IRIS 연구실은 앞으로도 학부생들의 주도적인 연구 참여를 지원하며, 글로벌 협력을 통해 온디바이스 AI 분야의 연구 성과를 지속적으로 창출해 나갈 것으로 기대됩니다.

자세한 내용은 정보통신대학 공식 소식에서 확인하실 수 있습니다: https://ice.skku.edu/ice/news.do?mode=view&articleNo=206415

IRIS Lab undergraduate researchers Seokho Han (3rd year, Systems Management Engineering) and Seoyeon Yoon (graduated, School of Electronic and Electrical Engineering) have had their first-author paper accepted at ICCV 2025 (International Conference on Computer Vision).

The undergraduate students led the entire research process, from initial ideation through experimental design, result analysis, and paper writing. This research was conducted in collaboration with Prof. Huanrui Yang’s team at the University of Arizona, representing a collaborative achievement through IRIS Lab’s global research network.

The paper “MSQ: Memory-Efficient Bit Sparsification Quantization” proposes a quantization technique for efficiently training AI models in resource-constrained environments such as mobile or edge devices. While existing bit-level splitting quantization offers flexible precision search, it significantly increases memory usage during training.

MSQ selectively removes only low-importance bits without bit decomposition, simultaneously reducing both memory and computation during training. By reflecting model sensitivity information to remove multiple LSBs at once, it improves both memory efficiency and training speed.

Experimental results showed that MSQ demonstrated superior performance in memory efficiency and training speed compared to existing methods, confirming effective quantized model training even in resource-constrained environments. IRIS Lab will continue to support undergraduate students’ leading research participation and is expected to consistently produce research outcomes in on-device AI through global collaboration.

For more details, please visit the official news from the College of Information & Communication Engineering: https://ice.skku.edu/ice/news.do?mode=view&articleNo=206415