Prof. Yani Ioannou’s Seminar on ‘Training Structured Sparse Neural Networks’
2025년 9월 10일, University of Calgary의 yani 교수님이 성균관대학교를 방문해 “Training Structured Sparse Neural Networks”라는 주제로 세미나를 진행해 주셨습니다. 세미나는 반도체관 400112호에서 열렸고, IRIS 연구실의 고종환 교수님이 호스트를 맡았습니다.
발표에서는 동적 희소 학습(DST)의 개념과 한계를 정리한 뒤, 학습 단계에서부터 N:M 형태와 같은 하드웨어 친화적 구조적 희소성을 확보하는 Structured RigL(SRigL) 접근을 소개했습니다. 특히 뉴런 어블레이션을 명시적으로 통합해 매우 높은 희소화 수준에서도 일반화 성능을 유지하고, 실제 CPU/GPU 환경에서 추론 속도 향상을 확인한 점이 인상적이었습니다. 이번 세미나를 통해 구조적 희소 신경망 훈련의 배경과 설계상의 고려 요소를 한층 깊이 이해할 수 있었습니다.
간단한 약력으로, yani 교수님은 University of Calgary Schulich School of Engineering의 전기·소프트웨어공학과에서 재직 중이며 Schulich Research Chair로서 Calgary Machine Learning Lab을 이끌고 있습니다. 이전에는 Vector Institute와 University of Guelph에서 박사후연구원을 지냈고, Google Brain Toronto에서 연구를 수행했습니다. 박사학위는 University of Cambridge에서 취득했으며, 효율적이고 신뢰할 수 있는 딥러닝, 특히 희소 신경망의 학습과 추론에 집중하고 있습니다.
바쁜 일정에도 귀한 시간을 내어주신 Yani 교수님께 깊이 감사드립니다.
On September 10, 2025, Prof. Yani Ioannou from the University of Calgary visited Sungkyunkwan University and delivered a seminar titled “Training Structured Sparse Neural Networks.” The talk was held in the Semiconductor Building, Room 400112, and hosted by Prof. Jong Hwan Ko from the IRIS Lab.
The seminar first reviewed the ideas and practical limitations behind Dynamic Sparse Training (DST), then introduced Structured RigL (SRigL), which learns hardware-friendly N:M structured sparsity during training. A notable point was the explicit use of neuron ablation, enabling strong generalization even at extreme sparsity while demonstrating measurable inference speedups on CPUs and GPUs. The session offered a clear, in-depth view of how to design and train structured sparse neural networks that are both accurate and efficient.
By way of a short bio, Prof. Ioannou is an Assistant Professor and a Schulich Research Chair in the Schulich School of Engineering at the University of Calgary, where he leads the Calgary Machine Learning Lab. He previously worked as a Postdoctoral Fellow at the Vector Institute and the University of Guelph and conducted research at Google Brain Toronto. He earned his Ph.D. from the University of Cambridge, and his research focuses on efficient and trustworthy deep learning, with an emphasis on training and inference for sparse neural networks.
We sincerely thank Prof. Yani Ioannou for sharing his time and insights.