SPEAKERS



AI 핵심 SESSION 1-1.  5/30(금) 15:15 - 15:45 (30")

이해범 교수

고려대학교 전기전자공학부

System 2 Deep Learning with Model-based Machine Learning

One of the important assumptions in System 2 deep learning is model-based machine learning. In this paper, we explore this model-based machine learning and present a new algorithm for amortized inference in sparse probabilistic graphical models (PGMs), which we call Δ-amortized inference (Δ-AI). Our approach is based on the observation that when the sampling of variables in a PGM is seen as a sequence of actions taken by an agent, sparsity of the PGM enables local credit assignment in the agent's policy learning objective. This yields a local constraint that can be turned into a local loss in the style of generative flow networks (GFlowNets) that enables off-policy training but avoids the need to instantiate all the random variables for each parameter update, thus speeding up training considerably. The Δ-AI objective matches the conditional distribution of a variable given its Markov blanket in a tractable learned sampler, which has the structure of a Bayesian network, with the same conditional distribution under the target PGM. As such, the trained sampler recovers marginals and conditional distributions of interest and enables inference of partial subsets of variables. We illustrate Δ-AI's effectiveness for sampling from synthetic PGMs and training latent variable models with sparse factor structure.

AI 핵심 SESSION 1-2.  5/30(금) 15:45 - 16:15 (30")

이기민 교수

KAIST 김재철AI대학원

AI Safety: Monitoring and Alignment

As foundation models evolve, they are being equipped with an increasing range of modalities and sophisticated tools. This evolution is leading to the creation of more autonomous systems through advanced agent architectures that incorporate elements of planning and memory. As these systems are made more agentic, this could unlock a wider range of beneficial use-cases, but also introduces new challenges in ensuring that such systems are trustworthy. This talk will explore the dual aspects of opportunity and risk presented by agentic systems. We will discuss the necessity for proactive strategies in assessing and mitigating risks associated with these technologies.

AI 핵심 SESSION 2-1.  5/30(금) 16:30 - 17:00 (30")

이재호 교수

포항공과대학교 전자전기공학과

Trading parsimony in data dimension for model efficiency

It is well known that more compact representation of data tend to force heavier computation for extracting knowledge from them. Thus, it is natural to believe that, in order to compress pre-trained foundational models over some extent, it may be necessary to inflate the dimensionality of data by some extent as well. But is this true? And if so, can we develop a low-cost method to inflate the dimensions? In this talk, I describe recent empirical findings which sheds light on these questions.

AI 핵심 SESSION 2-2.  5/30(금) 17:00 - 17:30 (30")

윤철희 교수

KAIST 김재철AI대학원

딥러닝 최적화의 블랙박스를 열며: 신경망 학습은 실제로 어떻게 작동하는가?

최적화의 전통적 이론에 따르면, 학습률이 η인 경사 하강법(GD)을 사용할 때 목적 함수의 헤세 행렬의 최대 고유값인 첨예도(sharpness)가 임계값 2/η를 넘지 않으면 함수 값이 감소한다. 그러나 실제 신경망 학습에서는 이를 정면으로 반박하는 안정성의 경계(Edge of Stability) 현상이 최근 보고되었으며, 신경망을 GD로 학습할 때 첨예도가 점점 증가해 2/η 부근이나 그 이상에 머무르면서도 손실이 계속 줄어드는 것이 밝혀졌다. 본 발표에서는 이 현상과 이를 설명하려는 딥러닝 최적화의 새로운 이론들을 소개한다. 이어서, 학습이 매개변수 공간의 어느 부분에서 실제로 일어나는지를 묻는 질문으로 확장하고, 학습이 저차원 고첨예도 부분공간(dominant subspace)에서 진행된다는 널리 퍼진 통념을 반박하는 최근 연구도 함께 살펴본다. 이 발표를 통해 딥러닝 최적화 이론의 현재 흐름과 최신 발견, 그리고 남아 있는 미스테리를 조망하고자 한다.

AI 핵심 SESSION 2-3.  5/30(금) 17:30 - 18:00 (30")

이주호 교수

KAIST 김재철AI대학원

자동 통계학자를 위한 기반 모델 구축

언어모델의 일반화 능력과 추론 능력이 비약적으로 발전하고 있음에도 불구하고, 토큰화된 입출력이라는 구조적 한계로 인해 복잡한 수리 계산이나 정량적 통계 분석에는 여전히 비효율적인 측면이 존재한다. 자동 통계학자는 다양한 형식의 데이터를 해석하고, 그로부터 유의미한 패턴과 경향성을 도출하여 분석 및 의사결정을 수행할 수 있는 인공지능 알고리즘을 의미한다. 하지만 현재까지 개발된 자동 통계학자는 대부분 특정 도메인이나 데이터셋에 특화되어 있어, 범용적으로 활용하기에는 한계가 뚜렷하다. 본 발표에서는 이러한 한계를 극복하고, 다양한 문제와 데이터에 적응 가능한 범용 자동 통계학자를 구축하기 위한 모델 설계 방향과 그에 기반한 초기 실험 결과를 소개하고자 한다.

TOP