SPEAKERS



AI 응용 SESSION 1-1.  5/30(금) 15:15 - 15:45 (30")

황의종 교수

KAIST 전기및전자공학부

데이터 중심 책임있는 인공지능

AI가 일상적으로 사용되고 인류와 공존하면서 데이터 중심 책임 있는 AI의 중요성이 커지고 있습니다. 특히 모델 학습 시 정확도가 높을 뿐만 아니라 모델이 사용자에 대해 공정하고 노이즈가 있는 데이터에 강건하고 개인 정보를 보호하고 설명가능하기도 해야 합니다. 이러한 요소들은 모델 학습 뿐만 아니라 데이터에서부터 시작되는 머신러닝의 모든 단계에서 만족되어야 하고 하나의 통합된 프레임워크로 지원되어야 합니다. 이 목표를 향해 그동안 KAIST 데이터지능 연구실에서 수행한 데이터 중심 책임있는 AI 연구를 소개하겠습니다.

AI 응용 SESSION 1-2.  5/30(금) 15:45 - 16:15 (30")

김세연 교수

고려대학교 정보대학 컴퓨터학과

Rethinking Live Volumetric Video Streaming: Leveraging 2D to Compress Live Volumetric Video

Live volumetric video streaming offers immersive experiences but comes with major challenges, particularly due to the high bandwidth demands of 3D data. While recent research has tried to reduce this bandwidth, many approaches fall short in handling temporal redundancy under real-time constraints. In this talk, I’ll introduce a new approach that leverages 2D RGB and depth information to efficiently compress live 3D point cloud video. The method also incorporates an adaptive, block-based design to reduce decoding load on the client side. Our evaluation shows that this approach can significantly reduce bandwidth and improve decoding speed, all while preserving visual quality.

AI 응용 SESSION 2-1.  5/30(금) 16:30 - 17:00 (30")

이상근 교수

고려대학교 인공지능학과

언어+상식

우리 인간이 다른 사람과 자연스럽게 대화를 하기 위해서는 공통의 언어와 함께, 대화 상대와 공유하는 배경지식과 맥락이 있어야 하며, 이러한 배경지식에는 ‘상식’이 있다. 상식은 우리 인간이 자연스럽게 터득하고 있는 지식이다. 우리 인간은 이미 잘 알고 있는 상식이지만, 놀랍게도 AI는 인간의 상식을 충분히 잘 알지 못하고, 이런 이유로 인간 수준 혹은 그 이상의 능력을 가지는 AI인 범용인공지능에 이르지 못하는 것으로 알려져 있다. 이 발표에서는 ‘언어+상식’이라는 주제로, 세 가지 이슈를 다룬다. 첫째, AI가 인간의 언어 이외에, ‘상식’을 이해하는 것이 왜 중요할까? 둘째, AI가 인간의 상식을 이해하기 위해서는 어떻게 해야 할까? 마지막으로, 언어와 상식을 이해하는 AI를 개발하기 위한 최신기법에는 어떤 것들이 있을까?

AI 응용 SESSION 2-2.  5/30(금) 17:00 - 17:30 (30")

김영훈 교수

한양대학교에리카 인공지능학과

거대언어모델 인-컨텍스트러닝 최적화

본 발표에서는 거대언어모델(LLM)의 인-컨텍스트 러닝(ICL) 성능을 극대화하는 다양한 최적화 기법을 소개합니다. 소개할 기법의 목적은 효율적인 ICL을 위해KV 캐싱을 활용, 프롬프트 처리 속도 향상 및 중복 계산을 줄이기 위함입니다. 프롬프트 러닝을 통해 모델이 작업에 적합한 프롬프트를 학습하도록 유도하여 성능을 개선하고, few-shot 예제 선택 전략 및 CoT, ToT, GoT 등 프롬프트 구조 최적화를 통해 ICL 효과를 극대화합니다. 더불어, 제어 가능한 텍스트 생성기법을 적용하여 모델 출력을 사용자가 원하는 방향으로 제어하고 활용도를 높이고자 합니다. 이러한 최적화 기법들은 LLM의 ICL 능력을 강화하고, 다양한 실제 응용 분야에서 더 나은 성능을 제공할 수 있도록 기여할 것입니다.

AI 응용 SESSION 2-3.  5/30(금) 17:30 - 18:00 (30")

임성훈 교수

DGIST 전기전자컴퓨터공학과

Pushing the Boundaries of Robot Intelligence: Data Scaling by World Foundation Model with Physical Laws

Advancing robotic intelligence necessitates not only scaling data but also aligning it with the fundamental laws that govern the physical world. This seminar explores the emerging paradigm of the World Foundation Model—a large-scale, pre-trained model designed to incorporate physics-informed priors into the learning process. By grounding data representations in physical laws, this approach enables more generalizable, robust, and sample-efficient robot learning. We will discuss how such models push the boundaries of perception, prediction, and control in real-world environments, and what this means for the future of intelligent robotics.

TOP