SPEAKERS




TOP CONFERENCE 1.  :   5/20(목) 16:00 ~ 16:30 (30")

초경량 질의응답 시스템

  • 서민준 교수
  • 한국과학기술원(KAIST)

  • In open-domain question answering, retrieve-and-read mechanism has the inherent benefit of interpretability and the easiness of adding, removing, or editing knowledge compared to parametric approaches such as T5. However, it is also known to suffer from its large storage footprint due to its document corpus and index. In this talk, I will discuss several orthogonal strategies to drastically reduce the footprint of a retrieve-and-read open-domain QA system by up to 160x. Our results indicate that retrieve-and-read can be a realistic option even in a highly-constrained serving environment such as edge devices, as we show that it can achieve better accuracy than a purely parametric model with a comparable docker-level system size.



TOP CONFERENCE 2.  :   5/20(목) 16:30 ~ 17:00 (30")

CrowdQuake: 딥러닝 기반의 지진 조기경보 체계

  • 권영우 교수
  • 경북대학교

  • 대한민국은 지진에 안전한 지역이라고 인식되어왔지만 2016년과 2017년에 발생한 경주·포항 지진으로 인하여 지진에 대한 관심과 걱정이 점차 높아지고 있다. 이에 국가에서는 기존의 지진조기경보체계를 개선하고, 지진 행동요령 제작 및 지진 대응 서비스 발굴을 통해 지진으로 인한 피해를 줄이기 위하여 노력하고 있다. 이러한 노력과 더불어 인공지능으로 대표되는 4차 산업혁명 기술을 활용하여 지진 감지 및 대응을 위한 시도들이 점차 늘고 있다. 본 발표에서는 인공지능과 IoT 기술을 활용하여 지진을 신속 정확히 감지할 수 있는 CrowdQuake 시스템에 대해서 소개한다. CrowdQuake는 MEMS 가속도 센서를 사용하여 지진을 감시하고 CNN기반의 딥러닝 기술로 지진을 식별한다. 많은 딥러닝 기반의 지진 감지 연구가 지진 발생 이후 사후 분석에 초점을 두고 있는 반면 본 연구에서는 실시간 지진 감지를 위한 시스템 구축과 딥러닝 모델을 개발하여 기상청에서 운영하는 지진조기경보 체계의 성능 향상에 기여할 수 있을 것으로 기대한다.



TOP CONFERENCE 3.  :   5/20(목) 17:00 ~ 17:30 (30")

Neural complexity measures

  • 이주호 교수
  • 한국과학기술원(KAIST)

  • While various complexity measures for deep neural networks exist, specifying an appropriate measure capable of predicting and explaining generalization in deep networks has proven challenging. We propose Neural Complexity (NC), a meta-learning framework for predicting generalization. Our model learns a scalar complexity measure through interactions with many heterogeneous tasks in a dataꠓdriven way. The trained NC model can be added to the standard training loss to regularize any task learner in a standard upervised learning scenario. We contrast NC’s approach against existing manually-designed complexity measures and other meta-learning models, and we validate NC’s performance on multiple regression and classification tasks.