| 데이터 공학과 특강 : "Parameter-Efficient Fine-Tuning for Foundation Models: Theory and Practical Applications" (서울대학교 데이터사이언스대학원 GSDS, 김태섭 부교수) | |||
| 작성일 | 2026-05-07 | 조회수 | 10 |
|---|---|---|---|
| 첨부파일 | |||
|
DS세미나 안내
주제: Parameter-Efficient Fine-Tuning for Foundation Models: Theory and Practical Applications 연사: 김태섭 교수 (서울대학교 데이터사이언스대학원 GSDS, 부교수) 일시: 2026년 05월 11일 (월) 오후 2시 장소: 누리관(A13) 2318호 (비대면 Zoom 강연) - 참가 URL: https://pknu.zoom.us/j/84526484584 - 참가 ID: 845 2648 4584 - 비밀번호: 6087 주최: 국립부경대학교 데이터사이언스융합인재양성사업단 (대학원 데이터공학과)
세미나 요약:
파운데이션 모델(Foundation Model)이 현대 인공지능의 중심으로 자리 잡으면서, 효율적인 파인튜닝(fine-tuning) 기법은 실제 모델 배포에 있어 필수적인 요소가 되었다. 본 강연에서는 대규모 파운데이션 모델을 적은 연산량과 데이터만으로 효과적으로 적응(adaptation)시킬 수 있는 접근법으로서 파라미터 효율적 파인튜닝(Parameter-Efficient Fine-Tuning, PEFT) 을 소개한다. 먼저 PEFT가 등장하게 된 배경과 동기를 살펴보고, 주요 기법들을 개괄한 후, 효율성(efficiency)과 적응성(adaptability) 관점에서 전체 파인튜닝(full fine-tuning)과 LoRA 기반 기법을 비교한다. 마지막으로 PEFT의 최신 연구 동향과 다양한 분야에서의 실제 응용 사례를 살펴본다.
연사 경력 및 학력:
학력 몬트리올 대학교 밀라 연구소(Université de Montréal & Mila), 컴퓨터과학 박사
경력 서울대학교 데이터사이언스대학원(GSDS) 부교수 Amazon Web Services (AWS), 연구원 (Research Scientist) 카카오브레인(Kakao Brain), 창립 멤버 Microsoft Research, 연구 인턴 Element AI, 연구 인턴 Intel Korea, 컴퓨터 비전 연구 엔지니어 LG전자, 컴퓨터 비전 연구 엔지니어
|
|||