아쉽지만 오늘 (08/03/22)을 기준으로 3일 동안 열린 서울대학교 AI 여름학교는 마무리 되었습니다. 2020년 처음 개최를 시작으로 매년 여름마다 청취를 하며 새로운 연구에 대하여 접하고 지식을 차곡차곡 쌓아가는 시간을 가질 수 있었습니다. 매년 프로그램이 진행될 때 마다 다른 시도를 계속 반영하며 발전되는 점 또한 고무적이었고 무엇보다도 서울대학교 학생뿐만이 아닌 대중에게도 open되는 연구의 장이었던 점이 정말 값진 경험이라고 생각이 듭니다. 2020년에는 코로나로 인한 많은 변화가 시작된 시기 였지만 대면 참석을 하면서 들었습니다. 이후에는 하이브리드 형식으로 대면, 비대면 공동 진행이 되어 보다 쾌적하고 익숙한 환경에서 제약없이 들을 수 있던 점이 좋았습니다.

 

 

 

오늘 진행되었던 연구 세미나 중 이목을 끌었던 내용들은 math & statistical한 접근을 이용한 연구들 이었습니다. 그 중에서도 김지수 박사님께서 발표해주신 "Statistical inference on Topological Data Analysis and Application to Machine Learning"이란 주제는 topology(위상수학)을 기반으로 진행된 연구였습니다. 사실 일상 생활에서 topological의 구조는 쉽게 찾아볼 수 있습니다. 이는 미술관에서 흔히 관람할 수 있는 미술 작품에서도 찾아볼 수 있는데, 그림 작품 중 점묘법으로그려진 작품 중 점들을 topological structure 중 하나라는 것으로 이해하였습니다. 위상수학 자체가 난해한 학문이기에 이해가 쉽지 않았지만 여러모로 흥미롭게 들을 수 있었던 연구 였습니다. 

 

WHICH SHORTCUT CUES WILL DNNS CHOOSE? A STUDY FROM THE PARAMETER-SPACE PERSPECTIVE

개인적으로 최근에는 XAI 분야를 관심있게 보고 있는데, 오늘 "Scalable Trustworthy AI"의 주제로 발표를 나누어주신 오승준 교수님의 강의 시간을 통해 다른 시각으로도 생각을 해볼 수 있었습니다. 본래 딥러닝 모델은 black box nature를 가지고 있어서 어떠한 근거와 이유를 통하여 결과를 도출했는지 알기 쉽지 않습니다. 본 연구 내용에서는 What에서 How로 전환되는 과정을 설명해 주셨습니다. 여기에서 핵심은 첫 번째 발표에서 Emre kiciman에서 나누어주신 causality가 발표의 핵심 중 하나인 것을 알 수 있었습니다. 보통 기존의 머신 러닝은 p(x,y)를 통해 답을 도출하는데 본 발표에서는 p(x,y,z)를 기반으로 (x,y)데이터의 답을 도출하는 과정을 예를 들었습니다.  발표를 청취 중에 CALM에서 score map의 mechanism이 제일 인상적이였는데 논문 밑 코드를 다시 참고하여 공부를 해야겠다는 생각이 들었습니다.

 


 

이번 년도 작년과 다름없이 무료로 양질과 열정이 담긴 연구 세미나를 개최 해주셔서 감사합니다. 이전과 비교하였을 때 프로그램 전체가 영어로 진행이 되어서 듣는데 영어능력 또한 향상시킬 수 있었던 갔습니다. 외국에서도 여러 연구자들이 본 AI 여름학교를 수강하며 연구에 대한 토론의 장이 열리면 좋을 것 같다는 생각도 들었습니다. 

 

 

3일 동안 세미나를 들으면서 부족하거나 처음 접했던 연구들도 검색 후 공부를 통하여 견문을 넓힐 수 있었으며, 쉽게 지나쳤던 부분들에 대해서도 한 번 다시 되돌아보면서 연구가 무엇인지에 대해서도 기본을 충실히 다시 되새김질할 수 있었던 시간 이였습니다.

 

마지막으로 연구 내용을 나누어주신 모든 연사님들과 저도 생각하지 못했던 질문해주신 청취자들, 그리고 프로그램을 기획하시고 운영하신 모든 분들의 노고에 항상 감사드립니다.

어제는 multimodal에 관련된 내용이 많았습니다. 오늘의 첫 발표는 DeepSpeed라는 주제를 시작으로 발표를 시작하였는데, Deepspeed 라이브러리를 통해 딥러닝의 모델의 학습과 추론을 보다 손 쉽게 해준다는 내용을 처음 접하였습니다. 발표의 내용만으로 다 이해가 가지 않기에 궁금증을 안고 구글링하였는데 공식 github에 배포된 코드들을 구경할 수 있었습니다. DeepSpeed는 모델 Compression에서 또한 강점을 가지고 있었고 최근에 pretrained된 language 모델을 손쉽게 사용할 수 있게 제공하는 hugging face 라이브러리하고 호환성이 뛰어난 것을 확인하였습니다.

https://github.com/microsoft/DeepSpeed

 


 

 

Conditional Motion In-betweening

2번째 발표는 Meta AI (이전 Facebook AI Research)의 원정담 연사님께서 "motion and behavior generation for virtual avatar in metaverse" 주제를 가지고 진행해 주셨습니다. 발표의 내용은 3d 아바타를 가지고 진행한 실험을 설명해 주셨습니다. Conditional Motion In-betweening의 제목의 논문은 transformer의 인코더를 핵심으로 사용하였으며 정확하게 어떤 메커니즘을 기반으로 3d avatar에 적용 되었는지는 추후 읽어볼 예정입니다. 최근에 메타버스가 각광을 받음에 따라서 발표를 들으면서 실제 연구는 어떻게 이루어지고 있는지 흥미롭게 들을 수 있었습니다.

 


Time Discretization-Invariant Safe Action Repetition for Policy Gradient Methods

오후에는 작년에 세미나를 진행해 주셨던 김건희 교수님께서 Unsupervised Skillful Discovery에 대한 연구 및 내용을 공유해 주셨습니다. 본 연구는 Reinforcement learning 강화학습에 관련된 내용들이 주를 이었습니다. 발표를 시작하면서 MDP의 예를 들으면서 time discretization을 설명해 주셨습니다. discretization은 RL의 성능에 critical하게 영향을 미친다고 합니다. 일종의 하이퍼파라미터를 조정하였을때 성능이 달라지는 것과도 비슷하다는 생각이 들었습니다. 연구에서는 delta를 줄여서 fine gradient control를 에이전트에게 부여할 수 있습니다. 이전에 Q learning과 policy gradient 방법론들은 delta값이 너무 작으면 성능이 좋게 나오지 않는다고 하였습니다.  

 


오늘도 들었던 내용들을 정리하면서 논문 쇼핑 장바구니에 읽어보고 싶은 논문을 가득채운 하루였습니다.

 

이번 방학 또한 작년과 동일하게 AI 여름학교 수강하였습니다. 2020년부터 첫 개최하여 매년 여름마다 다양하게 트랜드에 맞추어 미국 및 한국에서 어떠한 연구가 이루어지는지 본 AI 여름학교를 통해 저의 지식을 확장시켜 나갈 수 있었습니다. 2년 간 고정 패널의 연사님들이 아닌 다양한 연사님들께서 세미나/여름학교를 진행해 주시는 점 또한 처음 AI 여름학교를 접하시는 분들께도 많은 도움이 될 것이라고 예상됩니다. 

 

금년 2022년 AI 여름학교 동시에 오프라인과 온라인(실시간 송출)으로 동시에 이루어져서 컴퓨터 앞에서 청취할 수 있었습니다. 실시간 온라인으로 진행함에도 불구하고 작년과는 달리 접속상태 그리고 진행이 매끄럽게 개선되어 연사님들의 강의에 집중을 할 수 있었습니다. 

 

이번 년도에는 3D 컴퓨터 비전을 연구하시는 주한별 교수님께서 유튜브에서 실시간으로 댓글 및 질문들을 담당하시는 mediator 역할 맡아주셨습니다.  이전에 주한별 교수님이 2020년 CVPR에서 발표하신 PIFuHD의 데모영상을 신기하게 봤던 기억도 났습니다. 본론으로 돌아와 금년은 작년에 비해 Multimodal 관련된 연구들이 공유되었습니다.

 


 

개인적으로 오늘 제일 오전, 오후를 통틀어 관심있게 들었던 연구 주제는 총 3가지 였습니다.

 

1) Bridging AI and Human through Communication: Multimodality, Interpretability, and Fairness

2) Scaling Robot Learning with Skills: Furniture Assembly and Beyond

3) Accurate Node Feature Estimation with Structured Variational Graph Autoencoder

 

 

주정석 교수님께서 공유해주신 Bridging AI and Human through Communication: Multimodality, Interpretability, and Fairness 연구에서 Human-AI Communication를 듣는중에 HCI 연구분야와 비슷하다는 생각이 들었습니다. Conclusion을 통하여 multimodal human conmmunication에서 Human-AI Communication과 interaction이 중요한 component인 것을 강조하셨습니다.  

 

최근들어 강화학습에 대한 연구를 관심을 가지게 되어 이용원 박사님이 공유해주신 연구를 들으면서 많은 생각을 해보았습니다. 본 내용은 long-horizon task를 robot learning을 통해 해결하는 방법을 다루었습니다. 학습을 하는 과정에서 아무 지식이 없는 상태에서 하는 것은 쉽지 않습니다. 또한 기존에 실제에서 사용되는 benchmark 연구는 많지 않습니다. 본 연구에서는 가구 조립에 강화학습을 적용하고 이에 대한 내용을 public하게 공개하였습니다. 내용을 자세하게 설명해주셔서 제가 강화학습에 대한 몰랐던 새로운 지식또한 얻어갈 수 있었습니다.

 

유재민 박사님이 공유해주신 graph에 관련된 연구는 2020년에 처음 접했을때는 막연하게 어려워 보이는구나라는 생각이 강하게 들었습니다. 오늘 진행된 발표에서는 structured inference에서 대하여 publish된 "Accurate Node Feature Estimation with Structured Variational Graph Autoencoder" 논문의 연구 내용을 공유해 주셨습니다. 연구에서는 SVGA를 다른 모델들과 비교하였을때 대부분 우수한 성능을 보여주었기에 고무적이었습니다. 현재 제가 관심있게 보고 있는 anomaly detection 주제 또한 graph based 모델을 task에 맞게 적용할 수 있다는 생각이 들었습니다. 추후 graph에 fundamental한 지식이 쌓였을때 본 논문을 다시 읽어보면 도움이 될 것 같습니다.

 

 

3년(금년포함) 동안 다양한 최신 트랜드 반영 및 의미있는 연구 세미나를 개최 해주셔서 감사합니다. 매년 여름에 주기적으로 꾸준히 청취하고 있지만 매번 다양하게 쏟아지는 연구 트랜드에 있어 부족함을 느끼지만, 배워가며 발전할 수 있음에 다시 감사함을 표합니다. 

 

 

 

오늘은 UT Austin에서 재직 중이신 최은솔 교수님이 세미나를 먼저 청취할 수 있었습니다. 교수님께서 주로 연구하시는

분야는 Question & Answering라고 소개해 주셨고 진행하시는 연구 및 전체적인 QA task의 overview에 대하여 설명을 해주셨습니다.

 

그 중에서도 공유해주신 XORQA 연구는 Open domain question answering task를 수행하는 것으로 이해 하였습니다.

본 task를 수행하는데 있어서 Question answering을 하는데 어떤한 질문들은 대답할 수 없는가에 대한 설명을 해주셨고 이를 어떻게 해결했는지 공유해주신 점 인상 깊었습니다. 

 

위의 figure와 같이 input으로 일본어와 wikipedia같은 오픈 도메인 포럼을 입력 받으면 정보를 위키피디아에서 retrieve하고 일본어를 retriever단에서 번역을 진행하여 영어로 출력하는 것으로 이해하였습니다. 물론 일본, 영어 위키 모두 참조하여 진행하는 것 같습니다. 더 자세한 내용은 논문을 읽고 정리를 진행하려고 합니다. 

 


 

미네소타대학교 강동엽 교수님께서 나누어진 내용 중에 넵병을 예를 들어서 설명을 진행하여 주신 것이 상당히 흥미로우면서도 신선하였습니다. 사람 중심의 NLP 시스템과 상대방에 따라서 어떻게 말을 다르게 하는지에 대한 내용을 의미합니다. 이러한 것은 style이라고 정의할 수 있는데 굉장히 어려운 task인 것으로 생각이 듭니다. 이러한 연구를 진행하는데 있어서 xSLUE 데이터셋을 구축하셨는데 앞으로 실제 industry 및 academia에서도 유의미한 연구가 될 수 있을 것으로 예상됩니다.

 

개인적으로 강유 교수님께서 진행하신 Stock Prediction with AI를 청취하며 기존과 접근 방법이 조금 다른 것을 느낄 수 있었습니다. 그 중에서도 time , data axis attention을 적용하여 예측을 진행하였다는 점 인상적이였습니다.

 


 

이번 년도 작년과 다름없이 무료로 양질과 열정이 담긴 연구 세미나를 개최 해주셔서 감사합니다. 2020년보다 더 많이 공부한 상태에서 청취하였지만 금년에도 다른 테마의 강의 및 Q&A 진행방식을 통하여 다른 분들의 답변 및 질문에서도 많은 insight를 얻을 수 있어서 매우 유익하였습니다.

 

 

3일 동안 세미나를 들으면서 제가 몰랐던 부분, 쉽게 지나쳤던 부분들에 대해서도 한 번 다시 되돌아보면서 연구가 무엇인지에 대해서도 기본을 충실히 다시 되새김질할 수 있었던 시간 이였습니다. 그리고 이번 년도에도 뛰어나신 연사님들과 저도 생각하지 못했던 질문해주신 청취자들, 그리고 프로그램을 기획하시고 운영하신 모든 분들의 노고에 감사드립니다.

어제도 유익한 세미나를 청취 후에 필요한 내용을 개인적으로 노션에 정리 후에 오늘도 설레는 마음으로 세미나를 듣기 시작했습니다. 오늘의 첫 발표는 박태성 연사님께서 먼저 GAN에 관련된 내용을 시작으로 발표를 시작하였는데, 쉽게 기초부터 설명을 해주셔서 이해하는데 문제가 없었습니다.  pix2pix 실험을 예로 들어주셨는데 input을 사용하여 result를 설명하시는데 어떠한 차이점과 challenging한 경험과 어떻게 문제를 해결하여 나가주셨는지 설명을 해주셨습니다.

 

 

 

최근 제가 진행하고 있는 실험에서는 Conditional GAN을 이용하여 data augmentation을 진행하는 중인데, 박태성 연사님의 설명과 연구에 대한 insight를 공유해주셔서 다른 시각 및 방면으로도 생각을 해볼 수 있었습니다.

 

그리고 제일 눈여겨 보았고 신기했던 내용은 박태성 연사님이 직접 진행하신 "Swapping Autoencoder for Deep Image Manipulation" 연구 였습니다. 기존에 Autoencoder 아키텍쳐 및 로직과 다른점은 패치 reconstruction을 하는데 있어서 latent vector에서는 structure, texture code를 사용하였습니다. 그리고 texture과 structure을 기준으로 교회 사진들을 비교하였습니다.

 

또한 Smooth Latent Space를 수식과 로직을 함께 설명해 주셨는데 추후 연구하신 논문을 읽으며 조금 더 자세히 알아보고자 합니다. 


후에는 이민아 연사님의 "Writing with Artificial Intelligence" 주제의 세미나를 청취하였습니다.

 

본 세미나를 청취하면서 일상생활에서 자주 접하지만 로직은 아직 익숙하지 않았던 auto complete에 대한 내용에 대하여 들을 수 있었습니다. 이러한 일련의 과정을 거치는데 있어서 다양한 형태의 자동완성에 대한 견해 및 전개를 세세히 설명해 주셨습니다. 그리고 제일 흥미로웠던 것은 사람이 language model과 어떻게 글을 함께 창의적으로 쓰는지에 대한 주제를 공유해 주셨는데 "아기돼지 92형제"라는 변형된 keyword가 예로 인상적이었습니다. 그리고 여기에서 어떻게 AI와 사람이 어떻게 상호작용을 일으킬 수 있을지에 대한 숙제도 상당히 저도 궁금해지는 내용이었습니다.  

 


오후에는 작년에 세미나를 진행해 주셨던 김건희 교수님께서 Self-Supervision에 대한 연구 및 내용을 공유해 주셨습니다. 제가 많이 접해보지 못한 multi modal 데이터를 이용 및 Unsupervised Representation Learning via Neural Activation Coding에 대한 내용은 아직까지 이해하는데 시간이 조금 걸릴듯하여 추가적인 공부 및 자료 조사가 필요하다는 생각이 들었습니다.

 

 


 

이번 년도 작년과 다름없이 무료로 양질과 열정이 담긴 연구 세미나를 개최 해주셔서 감사합니다. 2020년보다 더 많이 공부한 상태에서 청취하였지만 금년에도 다른 테마의 강의 및 Q&A 진행방식을 통하여 다른 분들의 답변 및 질문에서도 많은 insight를 얻을 수 있어서 매우 유익하였습니다.

 

 

오늘도 들었던 내용들을 정리하면서 내일의 세미나도 기대가 됩니다!

 

이번 방학 또한 작년과 동일하게 서울대학교 AI 연구원에서 주최하는 AI Summer School의 세미나 및 튜토리얼을 수강하였습니다.

 

작년과 금년 2021AI Summer School 한 가지 다른 점이 있다면 이번 여름은 모든 연사님들이 Youtube Zoom으로 실시간 송출하는 방식으로 진행되었습니다. 현재 코로나 사태로 인해서 오프라인으로 참석하지 못하는 점이 조금 아쉬웠지만 실시간 온라인으로 진행을 하여도 연사님들의 열정 및 intuition이 대단하신 것을 느낄 수 있었습니다. 그리고 작년에 발표자로 참여해주신 황승원 교수님께서 사회를 봐주셔서 반갑기도 하였습니다. 

 

개인적으로 작년에는 머신러닝, 딥러닝을 처음 접하면서 스터디나 확실한 연구주제(or keyword)등 초심자로써 방향을 잡는데 많은 어려움을 겪었습니다. 개인적으로 매일매일 유튜브에서 먼저 Sung Kim 교수님의 모두의 딥러닝과 Andrew NG 교수님의 Coursera라 강의로 한글, 영어강의를 들으면서 기초를 많이 닦았습니다.

 

그 후에는 AI Summer School 2020를 오프라인으로 청취하였습니다. 물론 모든 내용들을 다 알아들었던 것은 아니지만, 들으면서 내용을 미리 찾아보고 듣는 도중 필기하여 궁금증이 안풀리는 부분들은 연사님들께 질문을 하여 insight 및 답변들을 들을 수 있었습니다.


 

 

 

 첫째 날(08/09/21)에는 Google brain에 재직 중이신 김빈 박사님의 발표로 시작되었습니다. 발표의 주된 topic 및 keyword는 interpretability였습니다. 최근에 제가 연구 중인 XAI 분야의 논문 및 코드 구현을 통해 intrepretability에 관하여 많은 시간을 할애하는터라 나누어주신 발표는 제게 많은 도움이 되었습니다. 조금 더 정확하게 말하자면 이미지 데이터에 Layerwise relevance prorogation을 적용하며 어떻게 interpretability를 represent할 것인지에 대한 아이디어가 떠올랐습니다. 그리고 CaCE발표를 들으면서 causality에 대하여 들으면서 이쪽 분야에 대한 논문 및 공부자료도 참고해볼 예정입니다. 연사님께서 영어를 엄청 잘하셔서 교포인줄 알았는데 한글로도 답을 잘해주셔서 놀라웠습니다.

 

그리고 inductive bias에 대해서도 다시 쉽게 설명해주셔서 고려대학교 강필성 교수님 수업에서 들었던 내용을 다시 상기 및 내용을 다시 한번 생각해볼 수 있어서 좋았습니다.

 


 

2번째 session에서는 김승연 박사님께서 distillation을 statistical하게 접근하여 설명을 해주셨습니다. 해당된 접근법은 저에게 다소 새로워서 필기를 하며 제가 궁금했던 부분은 적어서 추후 검색 및 논문을 참조하여 복습을 할 예정입니다. 그리고 "Distilling from imperfect teacher"를 증명하는 부분이 흥미로웠는데 수식에 대한 설명과 왜 그렇게 진행되는지에 대한 why를 자세히 설명해주셔서 제가 몰랐던 새로운 지식또한 얻어갈 수 있었습니다.

 

 

그리고 오전세션에서 황승원 교수님이 reinforcement learning에 관하여 견해 및 insight있는 질문을 공유해 주셨습니다.

 

 


저번 년도에도 연사로 참여해주신 송현오 교수님이 data augmentation과 mixup에 대하여 연구 및 결과를 공유해주셨습니다. 이전에 제가 주로 생각해보지 않은 이론적인 부분을 정말 상세하게 설명을 해주셔서 이전에 image data augmentation인 mixup에서 궁금했던 부분을 해결할 수 있었습니다. 또한 그리고 이러한 data augmentation을 진행하는데 있어서 OR적인 부분을 응용하여 main objective를 통하여 objective function을 통하여 증명을 해주신 것이 친근하였습니다. 이전에 제가 OR수강을 한 것이 도움이 되지 않았나 싶습니다. 그리고 summary를 wrap up하시면서 연구 및 실험을 다시 친절하게 정리 해주셔서 감사했습니다.

 


마지막으로는 이제희 교수님이 "How to Train Your Virtual Dragon via Deep Learning"이란 주제로 세미나를 진행해주셨습니다. 보행시뮬레이션을 통하여 실험을 진행하며 이에 대한 장단점을 의료분야를 통하여 설명을 해주셨습니다. 이러한 예들은 실제 상황에서도 적용될 수 있는 유용한 연구로써 사회 및 의료 분야에도 많은 부분을 기여할 수 있다고 생각이 들었습니다. 이러한 보행 시뮬레이션은 환자의 재활 및 스포츠 분야에서도 적용될 수 있다는 생각이 들었습니다.

 

 

 

이번 년도 작년과 다름없이 무료로 양질과 열정이 담긴 연구 세미나를 개최 해주셔서 감사합니다. 2020년보다 더 많이 공부한 상태에서 청취하였지만 금년에도 다른 테마의 강의 및 Q&A 진행방식을 통하여 다른 분들의 답변 및 질문에서도 많은 insight를 얻을 수 있어서 매우 유익하였습니다.

 

 

오늘도 들었던 내용들을 정리하면서 내일의 세미나도 기대가 됩니다!

최근에 데이터 분석 및 통계기법들을 하나씩 코딩하는데 있어서 R을 비교적으로 많이 사용하기 시작했습니다. 물론 딥러닝, 머신러닝등을 진행하는데 있어서는 파이썬이 더 대중적이지만 어디까지나 제공해주는 패키지나 시각화하는데 있어서는 R보다 조금 앞선 부분도 있다고 개인적인 생각이 듭니다.

주로 책에서 다루는 내용은 R에서의 문법적인 내용이 아니라 실무에서 쓰이는 테크닉 위주로 실습을 구성해놓은 점이 좋았습니다. 데이터 사이언스나 통계를 하는데 있어서 대용량의 데이터를 다루고 통계적인 분석을 진행하는데는

데이터 전처리 및 통계적 수치연산을 많이 진행합니다. 책에서는 우리가 위와 같은 task를 수행하는데 있어 시간을 많이 단축시킬 수 있는 방법과 팁을 선사합니다.


 

그리고 무엇보다 통계학과에서 가장 중요한 토픽 중 하나인 시계열 데이터 분석을 하는데 있어서 시계열 데이터를 어떻게 다루는지에 대해서도 예제를 통해서 상세히 설명을 해준 점이 좋았습니다. 계속 좋다고 좋다고 약간 편향적일 수도 있는 의견을 남긴 다는 느낌이 있으실 수 있는데요ㅎㅎ 먼저 이 책은 R을 입문하시는 분들보다는 R을 어느정도 배우시고 데이터 분석을 조금 해보신 분들에게 지름길과 꿀팁들을 제공해주어서 삽질을 하는데 있어서 시간을 많이 단축시켜줍니다. 그래서 제가 위에서도 계속 좋은 점만 언급한 것이죠. 정말 프로그래밍의 거의 반은 삽질이라고 볼 수 있는데.. 이 시간을 단축시키는 팁이나 방법을 알면 세상 날아갈듯이 기쁩니다!!

책에서는 Jekyll 테마의 깃헙 블로그를 구축하는 과정또한 알려주고 있어서, 추후에 개발 블로그 개설 및 취업용 포트폴리오 깃헙페이지를 만드시는 분들에게 아주 좋은 가이드를 제시해주어서 좋을 것 같습니다. 또한 R Cloud 서비스를 통하여서 모바일, 아이패드 같은 기기에서 코드를 보여줄 수 있는 유용한 팁들도 제공하는 실무자에게 정말 알맞는 책입니다.


 

마지막으로 이 책을 읽게 기회를 주신 비제이퍼블릭에 감사하다는 말씀을 전하고 싶습니다.

 

오늘도 서울대학교 AI 여름학교 3일차 프로그램을 오프라인으로 참석하였습니다. 마지막 날인만큼 시간이 너무 빨리간 것 아닌가에 대해서 아쉬움이 생겼던 하루였습니다.

 


 

오늘은 여름 이후에 UT Austin에 조교수 부임하시는 최은솔 박사님의 온라인 세션으로 시작하였습니다. 어제 황승원 교수님의 자연어 처리 세션또한 정말 알차고 많은 정보, 인사이트를 얻었기에 기대가 컸습니다. 최은솔 박사님의 세션은 윤킴 박사님의 세션과 똑같이 모두 영어로 진행되었고 그간 영어 공부를 그래도 틈틈히(?) 해서 어렵지 않게 들을 수 있었습니다.

 

마치 영어 리스닝 수업도 같이 듣는 듯한 기분이였습니다. 아무튼 최은솔 박사님의 강의에서의 핵심 키워드는 Context였습니다. 그 중에서도 세션에서 커버하신 큰 주제들은 Social context, temporal context, geographical context, common sense knowledge, prior conversation history등이 있었고 더 deep하게는 decontextualization에 대해서 자세하고 설명해주셨습니다. 이러한 내용들은 제가 추후 자연어 처리를 연구하는데 있어서 큰 도움이 될 것 같습니다. 논문을 검색하거나 연구 아이디어를 조사하는데 있어서 Keyword만 알아도 정말 시간을 단축하거나 많은 연관성있는 논문 및 자료를 찾을 수 있기 때문입니다.

 

모든 연사님들 교수님들도 해당되는 사항이였지만 최은솔 박사님 또한 그 동안 진행하신 연구에 대해서 자세하게 예를 들어가면서 설명을 해주셨습니다. 그리고 제가 세션 후에 질문드린 내용또한 친절하게 답변을 해주신 점에 대해서는 감사했습니다.

 


 

그다음 세션으로는 알파고를 개발한 유명한 구글의 DeepMind에서 재직 중이신 오준혁 박사님의 세션을 들을 수 있었습니다. 

 

 

세션은 강화학습에 대한 Intro 및 overview를 시작으로 전개가 되어서, 강화학습(RL)에 대해서 잘 모르시는 청중들 또한 충분하게 배려하신 세심함에 감탄하였습니다.

 


 

 

사실 강화학습이 각광받고 떠오르는 분야이긴 한데 많은 분들이 어려운 설명이나 수식에서 좌절을 하시고 포기를 하십니다. 물론 저도 옛날 수식을 보고 기겁해서 포기했던 1 人 입니다. 하지만 지금은 다시 이해가 될때까지 포기하지 않고 계속 찾아나가면서 공부를 하고 있습니다. 왜냐고요?? 대학원(생)이기 때문입니다 ㅎㅎ. 시간이 허락하고 연구를 진행하는데 그에 대한 사전 지식이 없으면 제일 비효율적인 방법이긴 하지만 input으로 많은 시간을 cost값으로 지불합니다. 그리고 이러한 지식을 남에게 전달해주거나 이해하였을 때 정말 큰 보람을 느낍니다.

 

 

사설이 길었는데요. 다시 본론으로 돌아오면 강화학습을 들으면 빠질 수 없는 분야는 Game AI분야 입니다. 가장 최근에 RL을 많이 적용하려는 분야가 국민 게임 스타크래프트입니다. 과연 이 AI가 사람의 명령없이 강화학습만으로 스타크래프트를 진행하거나 사람 게이머와 대결을 할 수 있을 것인가? 라는 주제에 대해서 많은 연구들이 이루어지는 것으로 알 고 있습니다.

 

들으면서 정말 제가 게임에 관심이 많은터라 시간가는 줄도 모르고 세션을 들었습니다. 물론 다른 세션들을 소홀히 들었다는 것은 아닙니다 ㅎㅎ 추후 저도 제 졸업 논문을 쓰고 시간이 허락한다는 전제, 가정하에 강화학습에 대한 연구 및 게임 AI 분야에 대해서도 한번 도전을 해보고 싶습니다.

 


 

그 다음 세션으로는 AI를 입문하시거나 연구하시는 분들은 모두 한번쯤 들어보셨거나 아실 (前) 고려대학교 컴퓨터학과 이자 () KAIST AI학과에 교수로 재직 중이신 주재걸 교수님의 session이 진행되었습니다. 주재걸 교수님은 거의 AI 필드에서 아이돌만큼이나 명성을 가지고 계시고 그만큼 public하게 대중에게 open된 강의도 많이 진행하신 분이기에 많은 분들에게 친숙하신 얼굴입니다. 저또한 주재걸 교수님의 선형대수 강의를 온라인으로 들은 적이 있었는데 저가 대학원 입학 준비를 하는데 있어 많은 도움이 됬습니다. 

 

주재걸 교수님의 Session에서 핵심 topic은 GAN입니다. 연구실 세미나에서도 GAN에 대한 내용을 잠시 접했던 경험이 있었는데 이번 세션을 통하여서 또 다른 시각을 바라볼 수 있었던 점이 인상적이였습니다. 그 다른 시각을 구체적으로 말씀드리자면 User's perspective 즉 사람, 사용자들의 관점에서 바라보는 점입니다. GAN 모델의 ouput 결과에 대해서 사람,유저들의 평가로 evaluation을 진행하여 정량적인 평가를 한다는 점이 신선하였습니다.

 

데이터를 기반으로 정량적인 평가 및 연구를 진행하는 점에 개인적으로 저를 Data science, AI분야로 이끌어준 motivation 중 하나여서 정말 흥미로운 세션이였습니다. 일단 주재걸 교수님은 주어진 2시간을 정말 시간 가시는 줄도 모르고 꽉꽉 알차게 채우셔서 세미나를 진행하셨습니다. 덕분에 이 세미나가 정말 값어치를 매길 수 없을 만큼의 참여 동기를 주었고, 또 한번 오프라인으로 참석하기 잘했다는 점을 시사해준 시간이기도 했습니다. 

 

 

또 한가지 놀라웠던 점 중 하나는 주재걸 교수님이 연구하신 colorization(채색)을 하는 연구가 저의 눈길을 끌었습니다.  위와 같은 연구가 우리가 일상생활에 흔히 접하는 활력소 같은 존재 웹툰 분야에서도 적용되는 점을 보고 한가지 생각이 주마등처럼 머리를 스치고 지나갔습니다.

 

어떤 생각이 들었을까요?ㅎㅎ 바로 Business 도메인적으로 profit을 낼 수 있다는 점과 웹툰 작가들이 겪는 고충 및 need를 충족시켜줄 수 있는 비즈니스 모델이라는 생각이 들었습니다. 이 인사이트를 보고 창업 아이디어가 떠오른 분은 커피 기프티콘을 쏴주시면 감사하겠습니다 ㅎㅎ. (농담입니다~)

 

 

주재걸 교수님의 세션또한 정말 빠르게 시간가는 줄 모르고 지나갔고 정말 위에서도 말했듯이 유료강의 못지 않은 고퀄리티의 세미나였습니다. Image captioning 분야에서도 GAN의 적용 사례를 한번 찾아보고 싶다는 생각이 들면서, 저의 TODO 리스트 책장의 한켠에 또 다른 퀘스트 쌓였습니다.

 

 


 

 

여름에 연구 주제 및 공부를 하는데 방황하던 저에게 오아시스의 샘물같은 기회를 제공해주신 서울대학교 컴퓨터 공학부 교수님들과 AI 여름학교 기획자 분들에게 감사드립니다!! 내년 2021년에도 AI Summer 스쿨이 열린다고 하는데 2020년 겨울이나 방학때도 열리면 좋을 것 같다는 생각이 듭니다.

 

P.S 그리고 현장 참석자가 일정시간이상 교육 이수 및 세션 참가를 하면 수료증을 부여해도 성취감 면에서 고무적일 것 같고, 또한 기념품을 수여받는 다는 느낌이 들 것 같습니다.

 


 

3일동안 정말 알찬 세션들을 통해서 저또한 성장한 점을 확인할 수 있었습니다. 그리고 연구나 brainstorming을 진행하는데 있어서 많은 insight가 있었습니다.

 

 

 

아우스터리츠 전쟁

 

1805년 겨울에 프랑스의 나폴레옹의 군대는 아우스터리츠(Austerlitz, 현재는 체코의 남동쪽에 위치한 지역)라는 곳에서 오스트리아와 러시아 연합군과 대치하고 전투가 임박한 상태였습니다. 당시에 나폴레옹은 자신의 병력이 연합군보다 약 2만 명이 적은 상황에서, 연합군이 나폴레옹 군대의 옆쪽으로 공격하도록 유도한 후에, 연합군의 중앙을 공격하였습니다.

 

두개의 무리로 나누어진 연합군은 당황하여 도망가느라 바뻤고 나폴레옹의 군대는 각각의 남은 무리들을 공격하여서 대승을 거두었습니다. 약 3주후에 오스트리아는 나폴레옹과 조약을 맺고 프랑스에게 많은 땅을 내줌과 동시에 거액의 전쟁 보상금또한 지불하였다고 합니다.

 


 

 

 

2016년 미국 대통령 선거에서 승리한 도널드 트럼프 대통령또한 부통령인 마이클 펜스와 함께 분할 정복 전략으로 단기간에 많은 선거 유세를 소화하여 미국의 45번째 대통령이 되었습니다.

 


 

긴 글 읽어주셔서 감사합니다.

 

 

방학동안 항상 무언가 의미있는 스터디나 확실한 연구 주제를 정하는데 있어서 고민이 굉장히 많았습니다. 더불어 물리적인 시간이 많아지니 위에서 언급한 고민을 해결할 방안을 계속 모색하던 중이었습니다.

 


 

그러던 와중에 친구에게 서울대에서 AI 여름학교 프로그램 소식을 전해들었습니다. 우리가 즐겨보는 TV 프로그램이나 음악 패스티벌처럼 라인업이 정말 탄탄했고 연사 및 연구 세미나를 진행하는 커리큘럼 또한 양적으로나 질적으로 유료 세미나 및 학회 못지 않았습니다.

 

한편으론 이러한 연구, 교육 세미나를 무료로 제공한다는 점 살짝 놀라웠습니다.  

 

온라인으로도 동시에 생방송을 송출한다는 소식을 접하였지만, 오프라인에 무슨 일이 있어도 참석하기 위해서 참가해야 하는 이유를 그래도 고민을 하면서 한땀한땀 적었습니다.

 

그리고 온라인으로 듣게되면 아무래도 집중과 지식을 얻는 효율성 측면에서 많이 떨어지고, 논문의 초록들과 연구 내용들을 skimming 하면서 궁금한 점들이 산더미 같았습니다. 그리고 다른 motivation은 정말 개인적인 이유지만.. 사실 영상 강의로만 뵙고 저의 딥러닝 공부에 있어서 동기부여 및 시작점이신 교수님들의 얼굴을 직접뵈면서 세미나를 청취하고 싶었습니다.

 

딥러닝을 KMooc 온라인 교육 플랫폼을 통하여서 공부를 입문하였고, 그 중에서도 김건희 교수님의 '인공지능 기초' 과목을 들으면서 흥미를 높였고, 계속 이어서 이영기 교수님, 송현오 교수님, 강유 교수님의 강의들을 차례로 들어가면서 딥러닝과 데이터 마이닝 관련 공부를 점진적으로 진행해 나갔습니다.

결국에는 딥러닝에 대한 연구를 조금 더 심층있게 하고 싶어서, 대학원 진학에 motivation이 된 것은 김건희 교수님의 수업 덕분이였습니다. 또한 이전에 관심이 있었던 자연어처리 분야를 연구 및 공부를 하면서 CNN으로 text classification을 하는 task에 있어서 Yoon Kim 박사님의 논문을 인상깊게 읽어서 이번 서울대 AI Summer School 을 꼭 들어야 했습니다.

 


 

 

먼저 1일차(08/10/20)는 개인사정으로 인해서 온라인으로 세미나를 청취하였고, 2일차(08/11/20)인 오늘은 오전 session은 온라인으로 듣고 오후에 진행되는 황승원 교수님의 "Neural Language Models with Knowledge injection" 논문과 NLP 연구에 대한 세미나를 들었습니다. 이전에 고려대학교 강필성 교수님의 자연어 처리 관련 수업을 들은 덕분에 이해를 하는데 있어서 큰 어려움은 없었습니다. 물론 황승원 교수님이 쉽고 직관적으로 이야기를 풀어나가셔서 정말 흥미롭게 세미나를 청취하였습니다.

 

세미나를 들으면서 느꼈던 점은 제가 대학원생 연구자로써 고민했던 문제들이 교수님들의 연사를 들으면서 많은 부분 해결되었습니다. 자연어 처리에서의 Challenges, 문제점들에 대해서 예를 들어서 설명하시고 황승원 교수님이 바라보시는 시각또한 들으니 다른 관점에서도 생각할 수 있는 Insight를 주셨습니다.

 

황승원 교수님 세션 중 놀라웠던 점 중 하나는 Database(SQL)과 NLP의 연구를 같이 접목시켜서 시너지를 낼 수 있다는 점이 상당히 고무적이였습니다. 저가 여태까지 생각한 SQL은 웹서비스를 개발하는 관점에서 DB에서 서비스를 만들때 Query문을 날려서 필요한 정보를 가져오는 정도로만 여태까지 생각하고 있었습니다. 하지만 오늘 세미나를 통해서 Database와 NLP를 접목시키는 연구들 또한 관심이 생겨서 추후 논문 및 정보를 찾아보려고 합니다.

 

황승원 교수님이 던지셨던 질문 중에 굉장히 인상깊었던 것이 있었는데 "엄격한 level의 language modeling이 필요한가?"였습니다. 최근 pretrained model들이 자연어 처리에서 각광을 받기 시작하면서 NLU(자연어 이해)task에서 과연 BERT, GPT-3등이 자연어를 완벽하게 이해하는가에 대해서 의문, 의심이 생겼습니다. 황승원 교수님은 이러한 language model들이 얍삽하게 외워서 performance를 낸다는 다소 재밌는 의견또한 공유해 주셨습니다.

 


 

아 그리고 위에다가 정리는 하지 않았지만 제가 인상깊게 공부하였던 Yoon Kim 박사님의 온라인 세션은 모두 영어로 진행되었습니다. Yoon Kim 박사님의 영어실력은 거의 원어민(native tongue)과 다를 바가 없어서 부가적인 영어 listening 공부또한 같이 하였습니다. 추후에 Yoon Kim 박사님의 세션은 더 부가적으로 제가 공부한 내용과 같이 기록, 포스팅을 남길 예정입니다.

 


컴퓨터 공학부 연구 발표를 들으면서 송현오 교수님은 수학적으로 수식을 증명하시면서 설명하시는 점이 인상깊었고, 김건희 교수님은 제가 오늘 처음 들어본 continual learning 분야에 대해서 진행하신 연구를 통해 설명해주는 점이 인상 깊었습니다. 그리고 유튜브를 보면서 항상 자율주행의 원리와 연구에 대해서 궁금하였는데 이러한 지적 호기심을 해결해주신 이창건 교수님의 session 또한 정말 알찼습니다. 마지막으로 이영기 교수님의 모바일의 관점에서 진행한 딥러닝 연구는 제가 Kmooc에서 들은 강의에 지식을 더 업그레이드하는 경험을 할 수 있었습니다.

 


 

여름에 연구 주제 및 공부를 하는데 방황하던 저에게 오아시스의 샘물같은 기회를 제공해주신 서울대학교 컴퓨터 공학부 교수님들과 AI 여름학교 기획자 분들에게 감사드립니다!! 추후에도 이러한 세미나 및 session을 참관할 수 있는 기회가 주어졌으면 좋겠습니다.

 

 

오늘도 들었던 내용들을 정리하면서 내일의 세미나도 기대가 됩니다!

오일러(Leonhard Euler, 1707~1783)는 스위스의 수학자, 물리학자, 천문학자, 논리학자, 공학자로서 그래프의 창시자라고도 알려져 있습니다.

 


 

 

특히나 오일러의 등식들은 수학의 아름다움(?)을 표현하는 식으로 유명하게 알려져 있습니다. 이 식을 잘 살펴보면 영역이 다른 다섯 가지 수인 0,1(상수/constant), 자연상수 e (해석학), 원주율 π, 그리고 허수 i (대수학)가 모두 하나의 식에 포함되어 있으며, 수학의 가장 기초가 되는 4가지 연산인 곱셈, 지수, 그리고 등호가 모두 쓰인 책이기 때문입니다. 아인슈타인과 함께 20세기의 최고 물리학자로 불리는 리처드 파인만(Richard Feynman)은 이 식을 "수학에서 가장 비범한 식(the most remarkable formula in mathematics)"이라며 극찬하였습니다.

 


 

 

한편 1735년 프러시아의 쾌니히스베르크(현재는 러시아의 칼리닌그라드)에 위치한 프레겔 강 한가운데 섬 2개에 놓은 7개 다리가 있는데 주민들이 오일러에게 이 다리들을 빠짐없이 1번씩만 지나서 출발점으로 돌아올 수 있는지 물어보았습니다. 오일러는 그렇게 할 수 없다는 답변을 전달해 주었는데, 이 문제가 최초의 그래프 문제로 알려져 있습니다.

 

이 문제는 한 붓 그리기와 같은 문제이고, 오일러는 다리(그래프의 간선)를 한 번씩만 지나서 출발점으로 되돌아오려면 각 정점의 차수가 짝수여야 한다는 것을 증명하였습니다. 주어진 그래프에서 임의의 정점에서 출발하여 모든 간선을 빠짐없이 한 번씩만 지나면서 출발점으로 돌아오는 경로를 오일러 서킷(Euler Circuit) 또는 오일러 사이클이라고 합니다.

게임은 우리말로 '놀이, 오락, 경기' 등의 의미를 가지고 있습니다. 주변에서 흔히 보는 고전적 게임은 바둑, 장기, 포커가 있으며, 온라인 게임으로는 스타크래프트, 베틀 그라운드을 즐기며, 스포츠 게임으로는 골프, 축구, 야구 등이 있습니다.


 

1) 모든 게임에는 규칙이 있습니다. 규칙은 게임의 주체가 되는 경기자와 팀의 구성을 규정하며, 경기자들이 어떠한 순서로 게임을 할 것인가도 정하기도 합니다.

 

2) 게임에서는 전략이 중요하며 무엇보다도 상대방 전략에 관한 예측이 중요합니다.

3) 최종 결과와 그에 따른 보수가 있습니다. 예를 들어 바둑에서는 백이 이기거나, 흑이 이기든지 둘 중 한 쪽은 이기는 상황이 발생합니다. 승자에게는 우승상금과 광고 출연료등 다양한 보수 및 혜택이 있을 것입니다. 이러한 보수를 경제적 가치로 환산한 값이 승자가 얻게 되는 보상 혹은 보수(payoff)입니다. 반면에 패자에게 주어지는 약간의 상금, 패배로 부터 오는 상실감등은 경제적 가치로 환산하면 패자가 얻는 보수라고 볼 수 있습니다. 당연히 게임 참가자인 경기자는 자기자신의 보수를 극대로 추구하는 데 목표를 두게 됩니다.

4) 게임의 결과는 경기자들간의 전략적 상호작용에 의해 결정됩니다. 예를 들면 월드컵 축구 경기에서 한국 대표팀이 아무리 뛰어나더라도 상대팀 전략이 더 뛰어나면 한국 대표팀이 패배할 가능성이 높습니다. 반대로 한국 대표팀이 아무리 형편이 없더라도 상대방의 실력이 떨어지거나 경기 중에 실수를 계속한다면 한국 대표팀은 이길 수 있을 것입니다.


 

게임이론은 서로간의 전략이 상호 작용하여 시장 점유율, 순이익, 기업퇴출 여부 등 일상생활에서도 적용이 됩니다. 이외에도 우리의 주변의 게임 사례들은 수도 없이 많습니다. 전문 경영인이 주주의 이익에 반하여 개인이 이득을 취하는 도덕적 해이, 보험회사가 의료보험가입자의 건강상태나 과거병력을 알기 어렵기 때문에 발생하는 역선택 문제등 비대칭 정보로 인하여 발생하는 주인-대리인 문제도 모두 게임의 범주 안에 있다고 볼 수 있습니다. 우리는 이처럼 경제, 정치외교, 기업경영등등 의식적이든 무의식적이든 늘 게임의 상황에 직면하고 있습니다.

따라서 인간 행태와 경제사회 현상을 파악하는데 있어서 게임에 대한 이해는 그만큼 중요하고, 게임을 이해하기 위해서 게임의 특징을 체계화한 것이 게임이론(Game Theory)입니다. 게임이론은 우선 전략적 상호작용(strategic interactions)이 존재하는 상황에서 개인의 전략 또는 행동이 초래하게 될 결과에 대한 모형을 세웁니다. 그렇게 모형화된 게임에서 경제인이 상대편의 대응전략을 고려해가면서 자기의 이익을 효과적으로 달성하기 위해 어떠한 전략을 선택할 것인가 분석을 합니다.

그러한 분석결과를 바탕으로 갖가지 경제사회 현상을 설명할 수 있고 더 나아가서는 게임이론은 개인의 전략이 초래하게 될 결과 중 가장 바람직한 결과를 얻기 위해서는 어떠한 전략을 선택해야 할 것인가 제시하는 실용적인 기여도 하게 됩니다.

+ Recent posts