728x90

AI/K-Digital Training 36

025. 합성곱 오토인코더 아싸 좋구나

오늘은 합성곱 오토 인코더를 구현하는 수업을 들었습니다. 저번 글에서 오토 인코더에 대한 이야기를 하며 잠깐 언급했는데 저번에 이야기했던 오토 인코더에 CNN 아이디어를 도입한 신경망입니다. CNN은 미국의 뉴스 채널이 아니라 Convolutional Neural Network입니다. CNN은 ResNet이나 SENet을 예로 보면 이미지 학습에 탁월해서 사람보다 이미지 분류 능력이 뛰어나게 학습도 가능합니다. 이런 이유로 CNN은 이미지 학습에 좋은 성능을 내지 못하는 오토 인코더와 같이 쓰면 오토 인코더의 이미지 학습 성능이 좋아집니다. 오토 인코더의 구조는 인코더와 디코더로 이루어져 있다고 저번에 이야기했었는데요. 적층으로 구성될 때는 이 구조가 대칭이어서 인코더에서 뉴런이 줄었다면 디코더에서는 뉴..

024. Autoencoder라는 높은 벽

사실 다른 모델들과 비교하면 Autoencoder를 높은 벽이라 부르기 어렵습니다. 오히려 쉬운 편이라고 볼 수 있습니다. 그런데 제가 어렵게 느꼈습니다. 그러면 개인적으로는 높은 벽이라 부를 수 있겠죠.. 오토 인코더는 기본적으로 비지도 학습이라고 봅니다. 그 이유는 따로 레이블 되어 있지 않기 때문이죠. 레이블이 없는 문제는 보통 지도 학습이라고 보지 않습니다. 오토 인코더는 latent representation(잠재 표현)이 입력 데이터의 밀집 표현을 학습하는 인공 신경망입니다. 또는 입력 데이터의 패턴을 학습해 비슷한 데이터를 생성해내는 알고리즘이라고 보면 됩니다. 그래서 입력 데이터를 차원 축소해 낮은 화질의 이미지를 생성하거나 오토 인코더 그 자체로 feature-extraction 하는 알..

023. 오마이갓.. 오토인코더

오늘의 강의는 RNN과 Auto-Encoder를 배우는 것이었습니다. 정확히는 RNN과 Auto Encoder를 코랩에서 구현하는 것이었는데 아주 멘붕이 제대로 왔습니다.. CS231n에서 RNN에 대해 꽤 자세히 설명해줘서 전날에 복습했지만 파이썬으로 구현하는 일은 완전히 다른 일이었습니다. 다시 한번 아주 높은 벽에 부딪힌 기분이 듭니다. 어제 같은 과정을 참여하는 수강생들의 블로그들을 공유하는 기회가 있었습니다. 다른 사람들의 글들을 보니 나 혼자 꽤 많이 뒤처져있다는 느낌도 많이 들었습니다. 원래 계획은 과정 중에 배운 내용들을 포스트하는 식으로 운영할 계획이었습니다. 이런저런 핑계로 미루다 보니 딥러닝을 배우고 있는 순간에 회귀, 분류에 대한 글을 올리고 있습니다. 그리고 데이터 사이언티스트가 ..

022. 지도 학습에서 회귀 문제와 분류 문제에 대한 이야기

AI 교육계의 거장이며 저의 스승이신 김용담 선생께서 꽤 긴 시간을 들여서 회귀 문제와 분류 문제 구분의 중요함을 설파하셨습니다. 그 이유는 회귀인지 분류인지 구분이 되어야 문제에 맞는 데이터를 분석하고 모델을 고를 수 있기 때문입니다. 회귀 문제라면 선형 회귀 알고리즘(모델)을 사용하고, 분류 문제라면 의사결정 나무 알고리즘(모델)을 사용하겠죠. 수험생이 문제를 알아야 시험을 풀 수 있는 것처럼요. 분류의 경우는 직관적으로 어떤 문제인지 감을 잡기 쉽습니다. 남자, 여자 맥주, 와인 고양이, 강아지, 코끼리, 쥐, 호랑이 코로나 바이러스 검사 결과의 양성, 음성 여부 규칙으로 정해진 기준에 따라 종류를 구분하는 문제라고 생각하면 쉽습니다. 회귀 문제는 약간 생소한 단어지만 연속적이고 높낮이가 있는 단어..

021. 9월 월간 리뷰(JD 작성하며 느낀 현타)

이제 K-Digital Training에 합류한 지 두 달이 넘어갑니다! 2개월 이상 배웠지만 지금까지 뭘 했지 고민해보면 아쉬움이 밀려옵니다.. 특히 오늘 새벽 아쉬움이 강하게 밀려오게 하는 계기가 있었습니다. 난생처음 해보는 JD를 하면서 이 세상은 날 원하지 않나 봐.. 내지는 나는 너무 준비가 안 되어있어.. 이런 생각들이 밀려왔습니다. 물리적으로 불가능에 가까워 보이는 신입의 권장 스펙이지만.. 하나도 해당되는 부분이 없어서 더 그렇습니다. 커리큘럼의 절반이 가까워지자 슬슬 커리어 서비스가 시작합니다. 커리어 서비스에서 진행하는 일 중에 JD라는 게 있습니다. 저는 취준을 처음하다보니 익숙하지 않은 단어였습니다. Job Description 의 줄임말이라고 하는데 취업하려고 하는 Job의 필요한..

020. 머신러닝의 종류

사실 머신러닝의 종류에 대한 개념은 모르는 사람은 거의 없겠지만 제 복습용으로 한 번 읊고 지나가겠습니다. 머신러닝은 Supervised Learning(지도 학습) Unsupervised Learning(비지도 학습) Reinforcement Learning(강화 학습) 크게 이 세 가지로 나뉩니다. Supervised Learning은 label이 있는 학습 종류입니다. label이란 쉽게 이야기하면 문제의 답이고 지도 학습은 답이 있는 문제를 학습시키는 머신러닝의 한 종류입니다. 그리고 나머지 두 종류의 머신러닝과는 다르게 외부의 지도가 필요한 머신러닝 방법입니다. 지도 학습의 문제는 회귀(Regression)와 Classification(분류) 두 가지로 나뉩니다. 지도 학습 알고리즘은 Linea..

019. 딥러닝을 배우기 시작하면서 느낀 머신러닝 공부의 심오함

저는 요즘 딥러닝을 배우고 있습니다. 물론 추석 연휴라 한 주 공부를 소홀히 했습니다만 퍼셉트론, 역전파 알고리즘, ReLU, CNN, RNN 등등 난생처음 들어보는 단어들과 머리를 싸매고 씨름 중입니다. 세계적인 석학들이 고안한 지 몇 년 안 된 개념들을 보니 얼마 전까지 배웠던 머신러닝 개념들(선형 회귀, knn, Decision Tree 등등)이 원시적으로 느껴집니다. 그러는 동시에 결국은 딥러닝도 머신러닝의 일부며 기본적인 핵심 개념들은 그대로 이어진다고 느껴집니다. https://youtu.be/HcqpanDadyQ 위 링크의 유튜브 영상은 배우기 전에는 그냥 설명처럼 느껴졌지만 조금 알고 보면 핵심을 꿰뚫는 명강의로 느껴집니다. 이 영상은 복잡한 수식을 인용하지 않지만 결론적으로 중요한 내용은..

018. Kaggle Project 후기 머신러닝 포스트 계획 이야기

블로그 업로드를 자주 하려고 했건만 또 할 일에 휩쓸리는 바람에 블로그에 들리지 못했습니다. KDT 과정상 저번 주 내내 Kaggle Project에 참여하게 됐습니다. 이 프로젝트는 우리가 이번에 배운 머신러닝을 실질적으로 사용해 유의미한 결과를 만드는 것이었습니다. 어제서야 드디어 제출하고 대충 마무리를 했는데요. 아이언맨이 '걸음마 떼기 전에 뛰어야 하는 법이야'라는 말을 했듯 아는 것 없이 하나하나 찾아가며 프로젝트를 해보니 참 많이 배웠습니다. 프로젝트를 직접해보니 선생님이 모델의 원리보다 중요한 게 회귀와 분류의 구분, 그리고 평가지표라고 하신 말씀을 이해하게 되었습니다. 분류, 회귀 그리고 평가지표 등만 알아두면 찾아가면서 프로젝트를 진행하는 게 가능했습니다. 그리고 프로젝트 마무리 후 원리..

017. 머신러닝에 대해 이야기하기 전 AI에 관한 대략적인 이야기

머신러닝을 정신없이 배우다가 현타가 온 적이 한두 번이 아닙니다. 이걸 왜 배우고 있지? 이거랑 AI랑 무슨 관계가 있는거지? 실제 머신러닝을 배우다 보면 이게 상상하던 AI 모습에 비해 원시적으로 보입니다. 결국 머신러닝의 늪에 빠져있다가 겨우 빠져나와서 지도를 한번 펼쳐 보게 되었습니다. 위 그림을 보면 위에서 말한 내용이 무슨 뜻인지 이해가 가실 것입니다. 미디어에서 이야기하는 AI는 사실 정확하게 이야기하면 딥러닝에 가깝다고 해석할 수 있겠습니다. 40년 전에 나온 이론을 공부하면 알파고의 원리와 큰 상관이 없는 것이지요. 그래서 현타를 방지하려면 이런 큰 그림을 봐야 합니다. 일단 머신러닝에 대해 이야기하려면 AI에 대해 이야기해야 합니다. AI(Artificial Intelligence)는 말..

016. 머신러닝 공부 시작 소감 및 반성문

제가 이 블로그에 들리지 않은 지 거의 보름이 되어 갑니다. 그 이유는 머신러닝을 배우느라 다른 것을 할 여유가 없었기 때문이지요. 이렇게 제가 쓰면서도 변명처럼 읽히네요.. 엣헴.. 머신러닝이라는 친구가 이렇게 복잡하고 심오한 학문인 줄은 몰랐습니다. 시작하자마자 선형대수학을 들고 와서 알아들을 수 없는 말을 늘어놓으시고.. 통계학을 들고 와서는 또 난생처음 들어보는 단어들을 늘어놓으시더라고요. 이건 마치 울창한 열대우림을 헤치고 가느라 내가 어디로 가는지 가능도 못하는 그런 상황과 비슷했습니다. 그래도 커리큘럼에 끌려다니면서 주워들은 이야기도 있고 저 나름대로 깨달은 것도 있으니 이런 것들 위주로 공유해볼까 합니다. 이번 K-Digital Training 커리큘럼상에 있는 수업이 제 수준에 안 맞게 ..

728x90
반응형