coursework19 SP24) Random Variable IV 도대체 확률변수 언제까지...😇 MLDL 수업이랑 겹치는 내용이 많아 다행스럽다고 생각했는데, 이 내용들이 통신 이론에서 활용된다고도 하네요?! 마침 신호 및 시스템을 듣고 있는 블로그 주인장.. ㄴ@0@ㄱ 아무래도 전공 3-4학년 수업들은 내용이 많이들 겹치는 것 같습니다. 자자 딴소리 그만하고 오늘 공부할 게 많으므로 얼른 복습 기~ Expectations (Contd.) 사실 지난 포스트에 기댓값에 대한 내용을 얼마나 다뤘는지 기억이.. 가물.. ㅋㅋ 그래서 'contd.'라고 쓰기가 좀 민망하지만 일단 넘어가죠^^ 오늘 다룰 기댓값에 대한 내용은 1) 조건부 기댓값과 2) 추정!입니다. 사실 이 포스트 전체에 걸쳐서 추정 얘기만 하다 끝날 수도ㅋㅎ.. 조건부 독립은 쉽습니다. 그냥 조건부 독립이에.. 2024. 3. 30. SP24) Linear Regression 1 톰 미첼 교수님은 수업에서 이걸 거의 다루지 않아서 손진희 교수님의 수업 내용만 담았습니다. 아 그리고 Stanford의 Andrew Ng 교수님이 2018년에 진행하신 Machine Learning 강의를 쬐애애애끔 참고했습니다ㅋㅋ 한.. 20분 들었나ㅋㅋ Gradient Decent 전까지 들었으니까 15분쯤 되겠네요^_^ Regression을 분류과제에 사용한다고 하면, 특히 이항형(binary)일 경우에는 음.. class A일 확률이 0.5 이상이면 A로 분류하는 느낌? 제 기억으론 logistic regression이 이런 느낌이었던 거 같은데요, 교수님이 딱히 강의에서는 무어라 언급하질 않았습니다. 반면에 응 교수님은 대번에 housing 예시를 들고 오셨어요. 이를테면, $X_1$이 안방 .. 2024. 3. 28. SP24) Random Variable III ㅋㅋ 이제 슬슬 어지러워지기 시작했음 오늘 다룰 내용은 기댓값, $E$에 관한 내용입니다. 정확히 말하면 moment라는 개념! Expected Value 일단 moment가 무엇인지 알기에 앞서 쉬운 것부터 이야기해보자구요. 기댓값이 무어냐~ 우리가 다른 말로 평균이라고 부르죠! 어떤 Random variable $X$와 그 확률 $P(X=x)$에 대해, 기댓값 $E[X]$는 다음과 같이 정의합니다. \begin{equation}\label{eq1} E[X] = \sum_{x\in S_x} x P(X=x) \tag{1.a} \end{equation} $\ref{eq1}$는 이산형이구요, 그럼 연속형은?! \begin{equation}\label{eq2} E[X] = \int_{-\infty}^{\inf.. 2024. 3. 27. SP24) Naive Bayes Classifier 2 *이 포스트는 80% 정도는 CMU의 10-601; Machine Learning (by Prof. Tom Mitchell) 강의를, 20% 정도는 GIST의 EC4213 Machine Learning & Deep Learning (by Prof. 손진희) 강의를 참고하고 있습니다. 아 Naive Bayes의 중요성을 새삼 실감하는 강의 편성... 장장 4시간 가량의 강의가 모두 naive bayes입니다... 오늘은 거두절미하고 예시부터 바로 살펴보도록 하겠음 Text Classification, "Bag of Words" Model 수업에서 아마 제일 많이 등장하는 자연어 처리 (Natural Language Processing, a.k.a NLP) 관련 예시가 이게 아닐까 싶음 그 중에서도 제일 많.. 2024. 3. 24. SP24) Fundamentals of Signals & Systems 어차피 교수님 뭐 티스토리 같은 거 찾아보지도 않으실 테니까 불평불만해도 되겠죠..? 아니 무슨 수업을 맨날 막 15~30분 일찍 끝내면서 fundamental 부분을 3주 동안 나갈 수가 있나요?! 우리는 이걸 날먹 미디움레어..라고 부르기로 했어요ㅜㅜ 아무튼 그래서 여태 복습을 미루다가 오늘 수업 듣고 위기를 느껴^^ 허둥지둥 복습하는 3주치 신시 수업내용! 교재는 Oppenheim 교수님의 Signals & Systems 2nd ed.을 참고했습니다. Continuous vs. Discrete 앞으로 우리가 보게 될 그래프의 꼴은 다음 두 개입니다. 이산형(discrete)와 연속형(continuous)! 아 그리고 깜빡한 게 있네요.. 이쯤에서 앞으로 제일 많이 활용될 두 pseudo-functi.. 2024. 3. 22. SP24) Naive Bayes Classifier 1 베이즈 진짜 평생 보겠구나.. 하기사 지금 사용하는 인공지능 모델이 전부 확률 모델이기 때문에 새로운 패러다임이 도래하지 않는 이상 어쩔 수 없겠다는 생각이 드는군요~.~ 그나저나 쿤의 과학혁명 묘사에 따르면 곧 확률 모델이 가진 한계가 슬금슬금 등장하는, 패러다임의 위기가 올 텐데 과연... 베이즈 정리는 제가 이 블로그를 개설하기 전에, 원래 캐주얼한ㅋㅋ 포스트 작성할 때 애용하는 제 네이버 블로그에 MLE/MAP를 정리하며 꼼꼼히 올려뒀습니다. 민서야 제발 복습 좀이건 7강이야요 자 암튼 베이즈 정리도 알고 MAP가 Bayesian Learning이라는 것도 이제 안다! 지난번에 배웠던 내용들은 전부, 모델이 분류 과제에서 Posterior 확률, 즉 데이터 관측 후 그 데이터를 설명하는 최적의 .. 2024. 3. 20. 이전 1 2 3 4 다음