AI\ML\DL
-
3๏ธโฃ Pytorch ๊ธฐ์ด_boolean ์ธ๋ฑ์ฑAI\ML\DL/Pytorch 2023. 7. 6. 21:43
1) Boolean ์ธ๋ฑ์ฑ torch์์ boolean ์ธ๋ฑ์ฑ์ ํ์ฉํ๋ฉด ๋์ค์ transformer ๋ง์คํน ๋ฑ์ ํ ๋ ๋งค์ฐ ์ ์ฉํ๊ฒ ์ฐ์ผ ์ ์๋ค๊ณ ํ๋ค. boolean์ ์ฌ์ฉํ๋ฉด True ์ธ ์ฑ๋ถ๋ง์ ๊ฐ์ ธ์์ ์๋ก์ด ํ๋ ฌ์ ๋ง๋ค ์๋ ์๋ค. A[B,:]: B์ ๊ฐ ์์์ ๋์ํ๋ ์์น์ ์๋ A์ ํ์ ์ ํํ์ฌ ์๋ก์ด ํ ์๋ฅผ ์์ฑํ๋ค. B์์ True ์ ํด๋นํ๋ ์์น์ ์๋ A์ ํ๋ค์ ์ ํํด์ ์๋ก์ด ํ ์๋ฅผ ๋ง๋ ๋ค. A=torch.tensor([[1,2],[3,4],[5,6],[7,8]]) print(A[ torch.tensor([[False,True],[False,False],[False,False],[False,False]]) ]) print(A[A==2]) print(A[ [True,Fal..
-
2๏ธโฃ Pytorch ๊ธฐ์ด_์ธ๋ฑ์ฑ๊ณผ ์ฌ๋ผ์ด์คAI\ML\DL/Pytorch 2023. 7. 6. 19:06
1) 1์ฐจ์ ํ๋ ฌ์ ๋ํ ์ธ๋ฑ์ฑ๊ณผ ์ฌ๋ผ์ด์ฑ ๊ธฐ๋ณธ์ ์ผ๋ก torch์ ์ธ๋ฑ์ฑ๊ณผ ์ฌ๋ผ์ด์ฑ์ ๋ฆฌ์คํธ์ ๋์ผํ๊ฒ ์งํ๋๋ค. ์ฐ์ a[ ] ๋ก a ์์ ๋๊ดํธ๋ฅผ ์ด์๋ค๋ ๊ฒ์ a๋ผ๋ ๋ณ์์ ๋ํด์ ์ธ๋ฑ์ฑ์ ํ ๊ฒ์์ ๋ปํ๋ค. ํ ์๊ฐ 1๋ถํฐ 9๊น์ง์ ์ฐ์์ ์ธ 1x9 ํ๋ ฌ์ด๋ผ๊ณ ํ ๋, ์ฒซ ๋ฒ์งธ๋ถํฐ ์์๋๋ก ์ธ๋ฑ์ฑ์ 0์์ ๋ง์ง๋ง๋ฒ์งธ 8 ์ด์ ๊น์ง๋ก ์ธ๋ฑ์ค๊ฐ ์ง์ ๋๋ค. (ํ์ด์ฌ์์ ์ฌ๋ผ์ด์ฑ์ ํ ๋, ์์ ์ธ๋ฑ์ค๋ ํฌํจ๋๊ณ ๋ ์ธ๋ฑ์ค๋ ํฌํจ๋์ง ์๋ ๋ฒ์๋ก ์ง์ ๋๋ค.) ๋ฐ๋ผ์ ์ธ๋ฑ์ค 7์ 8๋ฒ์งธ ์ซ์์ด๊ณ , ์ธ๋ฑ์ค 7๊น์ง ์ฌ๋ผ์ด์ฑ์ ํ๋ฉด 8๋ฒ์งธ ์ซ์ ์ ๊น์ง๊ฐ ์ถ๋ ฅ๋๋ค. 2) 2์ฐจ์ ํ๋ ฌ์ ๋ํ ์ธ๋ฑ์ฑ๊ณผ ์ฌ๋ผ์ด์ฑ A๋ 3x3 ํ๋ ฌ ํ๋๋ก ์ด๋ฃจ์ด์ง 2์ฐจ์ ํ ์ (ndim=2) A([0][2]): 0๋ฒ์งธ ํ์ 2๋ฒ์งธ ์์ A(..
-
1๏ธโฃ Pytorch ๊ธฐ์ด_numpy์ ๋ฎ์ torchAI\ML\DL/Pytorch 2023. 7. 6. 18:11
Pytorch๋ ๊ธฐ๋ณธ์ ์ผ๋ก Numpy ๋ชจ๋๊ณผ ์ฌ์ฉ๋ฒ์ด ๋งค์ฐ ๋ฎ์์๋ค. Numpy ์ ํจ์์ ๋์๋๋ pytorch ์ ํจ์๋ค์ด ๊ฝค ์๋๋ฐ ์๋ฅผ ๋ค๋ฉด np.array ๋ torch.tensor ์ ๊ฐ๋ค. ํ์ง๋ง ํฐ ์ฐจ์ด์ ์, ๋ฆฌ์คํธ๋ฅผ ์์ฑํ๋ numpy ์ ๋ฌ๋ฆฌ torch๋ ํ๋ ฌ์ ์์ฑํ๊ธฐ ๋๋ฌธ์ ๊ฐ ํ์ ํด๋นํ๋ ์ซ์์ ๊ฐ์๊ฐ ๊ฐ์์ผ ํ๋ค. ์์์ torch๋ 2ํ 3์ด ํฌ๊ธฐ์ ํ๋ ฌ์ ๋ง๋ค์๋ค. ์ด๋ torch๋ฅผ ์ฌ์ฉํด์ numpy์ฒ๋ผ torch.tensor([1,2],[3,4,5]) ์ ๊ฐ์ด ์ด๋ค๋ฉด ์ฒซ ๋ฒ์งธ ์ด์ 2๊ฐ์ ์์๋ฐ์ ์์ด์ ๋ ๋ฒ์งธ ์ด๊ณผ ํ ๊ฐ์๊ฐ ๋ค๋ฅด๊ธฐ ๋๋ฌธ์ ์ค๋ฅ๊ฐ ๋๋ค. A.shape: ํ๋ ฌ(ํ ์)์ ํฌ๊ธฐ A.ndim: ํ ์์ ์ฐจ์์ ์ (๋ฐ๊นฅ์ ๋๊ดํธ ๊ฐ์) A.size(): ํ๋ ฌ(..
-
Super resolution (SR) techniqueAI\ML\DL/๋ ผ๋ฌธ ๋ฆฌ๋ทฐ 2023. 6. 17. 17:46
Super Resolution ์ ํด์๋ (Low Resolution, LR) ์์์ผ๋ก๋ถํฐ ๊ณ ํด์๋ (High Resolution, HR) ์์์ ์์ฑํ๋ ๊ธฐ์ ์ด๋ค. ์ ํด์๋ ์ด๋ฏธ์ง๋ ํด์๋๊ฐ ๋ฎ์ ์ธ๋ถ ์ ๋ณด๊ฐ ํ๋ฆฟํ๊ฑฐ๋ ์์ค๋๋ ๊ฒฝํฅ์ด ์๋๋ฐ, ์ด๋ฌํ ์ ํด์๋ ์ด๋ฏธ์ง๋ฅผ ๊ณ ํด์๋ ์ด๋ฏธ์ง๋ก ๋ณํํ๊ฑฐ๋ ๋ณต์ํ์ฌ ๋ ์ ๋ช ํ๊ณ ์ธ๋ถ์ ์ธ ์ ๋ณด๋ฅผ ํฌํจํ๋ ์ด๋ฏธ์ง๋ฅผ ์์ฑํจ SR ์ ํฌ๊ฒ ํ๋์ ์ด๋ฏธ์ง๋ฅผ ์ด์ฉํ๋์ง, ์ฌ๋ฌ ์ด๋ฏธ์ง๋ฅผ ์ด์ฉํ๋์ง์ ๋ฐ๋ผ Single Image Super Resolution (SISR), Multi Image Super Resolution (MISR) ๋ก ๋๋๋๋ฐ, ์ฃผ๋ก SISR์ ๋ํ ์ฐ๊ตฌ๊ฐ ์ฃผ๋ฅผ ์ด๋ฃฌ๋ค. Super resolution ๊ธฐ์ ์ ์ฃผ๋ก ๋ค์๊ณผ ๊ฐ์ ๋ฐฉ๋ฒ์ผ๋ก ๊ตฌํ๋ ์ ์๋ค. 1...
-
2D convolution (Conv2d) ๊ณผ์ ์ ์ดํดAI\ML\DL/Deep learning theory 2023. 5. 28. 14:33
* * * RGB 3๊ฐ ์ฑ๋์ ๊ฐ์ง ์ ๋ ฅ ์ปฌ๋ฌ ์ฌ์ง์ด ์์ ๋, ์ ๋ ฅ์ ํฌ๊ธฐ๋ฅผ 3x7x7 ์ด๋ผ๊ณ ํ์. (3์ ์ฑ๋ ๊ฐ์) ์ด๋ ํํฐ (์ปค๋) ์ ํฌ๊ธฐ๊ฐ 3x5x5 ์ด๋ฉด ํํฐ ์ข ๋ฅ 2๊ฐ์ง๋ฅผ ํต๊ณผํ์ ๋ output feature map ์ด ๋์ค๋ ๊ณผ์ ์ ์๋ ๊ทธ๋ฆผ๊ณผ ๊ฐ๋ค. ์ปค๋์ ํตํด ์ ๋ ฅ ์ด๋ฏธ์ง๋ฅผ ์ญ ์ค์บํ๋ฉด์ ํจํด์ ๋ํ๋ด๋ feature map ์ ์ถ๋ ฅํ๋ค. (์ปค๋ ์์ ๊ฐ์ weight์ bias ์ด๊ณ ํ์ต ํ๋ผ๋ฏธํฐ์ด๋ค.) ์ด๋ ์ปค๋์ (์ฑ๋)๊ฐ์๋ ํญ์ ์ค์บํ๋ ์ ๋ ฅ ์ด๋ฏธ์ง์ ์ฑ๋ ๊ฐ์๋ฅผ ๋๊ฐ์ด ๋ฐ๋ผ๊ฐ์ผ ํ๋ฏ๋ก ๊ณ ์ ์ด๋ค. ์ถ๋ ฅ๋๋ feature map์ spatialํ ํฌ๊ธฐ๋ ์ปค๋์ด ์ด๋ํ๋ ์นธ์์ธ stride ์ ๋ฐ๋ผ ๋ฌ๋ผ์ง๋ฏ๋ก, ์ปค๋ ์ฌ์ด์ฆ์ stride ์ ์์กดํ๋ค. ๋ง์ฝ stride๊ฐ (..
-
Batch NormalizationAI\ML\DL/Deep learning theory 2023. 5. 11. 23:09
ํ์ฑํ ํจ์ ReLU ๋ Sigmoid ํจ์์ ๋ฏธ๋ถ๊ฐ์ด ์์์ gradient ๊ฐ์ด ์ ์ฐจ ์๋ฉธํ๋ vanishing gradient ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด sigmoid ๋ฅผ ๋์ฒดํ ํจ์์ด๋ค. ํ์ง๋ง ReLU ๋ฅผ ์ฌ์ฉํด๋ ํญ์ vanishing gradient๊ฐ ํด๊ฒฐ๋๋ ๊ฒ์ ์๋๋ค. ์ด๋ ๋ฐ์ดํฐ์ ๋ถ์ฐ๊ณผ ๊ด๋ จ์ด ์๋ค. Batch-size๋ฅผ 5๋ผ๊ณ ํ๊ณ ํน์ ๋ ธ๋์ ์ ๋ ฅ ๋ฐ์ดํฐ๊ฐ ๋ค์ด๊ฐ๋ค๊ณ ํ์๋, Activation Function์ผ๋ก ๋น์ ํ ํจ์์ธ ReLU ํจ์๋ฅผ ์ฌ์ฉํ๋ค๊ณ ํ์. ๋ฐ์ดํฐ๊ฐ ์ ๋ถ ์์๋ก ๋ค์ด๊ฐ๋ค๋ฉด? Linear activation ์ฒ๋ผ ๋ณด์ฌ์ non-linearlity๋ฅผ ๋ชป์ด๋ฆฌ๋ ๋ฌธ์ ๊ฐ ์๋ค. (vanishing gradient๋ ํด๊ฒฐํ๋ค๊ณ ํด๋) ๋ฐ์ดํฐ๊ฐ ์ ๋ถ ์์๋ก ๋ค์ด๊ฐ๋ค๋ฉด? ๋ฏธ๋ถ๊ฐ..
-
์ด์ง๋ถ๋ฅ์์ Maximum Likelihood Estimation (MLE)AI\ML\DL/Deep learning theory 2023. 5. 10. 17:24
[์ด์ง ๋ถ๋ฅ๋ฌธ์ ์์ MLE ๋ฅผ ์ฌ์ฉํ๋ ์ด์ ] ๋ก์ง์คํฑ ํ๊ท ๋ชจ๋ธ์์ 0๊ณผ 1์ฌ์ด์ ํ๋ฅ ($q$) ์ ์์ธกํ์ฌ ๊ฐ์์ง์ ๊ณ ์์ด๋ฅผ ๋ถ๋ฅ๋ฅผ ํ๋ค๊ณ ํ์. ์๋ฅผ ๋ค์ด ๋ชจ๋ธ์ด ๊ฐ์์ง๋ฅผ ์์ธกํ๋๋ก ํ๋ ค๊ณ ํ๋ค๋ฉด, ๋ก์ง์คํฑ ํ๊ท ๋ชจ๋ธ์ ์ถ๋ ฅ๊ฐ์ธ ๊ฐ์์ง์ผ ํ๋ฅ $q$ ๋ฅผ ํค์ฐ๋ ๊ฒ์ด ํ์ต์ ๋ชฉ์ ์ด๋ค. ๋ฐ๋๋ก ๊ณ ์์ด๋ฅผ ์์ธกํ๋ ค๋ฉด, ๋ก์ง์คํฑ ํ๊ท ๋ชจ๋ธ์ ๊ณ ์์ด์ผ ํ๋ฅ $1-q$ ๋ฅผ ํค์ฐ๋ ค๊ณ ํ ๊ฒ์ด๋ค. ํ๋ฅ ๊ฐ q๋ ์ ๋ ฅ๊ฐ$\times $๊ฐ์ค์น์ ์๊ทธ๋ชจ์ด๋๋ฅผ ๊ฑฐ์ณ ๊ณ์ฐ๋ ๊ฐ์ด๋ฏ๋ก ๊ฐ์ค์น w์ ๋ํ ํจ์๋ก๋ ๋ณผ ์ ์๋ค. ์ด๋ ๋ชจ๋ธ์ ๊ฐ์ค์น w๋ฅผ ์ถ์ ํ๊ธฐ ์ํด์ ์ต๋์ฐ๋์ถ์ ๊ธฐ๋ฒ์ ์ฌ์ฉํ๋ค. ์ฆ, q ๋๋ 1-q๋ฅผ ์ต๋๋ก ๋ง๋๋ ๊ฐ์ค์น w๋ฅผ ์ฐพ๊ณ ์ ํ๋ ๊ฒ์ด MLE ๊ธฐ๋ฒ์ด๋ค. (๊ฐ์์ง๋ฉด $q$ , ๊ณ ์์ด๋ฉด $1-q$ ๋ฅผ ..
-
Logistic RegressionAI\ML\DL/Deep learning theory 2023. 5. 8. 18:33
Logistic Regression Sigmoid๋ฅผ ์ด์ฉํ ์ด์ง๋ถ๋ฅ๋ฅผ ์ํํ๊ธฐ ์ํด Logistic regression์ ๊ฐ๋ ์ ๋ํด ์์๋ณด์. Logistic Regression์ ์ ํํจ์์์ logit์ ํ๊ทํ ๊ฒ์ด๋ค. ์ฌ๊ธฐ์ Logit์, log-odds ๋ก odds๋ ์ฑ๊ณต ํ๋ฅ ๊ณผ ์คํจ ํ๋ฅ ์ ๋น์จ (์น์ฐ) ์ ๋งํ๊ณ , logit์ odds ์ log ๊ฐ์ ์ทจํ ๊ฒ์ ๋งํ๋ค. $$logit=\mathrm{log}\frac{q}{1-q}$$ ๋ก์ง์คํฑ ํ๊ท์์๋ ์ฐ์ ๋ชจ๋ธ์ ์ ๋ ฅ ๋ณ์์ ๊ฐ์ค์น์ ์ ํ์กฐํฉ์ผ๋ก ๋ชจ๋ธ์ ์ถ๋ ฅ๊ฐ์ ๊ณ์ฐํ๋ค. ์ ๋ ฅ๊ณผ ํน์ ๋ ์ด๋ธ์ ์ํ ํ๋ฅ ์ฌ์ด์ ๊ด๊ณ๋ฅผ ๋ชจ๋ธ๋งํ๊ธฐ ์ํด ๋์ ํ๋ ํจ์๊ฐ logit ํจ์๋ค. ๊ทธ ๋ค์ logit์ Sigmoid ํจ์์ ํต๊ณผ์์ผ์ q๋ฅผ ์ป๊ณ Los..