Search

기초 수학 패키지

대분류
인공지능/데이터
소분류
AI 수학
유형
함수
로그
기초 수학
부유형
함수
로그
극한
미분
연쇄 법칙
그라디언트
확률 변수와 확률 분포
평균
분산
균등 분포와 정규 분포
주요 레퍼런스
https://www.youtube.com/watch?v=frkVgBvp850&list=PL_iJu012NOxea6yN2PUzw8hQ2Aniog8ql&index=1
최종 편집 일시
2024/10/27 15:29
생성 일시
2024/07/31 04:14
13 more properties

삼각함수(sin, cos, tan)

빗변/기울기(hypotenuse), 높이(opposite), 밑변(adjacent)
사인(sine/sin), 코사인(cosine/cos), 탄젠트(tangent/tan)
sinθ=oh\sin\theta = \frac{o}{h}
cosθ=ah\cos\theta = \frac{a}{h}
tanθ=oa\tan\theta = \frac{o}{a}
코시컨트(cosecant/csc), 시컨트(secant), 코탄젠트(cotangent/cot) = sin, cos, tan의 역수
cscθ=1sinθ=ho\csc\theta = \frac{1}{\sin \theta} = \frac{h}{o}
secθ=1cosθ=ha\sec\theta = \frac{1}{\cos\theta} = \frac{h}{a}
cotθ=1tanθ=ao\cot\theta = \frac{1}{\tan\theta} = \frac{a}{o}
탄젠트의 법칙
tanθ=sinθcosθ\tan\theta = \frac{\sin\theta}{\cos\theta}
cotθ=cosθsinθ\cot\theta = \frac{\cos\theta}{\sin\theta}

로그 log\log (Logarithm)

지수 함수의 역함수
로그함수 활용용도
로그 함수는 단위 수가 너무 큰 값들을 바로 회귀분석 할 경우 결과를 왜곡할 우려가 있으므로 이를 방지하기 위해 사용
비선형관계의 데이터를 선형으로 만들기 위해 사용
독립변수와 종속변수의 변화관계에서 절대량이 아닌 비율을 확인하기 위해 사용
왜도와 첨도를 줄일 수 있어 정규성이 높아진다.
왜도 : 데이터가 한쪽으로 치우친 정도 첨도 : 분포가 얼마나 뾰족한지를 나타내는 정도

로그 법칙

1.
logaxy=logax+logay\log_axy=\log_ax+\log_ay
2.
logaxn=nlogax\log_ax^n=n\log_ax
3.
logamx=1mlogax\log_{a^m}x=\frac{1}{m}\log_ax
4.
logab=1logba\log_ab=\frac{1}{\log_ba}
5.
logab=logcblogca\log_ab=\frac{\log_cb}{\log_ca}
6.
alogax=xa^{\log_ax}=x
7.
alogbc=clogbaa^{\log_bc}=c^{\log_ba}

무리수 ee (2.718…)

1에 아주 조금 더한 것의 무한 제곱
e=limx(1+1x)xe = \lim_{x\rightarrow\infin}(1+\frac{1}{x})^x
e=limx0(1+x)1xe = \lim_{x\rightarrow0}(1+x)^\frac{1}{x}
x
(1 + x) ^ (1 / x)
0.1
2.5937424601000023
0.01
2.7048138294215285
0.001
2.7169239322355936
0.0001
2.7181459268249255
0.00001
2.7182682371922975
...
...
0.0000000....000001
2.7182818284590452...

자연 로그 lnx=logex\ln x = \log_e x (natural logarithm)

무리수 ee를 밑으로 하는 로그
y=lnxy = \ln x 그래프
y=ex,y=x,y=lnxy = e^x, y = x, y = \ln x 그래프
미적분 관련 계산을 할 때, 밑이 10인 상용로그 대신 이 밑이 무리수 e인 로그를 사용하면 훨씬 더 깔끔하고 단순하게 나와 자연스럽다고 하여 자연로그라고 이름이 붙여졌다고 함.
성질 ( x > 0,  y > 0x > 0,  y > 0 일때 )
1.
ln 1 = 0, ln e = 1\ln 1 = 0, \ln e = 1
2.
ln xy = ln x + ln y\ln xy = ln x + ln y
3.
ln xy = ln x ln y\ln \frac{x}{y} = \ln x − \ln y
4.
ln xn = n ln x\ln x^n = n ln x

극한

limxaf(x) \lim_{x \rightarrow a}f(x) : x가 a랑 무진장 가까운 값일 때 f(x)가 뭐랑 무진장 가깝냐?
limxaf(x)=L \lim_{x \rightarrow a}f(x) = L : L주변의 갭으로 어떤 양수 ϵ\epsilon(입실론)을 잡더라도 요 갭 안으로 싹다 보내버릴 수 있는 a 주변 갭 δ\delta(델타)가 존재하면 a에서의 극한 값은 L이다. (입실론-델타 논법)
L 주변의 갭

미분(Δ\Delta델타, h)

순간 변화율
순간 기울기(그래프 상에선)
접선의 기울기(정의역=xx)
얼마나 변했는 지얼만큼 변했을 때=f증가량x증가량=limxaf(x)f(a)xa\frac{얼마나\space변했는\space지}{얼만큼\space변했을\space때} = \frac{f 증가량}{x증가량} = \lim_{x \rightarrow a}\frac{f(x)-f(a)}{x-a}
x를 a에서 h(델타)만큼 떨어진 점이라 볼 때 x=a+hx = a+h를 대입하여 다음과 같이 표현(변화량 = Δx\Delta x)
limh0f(a+h)f(a)h\lim_{h\rightarrow0}\frac{f(a+h)-f(a)}{h}
기울기 : / (양) \ (음)

도함수

주어진 함수의 각 점에서의 변화율을 나타내는 새로운 함수
함수f(x)f(x)의 도함수 표기법
yy’
f(x)f′(x)
dydx\frac{dy}{dx}
ddxf(x)\frac{d}{dx}f(x)
df(x)fx\frac{df(x)}{fx}
f(x)=limΔx0f(x+Δx)f(x)Δxf'(x) = \lim_{\Delta x\rightarrow0}\frac{f(x+\Delta x) - f(x)}{\Delta x}
dydx(딥러닝:라이프니츠식표기법)=df(x)dx=[f(1)dydxx=1]\begin{align*}\frac{dy}{dx}(딥러닝: 라이프니츠식 표기법) = \frac{df(x)}{dx} \\ \\ = \begin{bmatrix}f'(1)\\\frac{dy}{dx} | x=1\end{bmatrix} \end{align*}
도함수의 기하학적 의미 : y=f(x) y=f(x) 위의 임의의 점 (x,y)(x,y)에서의 접선의 기울기
1.
y=cy=c (c는 상수)이면 y=0y’=0
2.
y=xny=x^n (n은 양의 정수)이면 y=nxn1y’=nx^{n-1}
3.
ex=>exe^x => e^{x}
4.
lnx=>1x\ln x => \frac{1}{x}
5.
log2x=>1ln21x\log_2 x => \frac{1}{\ln2}\bullet\frac{1}{x}
도함수 예제 풀이
x=1x = 1에서의 미분값?
f(x)=limΔx0f(1+Δx)f(1)Δx=limΔx0(1+Δx)21Δx=limΔx0Δx2+2ΔxΔxlimΔx0=Δx+2=2\begin{align*}f'(x)=\lim_{\Delta x\rightarrow0}\frac{f(1+\Delta x) - f(1)}{\Delta x} = \lim_{\Delta x\rightarrow0}\frac{(1+\Delta x)^2-1}{\Delta x} \\ \\ = \lim_{\Delta x\rightarrow0}\frac{\Delta x^2 + 2\Delta x}{\Delta x} \\ \\ \lim_{\Delta x\rightarrow0} = \Delta x + 2 \\ \\ = 2 \end{align*}
f(x)=x2f(x) = x^2에서의 미분값?
f(x)=limΔx0f(x+Δx)f(x)Δx=limΔx0(x+Δx)2x2Δx=limΔx02Δxx+Δx2Δx=limΔx02ΔxxΔx+Δx2ΔxlimΔx0=2x+Δx=2x\begin{align*}f'(x)=\lim_{\Delta x\rightarrow0}\frac{f(x+\Delta x) - f(x)}{\Delta x} = \lim_{\Delta x\rightarrow0}\frac{(x+\Delta x)^2-x^2}{\Delta x} \\ \\ = \lim_{\Delta x\rightarrow0}\frac{2\Delta x \bullet x+ \Delta x^2}{\Delta x} \\ \\ = \lim_{\Delta x\rightarrow0}\frac{2\Delta x \bullet x}{\Delta x} + \frac{ \Delta x^2}{\Delta x} \\ \\ \lim_{\Delta x\rightarrow0} = 2x + \Delta x \\ \\ = 2x \end{align*}

미분 계수

x=ax = a에서 함수 ff의 접선의 기울기 ⇒ ffx=ax = a에서의 미분계수 = f(a)f'(a)

미분 공식

1.
xn=>nxn1x^n => nx^{n-1}

연쇄 법칙

dydx=d(x2+1)2dx=d(x2+1)2d(x2+1)d(x2+1)dx2dx2dx\frac{dy}{dx}=\frac{d(x^2+1)^2}{dx} = \frac{d(x^2+1)^2}{d(x^2+1)} \frac{d(x^2+1)}{dx^2} \frac{dx^2}{dx}
d(x2+1)2dx=2(x2+1)12x\frac{d(x^2+1)^2}{dx} = 2(x^2+1) \bull1 \bull2x
합성 함수
xyzx → y → z일 때 y=f(x),z=g(y)=g(f(x))y = f(x), z = g(y) = g(f(x))
dzdx={g(f(x))}=limh0g(f(x+h))g(f(x))hdzdydydx=limh0g(f(x+h))g(f(x))f(x+h)f(x)f(x+h)f(x)h=g(f(x))f(x)\begin{align*}\frac{dz}{dx}=\big\{g(f(x))\big\}' = \lim_{h\rightarrow0}\frac{g(f(x+h))-g(f(x))}{h} \\ \\ \frac{dz}{dy}\frac{dy}{dx} = \lim_{h\rightarrow0}\frac{g(f(x+h))-g(f(x))}{f(x+h)-f(x)}\frac{f(x+h)-f(x)}{h} \\ \\ =g'(f(x))f'(x) \end{align*}
미분 계수 구별
limxag(f(x))g(f(a))f(x)f(a)=g(f(a))\lim_{x\rightarrow a}\frac{g(f(x))-g(f(a))}{f(x)-f(a)} = g'(f(a))
limh0g(f(a+h))g(f(a))f(a+h)f(a)=g(f(a))\lim_{h\rightarrow 0}\frac{g(f(a+h))-g(f(a))}{f(a+h)-f(a)} = g'(f(a))
limxag(f(x))g(f(a))xa=g(f(a))f(a)\lim_{x\rightarrow a}\frac{g(f(x))-g(f(a))}{x-a} = g'(f(a))\bullet f'(a)
limh0g(f(a+h))g(f(a))h=g(f(a))f(a)\lim_{h\rightarrow 0}\frac{g(f(a+h))-g(f(a))}{h} = g'(f(a))\bullet f'(a)

편미분 \partial, 그라디언트

편미분

다변수 함수에 대한 미분
다변수 함수 : 독립 변수가 여러 개인 함수
독립변수가 한 개인 일변수 함수
y=x22x3(1)y = x^2 - 2x-3\dots(1)
독립변수가 두 개인 다변수 함수
z=xy2+4x7y(2)z = xy^2 + 4x-7y\dots(2)
이변수 함수
변수 하나를 제외한 나머지를 모두 상수 취급한 상태로 미분을 취하는 것
x, y, z가 있는 다변수 함수에서 x에 대한 편미분은 y,z를 상수 취급
z=xy2+4x7yz = xy^2 + 4x-7y
1.
xy2xy^2항의 편미분
xy2xy^2에서 x에 대해 편미분할 때, 는 상수로 간주 ⇒ 즉, y2y^2는 미분할 때 변화하지 않는 상수로 처리
원래 식: xy2xy^2
x에 대한 편미분: x(xy2)\frac{\partial}{\partial x}(xy^2)
미분 과정
y^2는 상수이므로, 단순히 x의 계수로 남는다.
따라서, 편미분은 y2가 된다.
x(xy2)=y2\frac{\partial}{\partial x}(xy^2)=y2
2.
4x4x항의 편미분
xx에 대한 1차항
원래 식: 4x4x
x에 대한 편미분: x(4x)\frac{\partial}{\partial x}(4x)
미분 과정
x에 대한 미분에서 상수 4가 남는다.
x(xy2)=y2\frac{\partial}{\partial x}(xy^2)=y^2
3.
7y-7y항의 편미분
x에 대한 미분에서 상수로 간주 ⇒ 따라서 미분 값은 0
원래 식 : 7y-7y
x에 대한 편미분: x(7y)\frac{\partial}{\partial x}(-7y)
-7y는 x에 독립적이므로 미분 값은 0
x(7y)=0\frac{\partial}{\partial x}(-7y)=0
4.
결과
zx=y2+4+0=y2+4\frac{\partial z}{\partial x}=y^2+4+0=y^2+4
x에 대한 편미분은 x의 변화만 고려한 미분이다
표기법
\partial : 라운드(round), 파셜(partial)
x에 대한 편미분일 때
xf(x,y)\frac{\partial}{\partial x}f(x,y)
yf=fx\frac{\partial}{\partial y}f=f_x

편도함수

편미분에 대한 도함수
xf(x,y)=limh0f(x+h,y)f(x,y)h\frac{\partial}{\partial x}f(x,y) = \lim_{h\rightarrow0}\frac{f(x+h,y)-f(x,y)}{h}

그레디언트(Gradient): 기울기

다변수 함수의 모든 입력값에서 모든 방향으로의 순간변화율
⇒ 공간에 대한 기울기
주어진 함수 f(x1,x2,,xn)f(x_1,x_2, \dots,x_n)의 그라디언트는 fx\frac{\partial f}{\partial x} 함수의 각 변수에 대한 편미분을 모은 벡터로 정의
[xy]{xx=iyy=j \begin{bmatrix} \frac{\partial}{\partial x} \\ \\ \frac{\partial}{\partial y} \end{bmatrix} \begin{cases}x & x = i \\ y & y=j\end{cases}
다변수(n변수 스칼라) 함수 f(x,y,z)의 그라디언트 벡터 표기 (\nabla: 델 연산자)
모든 방향에 대해 모두 표기
f=(xi+yj+zk)f=(fxi+fyj+fzk)fxex+fyey+fzez\begin{align*}\nabla f = \big(\frac{\partial}{\partial x}i+\frac{\partial}{\partial y}j+\frac{\partial}{\partial z}k\big)f \\\\ = \big(\frac{\partial f}{\partial x}i+\frac{\partial f}{\partial y}j+\frac{\partial f}{\partial z}k\big) \\\\ \frac{\partial f}{\partial x}\underline{e}_{x}+\frac{\partial f}{\partial y}\underline{e}_{y}+\frac{\partial f}{\partial z}\underline{e}_{z} \end{align*}
ex\underline{e}_{x}방향은x방향으로의 단위벡터
ey\underline{e}_{y}방향은y방향으로의 단위벡터
ez\underline{e}_{z}방향은z방향으로의 단위벡터
함수 f(x,y)=x2+y2f(x,y) = x^2 + y^2의 그라디언트
1.
편미분 계산
2.
그라디언트 벡터
예시 벡터 그래프
2변수 이상부터는 스칼라 함수에 대해서 gradient가 벡터로 구해지게 된다.
1변수의 경우 성분이 하나인 벡터로 생각 가능
화살표가 그래디언트의 방향 : 함수값이 작은 부분에서 벗어나서 함수값이 큰 부분으로 가려고 하는 것
빨간색으로 표시된 부분 : 함수값이 큰 부분
파란색으로 표시된 부분 : 함수값이 작은 부분

확률

확률 변수

확률 실험을 했을 때 발생할 수 있는 결과(s)를 실수값(R\mathbb{R})으로 바꿔주는 함수
X:sR,sSX : s \rightarrow \mathbb{R},s \in S
s(sample) : 표본공간에 속한 원소
표본공간(sample space, S) : 확률실험의 결과로 나타날 수 있는 모든 결과
확률실험(pobability experiment) : 결과를 예측할 수 없는 실험
확률 변수가 나타날 확률 계산식
px(x)=P(X=x),xRp_x(x) = P(X = x), x \in \mathbb{R}
이산형 확률변수 (pmf: probability mass function)
X
0
1
2
sum
P(X = x)
14\frac{1}{4}
24\frac{2}{4}
14\frac{1}{4}
1
이산형일 경우 막대의 높이가 곧 그 점에서의 확률을 의미
연속형 확률변수 (pdf: probability density function)
연속형의 경우 P(X=x) = 0 (1/(연속형 확률변수의 가능한 값) ≈1/∞≈0≈1/∞≈0)임
연속형 확률변수의 확률 = 구간의 너비

평균, 분산, 표준편차

평균(Mean, Average) : 주어진 수의 합을 측정개수로 나눈 값, 대표값 중 하나
분산(Variance) : 변량들이 퍼져있는 정도, 분산이 크면 들죽날죽 불안정하다는 의미, 대표값 중 둘
표준편차(Standard Deviation) : 분산은 수치가 너무 크기 때문에, 제곱근으로 적당하게 줄인 값
표준편차가 큰 경우, 수치들이 전반적으로 들죽날죽 지들 멋대로 쌩쇼하는구나
표준편차가 작은 경우, 수치들이 고만고만 도토리 키 재듯 밋밋하구나
변량이 다른 경우
변량이 똑같은 경우

기댓값(E: Expected Value)

확률 변수의 기대값 = 모평균(population mean) ⇨ 확률분포(또는 모집단)의 무게 중심
각 사건이 벌어졌을 때의 이득과 그 사건이 벌어질 확률을 곱한 것을 전체 사건에 대해 합한 값
xˉ=x1+x2++xnn=1ni=1nxi\bar{x}=\frac{x_1+x_2+\dots+x_n}{n}=\frac{1}{n}\sum_{i=1}^{n}x_i