FANDOM


LaTeX(레이텍 또는 라텍)은 이공계생들한테 매우 도움이 되는 조판 프로그램이다. 주로 수학, 공학, 과학 등의 분야에서 많이 쓰이며, 논문 양식도 이를 통해 쉽게 작성할 수 있다.

수식 예제 편집

쉬운 예제 편집


1+1=2


y=x+2


x^2+y^2=1


a=\frac{1}{b}


\sqrt[n]{1+x+x^2+x^3+\ldots}

complementary error function 편집


  \operatorname{erfc}(x) =
  \frac{2}{\sqrt{\pi}} \int_x^{\infty} e^{-t^2}\,dt =
  \frac{e^{-x^2}}{x\sqrt{\pi}}\sum_{n=0}^\infty (-1)^n \frac{(2n)!}{n!(2x)^{2n}}

Bessel's differential equation 편집

x^2 \frac{d^2 y}{dx^2} + x \frac{dy}{dx} + (x^2 - \alpha^2)y = 0

함수의 gradient 편집

f(x,y,z)= \ 2x+3y^2-\sin(z)

\nabla f= 
\frac{\partial f}{\partial x} \mathbf{i} +
\frac{\partial f}{\partial y} \mathbf{j} +
\frac{\partial f}{\partial z} \mathbf{k}
 = 2\mathbf{i}+ 6y\mathbf{j} -\cos(z)\mathbf{k}.

알아 두면 좋은 식들 편집


e^{j\omega t}=\cos{\omega t}+j\sin{\omega t} \;(j\;\mathrm{is\;imaginary})


e^{-j\omega t}=\cos{\omega t}-j\sin{\omega t} \;(j\;\mathrm{is\;imaginary})


e^{i \pi} + 1 = 0


e^x = 1+x+\frac{x^2}{2!}+\frac{x^3}{3!}+\cdots+\frac{x^n}{n!}+\cdots

푸리에 변환 (사인, 코사인) 편집


F(\omega) = \mathcal{F}(f)(\omega)
 = \frac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty f(t) e^{-i\omega t}\,dt.

F(\omega) = \frac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty f(t)\cos\,{\omega t} \,dt - \frac{i}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty f(t)\sin\,{\omega t}\,dt.

Bayes' Rule 편집

P(H|E) = \frac{P(E|H)\cdot P(H)}{P(E)}

Bayesian inference 편집

정의 편집

  • x: 일반적인 데이터 지점으로, 벡터값이 될 수 있다.
  • \theta: 데이터 지점의 distribution의 파라미터로, x \sim p(x|\theta)와 같은 것을 말한다. 파라미터값이 될 수 있다.
  • \alpha: 파라미터의 hyperparameter로 \theta \sim p(\theta|\alpha)와 같으며, 이것의 벡터값이 될 수 있다.
  • \mathbf{X}: n개를 관찰할 수 있는 데이터 지점들의 집합으로, x_1,\ldots,x_n와 같은 것들이다.
  • \tilde{x}: 예측 가능한 distribution을 갖는 새 데이터 지점이다.

Bayesian inference편집

  • prior distribution: p(\theta|\alpha)
  • sampling distribution: p(\mathbf{X}|\theta)에서 관찰할 수 있는 distribution으로, 유사도(likelihood)라고 하고 \operatorname{L}(\theta|\mathbf{X}) = p(\mathbf{X}|\theta)로 쓰인다.
  • marginal likelihood(때로는 evidence): p(\mathbf{X}|\alpha) = \int_{\theta} p(\mathbf{X}|\theta) p(\theta|\alpha) \operatorname{d}\!\theta
  • posterior distribution: 관찰 데이터를 차지하는 곳에서 들어간 뒤의 파라미터의 distribution으로, Bayes' rule로 결정한다. 이는 Bayesian inference의 핵심이기도 하다.
p(\theta|\mathbf{X},\alpha) = \frac{p(\mathbf{X}|\theta) p(\theta|\alpha)}{p(\mathbf{X}|\alpha)} \propto p(\mathbf{X}|\theta) p(\theta|\alpha)

Bayesian prediction편집

  • posterior predictive distribution: posterior 부분을 합침
p(\tilde{x}|\mathbf{X},\alpha) = \int_{\theta} p(\tilde{x}|\theta) p(\theta|\mathbf{X},\alpha) \operatorname{d}\!\theta
  • prior predictive distribution: prior 부분을 합침
p(\tilde{x}|\alpha) = \int_{\theta} p(\tilde{x}|\theta) p(\theta|\alpha) \operatorname{d}\!\theta

Ad blocker interference detected!


Wikia is a free-to-use site that makes money from advertising. We have a modified experience for viewers using ad blockers

Wikia is not accessible if you’ve made further modifications. Remove the custom ad blocker rule(s) and the page will load as expected.