FANDOM


LaTeX(레이텍 또는 라텍)은 이공계생들한테 매우 도움이 되는 조판 프로그램이다. 주로 수학, 공학, 과학 등의 분야에서 많이 쓰이며, 논문 양식도 이를 통해 쉽게 작성할 수 있다.

수식 예제 편집

쉬운 예제 편집

$ 1+1=2 $

$ y=x+2 $

$ x^2+y^2=1 $

$ a=\frac{1}{b} $

$ \sqrt[n]{1+x+x^2+x^3+\ldots} $

complementary error function 편집

$ \operatorname{erfc}(x) = \frac{2}{\sqrt{\pi}} \int_x^{\infty} e^{-t^2}\,dt = \frac{e^{-x^2}}{x\sqrt{\pi}}\sum_{n=0}^\infty (-1)^n \frac{(2n)!}{n!(2x)^{2n}} $

Bessel's differential equation 편집

$ x^2 \frac{d^2 y}{dx^2} + x \frac{dy}{dx} + (x^2 - \alpha^2)y = 0 $

함수의 gradient 편집

$ f(x,y,z)= \ 2x+3y^2-\sin(z) $

$ \nabla f= \frac{\partial f}{\partial x} \mathbf{i} + \frac{\partial f}{\partial y} \mathbf{j} + \frac{\partial f}{\partial z} \mathbf{k} = 2\mathbf{i}+ 6y\mathbf{j} -\cos(z)\mathbf{k}. $

알아 두면 좋은 식들 편집

$ e^{j\omega t}=\cos{\omega t}+j\sin{\omega t} \;(j\;\mathrm{is\;imaginary}) $

$ e^{-j\omega t}=\cos{\omega t}-j\sin{\omega t} \;(j\;\mathrm{is\;imaginary}) $

$ e^{i \pi} + 1 = 0 $

$ e^x = 1+x+\frac{x^2}{2!}+\frac{x^3}{3!}+\cdots+\frac{x^n}{n!}+\cdots $

푸리에 변환 (사인, 코사인) 편집

$ F(\omega) = \mathcal{F}(f)(\omega) = \frac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty f(t) e^{-i\omega t}\,dt. $ $ F(\omega) = \frac{1}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty f(t)\cos\,{\omega t} \,dt - \frac{i}{\sqrt{2\pi}} \int\limits_{-\infty}^\infty f(t)\sin\,{\omega t}\,dt. $

Bayes' Rule 편집

$ P(H|E) = \frac{P(E|H)\cdot P(H)}{P(E)} $

Bayesian inference 편집

정의 편집

  • $ x $: 일반적인 데이터 지점으로, 벡터값이 될 수 있다.
  • $ \theta $: 데이터 지점의 distribution의 파라미터로, $ x \sim p(x|\theta) $와 같은 것을 말한다. 파라미터값이 될 수 있다.
  • $ \alpha $: 파라미터의 hyperparameter로 $ \theta \sim p(\theta|\alpha) $와 같으며, 이것의 벡터값이 될 수 있다.
  • $ \mathbf{X} $: $ n $개를 관찰할 수 있는 데이터 지점들의 집합으로, $ x_1,\ldots,x_n $와 같은 것들이다.
  • $ \tilde{x} $: 예측 가능한 distribution을 갖는 새 데이터 지점이다.

Bayesian inference편집

  • prior distribution: $ p(\theta|\alpha) $
  • sampling distribution: $ p(\mathbf{X}|\theta) $에서 관찰할 수 있는 distribution으로, 유사도(likelihood)라고 하고 $ \operatorname{L}(\theta|\mathbf{X}) = p(\mathbf{X}|\theta) $로 쓰인다.
  • marginal likelihood(때로는 evidence): $ p(\mathbf{X}|\alpha) = \int_{\theta} p(\mathbf{X}|\theta) p(\theta|\alpha) \operatorname{d}\!\theta $
  • posterior distribution: 관찰 데이터를 차지하는 곳에서 들어간 뒤의 파라미터의 distribution으로, Bayes' rule로 결정한다. 이는 Bayesian inference의 핵심이기도 하다.
$ p(\theta|\mathbf{X},\alpha) = \frac{p(\mathbf{X}|\theta) p(\theta|\alpha)}{p(\mathbf{X}|\alpha)} \propto p(\mathbf{X}|\theta) p(\theta|\alpha) $

Bayesian prediction편집

  • posterior predictive distribution: posterior 부분을 합침
$ p(\tilde{x}|\mathbf{X},\alpha) = \int_{\theta} p(\tilde{x}|\theta) p(\theta|\mathbf{X},\alpha) \operatorname{d}\!\theta $
  • prior predictive distribution: prior 부분을 합침
$ p(\tilde{x}|\alpha) = \int_{\theta} p(\tilde{x}|\theta) p(\theta|\alpha) \operatorname{d}\!\theta $