https://www.youtube.com/watch?v=tDcxVAF7QNs
Diagonalization of Hermitian Matrices
Assume that a Hermitian operator $\Omega$ is represented as a matrix $\mathbb{H}$ in some orthonormal basis $|1\rangle, |2\rangle, ..., |n\rangle$. If we trade this basis for the eigenbasis $|\omega_1\rangle, |\omega_2\rangle, ..., |\omega_n\rangle$, the new matrix $\mathbb{H}'$ representing $\Omega$ will become diagonal. $\rightarrow \mathbb{H}' = \mathbb{U}^\dagger \mathbb{H} \mathbb{U} = \mathbb{D}$
- $\mathbb{U}$ : matrix representation of $U = \sum_{m=1}^n |\omega_m\rangle\langle m|$ in $|1\rangle, |2\rangle, ..., |n\rangle$
어떤 Hermitian 연산자 $\Omega$가 임의의 Orthonormal basis Unitary matrix $\mathbb{H}$로 표현된다고 가정하면 이 행렬은 일반적으로 대각 성분 외에도 값이 존재하는 복잡한 형태의 행렬이다.
하지만 basis를 이 연산자 $\Omega$의 eigenvectors로 이루어진 basis (eigenbasis)로 변환하면, 행렬은 대각 성분만 남고 모두 0이 되는 Diagonal Matrix $\mathbb{D}$로 변환된다.
- $\mathbb{U}$ : 기존 basis $|m\rangle$을 새로운 eigenbasis $|\omega_m\rangle$로 매핑하는 Unitary operator
If $\Omega$ and $\Lambda$ are two commuting Hermitian operators, there exists (at least) a basis of common eigenvectors that diagonalizes them both.
두 연산자 $\Omega$와 $\Lambda$가 서로 Commuting하다면, 즉 $\Omega\Lambda = \Lambda\Omega$를 만족한다면, 이 두 연산자를 동시에 대각화할 수 있는 공통 eigenvector basis가 존재한다는 것이다.
Simultaneous diagonalization이 왜 중요할까?
양자 컴퓨터나 양자계에서 최종적으로 우리가 원하는 정보를 얻으려면 '측정'을 해야한다. 양자역학에서 관측 가능한 물리량(Observable)은 수학적으로 Hermitian Operator로 표현된다.
만약 우리가 양자 상태에 대해 A라는 측정을 하고 이어서 B라는 측정을 하는 경우와, B를 먼저가 A를 하는 경우 결과가 같을까?
- 두 연산자가 Commute ($[\Omega, \Lambda] = 0$)하다면, 측정 순서가 결과에 영향을 미치지 않는다.
- 물리적으로 이는 "두 물리량을 동시에 불확정성 없이 완벽하게 측정할 수 있다"는 것을 의미하게 된다.
- 선형대수학적 관점에서, 측정 순서가 상관없다는 것은 두 연산자를 Simultaneous Diagonalization하는 Common Basis를 찾을 수 있다는 것과 완벽히 일치한다.
두 연산자 중 적어도 하나가 Non-degenerate인 경우를 가정해서 증명해보자.
- Non-degenerate : 하나의 eigenvalue에 오진 하나의 linearly independent한 eigenvector만 대응되는 상태를 의미함 (즉, 중복되는 eigenvalue가 없음)
$\Omega$가 non-degenerate하며, 그 eigenvector 중 하나를 $|\omega_i\rangle$, 해당 eigenvalue $\omega_i$라고 가정하자. 그러면 다음과 같은 방정식이 성립한다.
위 수식의 시작과 끝을 보면, $\Omega(\Lambda|\omega_i\rangle) = \omega_i(\Lambda|\omega_i\rangle)$ 이다. 이는 새로운 벡터인 $(\Lambda|\omega_i\rangle)$ 역시 연산자 $\Omega$에 대해 eigenvalue가 $\omega_i$인 eigenvector임을 의미한다.
처음에 $\Omega$가 non-degenerate하다고 가정했다, 즉 eigenvalue $\omega_i$를 가지는 eigenvector는 오직 $|\omega_i\rangle$의 상수배 형태 하나뿐이어야 한다.
따라서 벡터 $(\Lambda|\omega_i\rangle)$는 필연적으로 기존 eigenvetor $|\omega_i\rangle$에 어떤 스칼라(상수) $\lambda_i$를 곱한 것과 같아야만 한다.
이 수식은 정확히 $|\omega_i\rangle$가 연산자 $\Lambda$의 고유벡터이기도 함을 정의하고 있다.
결과적으로 연산자 $\Omega$의 eigenvector인 $|\omega_i\rangle$는 연산자 $\Lambda$의 eigenvector이기도 하므로, 두 연산자는 공통 eigenvector를 공유하게 되고 이를 통해 두 행렬을 동시에 대각화할 수 있다.
Functions of Operators
Types of objects that can act on vectors
- Scalar: commutes with both scalar and operators $\rightarrow$ called c-numbers
- Operator: generally do not commute with other operator $\rightarrow$ called q-numbers
핵심 질문은 "연산자를 함수의 입력값으로 넣을 수 있는가?"이다.
우리는 실수나 복소수 같은 스칼라값(c-numbers)에 대해 지수함수나 삼각함수를 계산하는 법을 알고 있다.
하지만 연산자(q-numbers)은 단순한 숫자가 아니므로 함수에 바로 대입할 수 없다.
Function of q-numbers
Analogy to function of c-numbers such as $\sin x, \log x$
Consider c-number function that can be written as a power series: $\displaystyle f(x) = \sum_{n=0}^{\infty} a_n x^n$
Define $\displaystyle f(\Omega) \equiv \sum_{n=0}^{\infty} a_n \Omega^n$
For example, most of the c-number functions can be expanded in power series via Taylor series: $\displaystyle f(x) = \sum_{n=0}^{\infty} \frac{f^{(n)}(a)}{n!} (x - a)^n$
연산자를 함수에 대입하기 위해서 Taylor Series를 사용한다. 어떤 함수가 power series 형태로 전개될 수 있다면, 이를 그대로 연산자 $\Omega$에 적용하여 연산자 함수를 정의한다.
$$f(\Omega) \equiv \sum_{n=0}^{\infty} a_n \Omega^n = a_0 I + a_1 \Omega + a_2 \Omega^2 + \cdots$$
행렬의 거듭제곱($\Omega^n$)과 스칼라 곱($a_n$), 그리고 덧셈은 선형대수학에서 잘 정의되어 있으므로, 이 무한급수가 수렴하기만 한다면 행렬의 함수도 완벽하게 계산할 수 있게된다.
Functions of Hermitian Operators
행렬을 거듭제곱하는 것은 일반적으로 계산량이 매우 많고 까다롭다. 하지만 그 행렬이 대각행렬이라면 이야기는 완전히 달라진다.
대각 행렬을 $m$번 거듭제곱하면, 대각선에 위치한 성분을 각각 $m$번 거듭제곱한 것과 일치한다.
$\displaystyle e^\Omega = \sum_{m=0}^{\infty} \frac{1}{m!} \Omega^m = \sum_{m=0}^{\infty} \frac{1}{m!} \mathbb{D}^m = \begin{bmatrix} \sum_{m=0}^{\infty} \frac{\omega_1^m}{m!} & & & \\ & \sum_{m=0}^{\infty} \frac{\omega_2^m}{m!} & & \\ & & \ddots & \\ & & & \sum_{m=0}^{\infty} \frac{\omega_n^m}{m!} \end{bmatrix} = \begin{bmatrix} e^{\omega_1} & & & \\ & e^{\omega_2} & & \\ & & \ddots & \\ & & & e^{\omega_n} \end{bmatrix}$
Generally, $f(\Omega) = \begin{bmatrix} f(\omega_1) & & & \\ & f(\omega_2) & & \\ & & \ddots & \\ & & & f(\omega_n) \end{bmatrix}$
문제는 우리가 마주하는 Hermitian Operator $\mathbb{H}$가 항상 처음부터 대각행렬 형태는 아니라는 점이다. 이때 앞서 말한 Diagonialization와 Unitary Transformation이 핵심적인 역할은 한다.
어떤 Hermitian matrix $\mathbb{H}$는 Unitary matrix $\mathbb{U}$를 통해서 대각 행렬 $\mathbb{D}$로 변환할 수 있다.
따라서, $\mathbb{H}$의 거듭제곱은 다음과 같이 일반화시킬 수 있다.
$$\mathbb{H}^m = \mathbb{U}\mathbb{D}^m\mathbb{U}^\dagger$$
결과적으로 일반적인 비대각 행렬 $\mathbb{H}$의 함수 $f(\mathbb{H})$를 구하는 방법은 다음과 같이 요약할 수 있다.
- 행렬 $\mathbb{H}$를 대각화하여 eigenvalue들로 이루어진 $\mathbb{D}$와, eigenvector들로 이루어진 $\mathbb{U}$를 찾는다.
- $\mathbb{D}$의 각 대각 성분(eigenvalue)에 단순 스칼라 함수 $f(\omega_i)$를 적용한다.
- 그렇게 만들어진 행렬 앞뒤에 다시 $\mathbb{U}$와 $\mathbb{U}^\dagger$를 곱해 원래의 basis로 되돌린다.
$$\displaystyle f(\mathbb{H}) = \mathbb{U} \begin{bmatrix} f(\omega_1) & & \\ & \ddots & \\ & & f(\omega_n) \end{bmatrix} \mathbb{U}^\dagger$$
Derivatives of Operators w.r.t. Parameters
Assume operator $\theta(\lambda)$ depends on a parameter $\lambda$.
Derivative w.r.t. $\lambda$ is defined to be
$$\frac{d\theta(\lambda)}{d\lambda} \equiv \lim_{\Delta\lambda \rightarrow 0} \left[ \frac{\theta(\lambda + \Delta\lambda) - \theta(\lambda)}{\Delta\lambda} \right]$$
If $\theta(\lambda)$ can be represented as a matrix in some basis, the matrix representing $d\theta(\lambda)/d\lambda$ can be obtained by differentiating each matrix elements of $\theta(\lambda)$.
행렬 $\theta(\lambda)$를 스칼라 매개변수 $\lambda$(예: 시간 $t$)로 미분하는 것은 도함수의 극한 정의와 완전히 동일하다.
행렬로 표현될 경우, 행렬의 각 원소를 각각 $\lambda$에 대해 미분하면 된다.
Derivative of $\displaystyle \theta(\lambda) = e^{\lambda\Omega} = \sum_{m=0}^{\infty} \frac{\lambda^m \Omega^m}{m!}$
Even when $\Omega$ is represented as non-diagonal matrix $\mathbb{H}$,
$$\displaystyle\frac{d}{d\lambda} \sum_{m=0}^{\infty} \frac{\lambda^m \mathbb{H}^m}{m!} = \sum_{m=1}^{\infty} \frac{m\lambda^{m-1} \mathbb{H}^m}{m!} = \mathbb{H} \sum_{m=1}^{\infty} \frac{\lambda^{m-1} \mathbb{H}^{m-1}}{(m-1)!} = \mathbb{H} \sum_{n=0}^{\infty} \frac{\lambda^n \mathbb{H}^n}{n!} = \mathbb{H}e^{\lambda\mathbb{H}}$$
In other words, $d\theta(\lambda)/d\lambda = \Omega e^{\lambda\Omega} = e^{\lambda\Omega} \Omega = \theta(\lambda)\Omega$
함수가 $e^{\lambda\mathbb{H}}$와 같은 형태일 때, 이를 미분하면 스칼라 함수의 미분($\frac{d}{dx}e^{ax} = ae^{ax}$)처럼 취급할 수 있는지는 테일러 급수를 통해서 증명할 수 있다.
- $\lambda$에 대해 미분하면 $m=0$일 때의 항(단위 행렬)은 상수로 취급되어 사라지므로, 시그마의 시작이 $m=1$로 바뀐다.
- 미분해서 앞으로 튀어나온 $m$이 분모의 $m!$과 약분되어 $(m-1)!$이 된다.
- $\mathbb{H}^m$에서 $\mathbb{H}$ 하나를 시그마 밖으로 빼낸다. 그리고 $n = m-1$로 인덱스를 치환하면 다시 완벽한 $e^{\lambda\mathbb{H}}$의 테일러 급수 형태가 나타난다.
- 연산자의 순서가 중요하므로 앞이나 뒤로 행렬을 빼낼 수 있으며, 결과적으로 $\frac{d}{d\lambda} e^{\lambda\Omega} = \Omega e^{\lambda\Omega} = e^{\lambda\Omega} \Omega$가 성립함을 증명한 것
Solution of Differential Equation
먼저 단순한 형태의 방정식부터 풀어보자. 다음과 같은 형태의 행렬 미분 방정식이 주어졌다고 하자.
- 스칼라 미분 방정식 $\frac{dx}{dt} = ax$의 해가 $x(t) = e^{at}x(0)$인 것처럼, 행렬 미분 방정식의 해는 $\vec{x}(t) = e^{At}\vec{x}(0)$ 형태가 된다.
- 행렬 $A = \begin{bmatrix} 3 & 2 \ -1 & 0 \end{bmatrix}$의 Eigenvalue을 구해보면 $\lambda = 1, 2$가 나온다.
- 이 행렬 $A$를 대각화하여 $e^{At}$를 계산하면, eigenvalue들이 지수함수 위로 올라가서 $e^{1\cdot t}$와 $e^{2\cdot t}$ 성분들을 만들어낸다.
그렇게 $e^{At}$를 직접 계산한 최종 결과는 다음과 같다.
이 예시가 보여주고자 하는 핵심
$\rightarrow$ "어떤 시간 $t$에서의 상태 벡터 $|\psi(t)\rangle$는, 초기 상태 벡터 $|\psi(0)\rangle$에 시간에 의존하는 어떤 행렬(연산자) $U(t)$를 곱한 형태($|\psi(t)\rangle = U(t)|\psi(0)\rangle$)로 표현할 수 있다."
(이해가 안가서 추가 설명)
먼저 변수가 하나인 단순한 선형 미분 방정식을 봐보자.
$$\frac{dx}{dt} = ax$$
이 식의 의미는 어떤 함수 $x(t)$를 시간에 대해 미분했더니, 자기 자신에 상수 $a$를 곱한 것과 같아졌다는 뜻이다.
미분해서 자기 자신이 나오는 함수의 대표적인 것은 지수함수 ($e^t$)가 있다.
따라서 우리는 해가 지수함수 형태일 것이라고 추론할 수 있고, 실제로 적분을 통해 해를 구해도 다음과 같이 나온다.
$$x(t) = e^{at} x(0)$$
이제 변수가 여러 개인 연립 미분 방정식, 즉 행렬 형태로 넘어오자.
$$\frac{d}{dt} \vec{x}(t) = A \vec{x}(t)
$$$\vec{x}(t)$는 여러 변수를 담은 벡터
$A$는 상수들로 이루어진 행렬
앞선 스칼라 미분방정식의 해 ($e^{at}$)에서 아이디어를 얻어서 행렬 방정식의 해도 혹시 상수 $a$ 자리에 행렬 $A$를 넣은 $e^{At}$ 형태가 아닐까?라는 가설을 세울 수 있다.
먼저 지수 위에 행렬이 올라간 $e^{At}$가 도대체 무슨 의미인지 수학적으로 정의해야 한다.숫자가 아닌 행렬을 거듭제곱하는 것은 테일러 급수(맥클로린 급수)를 통해 정의된다.
$$e^{x} = 1 + x + \frac{1}{2!}x^2 + \frac{1}{3!}x^3 + \cdots$$
이를 행렬 $At$에 그대로 적용하여 '행렬 지수함수'를 새롭게 정의한다.
$$e^{At} \equiv I + At + \frac{1}{2!}A^2 t^2 + \frac{1}{3!}A^3 t^3 + \cdots$$
$\vec{x}(t) = e^{At}\vec{x}(0)$를 원래 방정식 $\frac{d}{dt} \vec{x}(t) = A \vec{x}(t)$의 좌변에 대입해서, 우변과 똑같이 나오는지 직접 미분해보자.
$$\frac{d}{dt} \left( e^{At} \vec{x}(0) \right) = \left( \frac{d}{dt} e^{At} \right) \vec{x}(0)$$
여기서 $\vec{x}(0)$는 초기값이므로 시간에 무관한 상수 벡터 취급을 받는다.\
$$\frac{d}{dt} e^{At} = \frac{d}{dt} \left( I + At + \frac{1}{2!}A^2 t^2 + \frac{1}{3!}A^3 t^3 + \cdots \right)$$
$$= 0 + A + \frac{1}{2!}A^2 (2t) + \frac{1}{3!}A^3 (3t^2) + \cdots$$
$$= A + A^2 t + \frac{1}{2!}A^3 t^2 + \cdots$$
$$= A \left( I + At + \frac{1}{2!}A^2 t^2 + \cdots \right)$$
괄호 안의 형태를 잘 보면, 우리가 처음 정의했던 $e^{At}$의 테일러 급수와 완벽하게 똑같다. 따라서 다음과 같은 결과가 나올 수 있다.
$$\frac{d}{dt} e^{At} = A e^{At}$$
마지막으로 이 결과를 아까 미분하던 식에 집어넣는다.
$$\left( \frac{d}{dt} e^{At} \right) \vec{x}(0) = \left( A e^{At} \right) \vec{x}(0) = A \left( e^{At} \vec{x}(0) \right)$$
$$= A \vec{x}(t)$$
여기서 $e^{At} \vec{x}(0)$는 우리가 처음에 가정한 $\vec{x}(t)$이다.
스칼라 미분에서 $\frac{d}{dt}e^{at} = ae^{at}$가 성립했던 것처럼, 테일러 급수를 통해 행렬을 정의하면 놀랍게도 $\frac{d}{dt}e^{At} = Ae^{At}$라는 동일한 미분 규칙이 성립하게 된다는 것이다.
주어진 행렬은 $A = \begin{bmatrix} 3 & 2 \\ -1 & 0 \end{bmatrix}$
$\det \begin{bmatrix} 3-\lambda & 2 \\ -1 & -\lambda \end{bmatrix} = (3-\lambda)(-\lambda) - (-2) = \lambda^2 - 3\lambda + 2 = (\lambda-1)(\lambda-2) = 0$
$\lambda_1 = 1, \lambda_2 = 2$
1. $\lambda_1 = 1$일 때: $(A - I)\vec{v}_1 = \begin{bmatrix} 2 & 2 \\ -1 & -1 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \end{bmatrix}$ $\rightarrow x+y=0$.
따라서 eigenvector $\vec{v}_1 = \begin{bmatrix} 1 \\ -1 \end{bmatrix}$ (또는 $\begin{bmatrix} -1 \\ 1 \end{bmatrix}$)
2. $\lambda_2 = 2$일 때: $(A - 2I)\vec{v}_2 = \begin{bmatrix} 1 & 2 \\ -1 & -2 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \end{bmatrix}$ $\rightarrow x+2y=0$.
따라서 eigenvector $\vec{v}_2 = \begin{bmatrix} -2 \\ 1 \end{bmatrix}$
$$P = \begin{bmatrix} 1 & -2 \\ -1 & 1 \end{bmatrix}$$
$$P^{-1} = \frac{1}{(1)(1) - (-2)(-1)} \begin{bmatrix} 1 & 2 \\ 1 & 1 \end{bmatrix} = \frac{1}{-1} \begin{bmatrix} 1 & 2 \\ 1 & 1 \end{bmatrix} = \begin{bmatrix} -1 & -2 \\ -1 & -1 \end{bmatrix}$$
이제 행렬 지수함수 $e^{At}$를 계산한다. 대각화의 성질($A = PDP^{-1}$)에 의해 $e^{At} = P e^{Dt} P^{-1}$가 성립한다. 여기서 $D$는 eigenvalue들로 이루어진 대각 행렬이다.
$$e^{At} = P \begin{bmatrix} e^{1\cdot t} & 0 \\ 0 & e^{2\cdot t} \end{bmatrix} P^{-1}$$
위 식의 세 행렬을 차례대로 곱해보자.
$$\begin{bmatrix} 1 & -2 \\ -1 & 1 \end{bmatrix} \begin{bmatrix} e^t & 0 \\ 0 & e^{2t} \end{bmatrix} = \begin{bmatrix} e^t & -2e^{2t} \\ -e^t & e^{2t} \end{bmatrix}$$
$$\begin{bmatrix} e^t & -2e^{2t} \\ -e^t & e^{2t} \end{bmatrix} \begin{bmatrix} -1 & -2 \\ -1 & -1 \end{bmatrix}$$
$$= \begin{bmatrix} (e^t)(-1) + (-2e^{2t})(-1) & (e^t)(-2) + (-2e^{2t})(-1) \\ (-e^t)(-1) + (e^{2t})(-1) & (-e^t)(-2) + (e^{2t})(-1) \end{bmatrix}$$
$$= \begin{bmatrix} -e^t + 2e^{2t} & -2e^t + 2e^{2t} \\ e^t - e^{2t} & 2e^t - e^{2t} \end{bmatrix}$$
앞에서 이해한 내용을 바탕으로 양자역학의 미분 방정식을 풀어보자.
우리가 풀어야 할 핵심 미분 방정식은 다음과 같다.
초기 상태 $|\psi(0)\rangle$이 주어졌을 때, 임의의 시간 $t$에서의 상태 $|\psi(t)\rangle$는 어떤 '시간 진화 연산자 $U(t)$'를 곱해서 얻을 수 있다고 가정해보자.
이것을 미분 방정식에 대입한다.
어떤 벡터를 곱하든 결과가 항상 영벡터가 되려면, 수학적으로 괄호 안의 연산자 행렬 자체가 완전히 영행렬이어야만 한다.
"시간에 대해 미분했더니 자기 자신($U(t)$)에 상수 형태의 행렬($i\Omega$)이 곱해져서 나오는 함수"는 앞서 증명했듯 지수함수 형태이다. 따라서 $U(t)$는 다음과 같이 구해집니다.
우리가 구한 연산자 $U(t) = e^{i\Omega t}$가 물리적으로 타당하려면, 양자계의 전체 확률을 1로 보존해 주는 Unitary Operator($U^\dagger U = I$)여야만 한다. $\Omega$가 Hermitian Operator($\Omega^\dagger = \Omega$)라는 조건 하에 이를 증명해보자.
$\Omega$는 Hermitian이므로 $\Omega^\dagger = \Omega$를 대입한다.
고전 역학에서 뉴턴의 방정식($F=ma$)을 풀면 물체의 궤적을 예측할 수 있는 것 처럼 양자역학에서는 앞서 다룬 미분 방정식(슈뢰딩거 방정식)을 통해 입자의 미래를 예측한다.
수식 $|\psi(t)\rangle = U(t)|\psi(0)\rangle$이 뜻하는 것은 초기 상태 $|\psi(0)\rangle$만 정확히 알면 임의의 시간 $t$초 뒤의 양자 상태 $|\psi(t)\rangle$가 어떨지 계산해 낼 수 있다는 것이다.
흔히 양자역학은 확률적이고 불확정적이라고 하지만 관측하기 전까지 양자 상태 자체가 시간에 따라 변화하는 과정($U(t)$)은 이처럼 Deterministic하다는 것이다.
$U(t)$가 Unitary matrix 즉 $U^\dagger U = I$라는 것은 중요한 의미를 가지고 있다.
양자역학에서 상태 벡터의 크기(내적,$\langle\psi|\psi\rangle$)는 해당 상태를 발견할 총 확률을 의미한다. 입자가 우주 어딘가에는 반드시 존재해야 하기 때문에 이 전체 확률의 합은 무조건 $1$이어야 한다.
시간이 흘러 상태가 $|\psi(t)\rangle$로 변했을 때의 확률을 수식으로 계산해 보면 다음과 같다.
$$\langle\psi(t)|\psi(t)\rangle = \langle U(t)\psi(0)|U(t)\psi(0)\rangle = \langle\psi(0)|U^\dagger U|\psi(0)\rangle$$
만약 $U^\dagger U = I$가 아니라면 시간이 지날수록 전체 확률이 $1$을 넘어가거나(입자가 무에서 창조됨) $0$에 가까워질(입자가 우주에서 소멸됨) 것이다.
하지만 우리가 $\Omega$가 Hermitian Operator라는 사실을 통해 $U^\dagger U = I$ 를 증명했기 때문에 위 식은$\langle\psi(0)|I|\psi(0)\rangle = 1$로 정리된다. 즉, 시간이 아무리 흘러도 양자계의 전체 확률은 완벽하게 보존된다는 것이다.
Peep into Quantum Mechanics
Postulate 1: the state of the particle is represented by a vector $|\psi(t)\rangle$ in a Hilbert space
- However, the law of quantum mechanics doesn't tell us what the state space of Hilbert space should be.
- Therefore, state space should be found by experiment
- Example space: space composed of $|0\rangle$ & $|1\rangle$
고전 역학에서는 물체의 상태를 질량, 속도, 위치 같은 숫자로 나타낸다. 하지만 양자역학에서는 어떤 입자의 상태를 Vector로 표현한다. 이 기호 $|\psi(t)\rangle$ (켓 프사이) 안에는 특정 시간 $t$일 때 그 입자가 가질 수 있는 모든 정보가 다 압축되어 들어있다.
벡터가 있다면, 그 벡터가 존재하는 '공간'이 필요하다. 양자 상태를 나타내는 벡터들이 살고 있는 수학적인 무대를 Hilbert Space라고 부르는 것이다.
우리가 흔히 아는 3차원 공간$(x, y, z)$의 업그레이드 버전이라고 생각하시면 쉽다. Complex number를 다루고, 차원의 수가 무한대일 수도 있는 아주 포괄적이고 완벽한 벡터 공간이다.
양자역학이라는 수학적 법칙은 "입자의 상태는 Hilbert Space안의 벡터야"라고만 알려줄 뿐이고 그 공간이 구체적으로 몇 차원인지 Basis가 무엇인지는 전혀 알려주지 않는다.
수학은 빈 도화지(공간)만을 제공할 뿐이다. 우리가 관찰하려는 것이 전자의 스핀인지, 원자핵 주변의 위치인지에 따라서 필요한 공간의 형태가 다르다. 따라서 구체적인 상태 공간은 Experiment를 통해서 직접 basis vector들을 찾아내어 구성해야한다.
$|0\rangle$과 $|1\rangle$로 구성된 공간이 바로 실험과 이론을 통해 찾아낸 가장 단순한 Hilbert Space 예시이다.
Basis vector가 딱 2개($|0\rangle$과 $|1\rangle$)뿐인 2차원 공간이다. 양자 컴퓨터의 기본 단위인 큐비트(Qubit)가 바로 이 공간에서 정의된다.
결론적으로, 양자역학에서 입자 상태는 Hilbert Space라는 수학적 무대 위에서 벡터로 표현되며 이 무대의 구체적인 세팅은 우리가 무엇을 실험하느냐에 따라서 결정된다는 것이다.
Postulate 2: the evolution of a "closed" quantum system is described by a unitary transformation
- $|\psi\rangle$ at $t_1 \xrightarrow{\text{unitary transformation}} |\psi'\rangle$ at $t_2$
- Example: $|0\rangle = \begin{bmatrix} 1 \\ 0 \end{bmatrix}$, $|1\rangle = \begin{bmatrix} 0 \\ 1 \end{bmatrix}$
- $X = \begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}$, $X|0\rangle = |1\rangle$, $X|1\rangle = |0\rangle$
Postulate 2' (continuous time version): the time evolution of the state of a "closed" quantum system is described by Schrödinger equation,
- $\hbar$ is Planck's constant, $1.054 \times 10^{-34} (J\cdot s)$
- $\mathcal{H}$ is called Hamiltonian. Hamiltonian describes how the system should evolve.
① 불연속적 시간 변화 (Unitary Transformation)
닫힌 양자계(외부의 간섭이나 측정이 없는 상태)에서 일어나는 모든 상태 변화는 Unitary Transformation으로 설명된다는 것이다.
앞서 시간 진화 연산자 $U(t)$를 유도하면서 이 행렬이 반드시 $U^\dagger U = I$를 만족하는 Unitary matrix임을 증명했다. Unitary transformation은 벡터의 크기를 유지해주므로 상태가 변해도 입자가 존재할 전체 확률(1)이 우주에서 영원히 보존된다.
X-Gate
- $X = \begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}$, $X|0\rangle = |1\rangle$, $X|1\rangle = |0\rangle$
- X 행렬은 양자 컴퓨터에서 가장 기본이 되는 Pauli X-Gate이다.
- 상태 $|0\rangle$을 $|1\rangle$로, $|1\rangle$을 $|0\rangle$로 완벽하게 뒤집어버린다.
- 고전 컴퓨터의 NOT 게이트와 같은 역할을 한다.
- 이 $X$ 행렬 역시 Unitary matrix이다.
② 연속적 시간 변화 (Schrödinger Equation)
시간이 불연속적이지 않고 연속적으로 흐를 때 상태가 변화하는 규칙을 미분 방정식으로 적어 놓은 것이 바로 슈뢰딩거 방정식(Schrödinger equation)이다.
앞에서 풀었던 방정식 $\frac{\partial}{\partial t}|\psi\rangle = i\Omega|\psi\rangle$ 양번에 허수 $i$를 곱하고 식을 다듬으면 슈뢰딩거 방정식과 같은 뼈대이다.
$\Omega$ 자리에 물리학의 상수($\hbar$, 디랙 상수)와 해밀토니안($\mathcal{H}$) 연산자가 들어간 것뿐이다.
③ Hamiltonian, $\mathcal{H}$
Hamiltonian은 그 시스템이 가진 총 에너지(운동에너지+위치에너지)를 나타내는 Hermitian Operator이다.
Hamiltonian describes how the system should evolve( Hamiltonian이 시스템의 진화를 결정한다)라는 것이 양자역학의 핵심 철학이다.
어떤 입자가 갇혀있는 환경에 따라서 Hamiltonian matrix $\mathcal{H}$의 모양이 결정되고, 이 $\mathcal{H}$가 슈뢰딩거 방정식에 들어가서 상태 벡터 $|\psi\rangle$를 다음 시간으로 밀고 나가는 운전대 역할을 하게된다.
'Cryptography > Quantum Information' 카테고리의 다른 글
| [양자 컴퓨팅 및 정보의 기초] adjoint, Hermitian, unitary, 고유값 문제, 기저 변환 (0) | 2026.02.18 |
|---|---|
| [양자컴퓨팅 및 정보의 기초] 선형 벡터 공간, 내적, 선형 연산자 (0) | 2026.02.15 |
| [양자컴퓨팅 및 정보의 기초] 양자 정보 및 양자 컴퓨팅 개요 (0) | 2026.02.09 |