최근 수정 시각 : 2024-07-22 10:13:09

내적

스칼라곱에서 넘어옴
선형대수학
Linear Algebra
{{{#!wiki style="margin: 0 -10px -5px; min-height: calc(1.5em + 5px)"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin: -5px -1px -11px"
<colbgcolor=#006ab8> 기본 대상 일차함수 · 벡터 · 행렬 · 선형 변환
대수적 구조 가군(모듈) · 벡터 공간 · 내적 공간 · 노름 공간
선형 연산자 <colbgcolor=#006ab8> 기본 개념 연립방정식(1차 · 2차) · 행렬곱 · 단위행렬 · 역행렬크라메르 공식 · 가역행렬 · 전치행렬 · 행렬식(라플라스 전개) · 주대각합
선형 시스템 기본행연산기본행렬 · 가우스-조르당 소거법 · 행사다리꼴 · 행렬표현 · 라그랑주 보간법
주요 정리 선형대수학의 기본정리 · 차원 정리 · 가역행렬의 기본정리 · 스펙트럼 정리
기타 제곱근행렬 · 멱등행렬 · 멱영행렬 · 에르미트 행렬 · 야코비 행렬 · 방데르몽드 행렬 · 아다마르 행렬 변환 · 노름(수학)
벡터공간의 분해 상사 · 고유치 문제 · 케일리-해밀턴 정리 · 대각화(대각행렬) · 삼각화 · 조르당 분해
벡터의 연산 노름 · 거리함수 · 내적 · 외적(신발끈 공식) · 다중선형형식 · · 크로네커 델타
내적공간 그람-슈미트 과정 · 수반 연산자(에르미트 내적)
다중선형대수 텐서 · 텐서곱 · 레비치비타 기호 }}}}}}}}}

1. 개요2. 표기법3. 정의
3.1. 실수체의 경우
4. 내적에서 유도되는 노름5. 텐서곱과의 관계6. 힐베르트 공간7. 직교여공간8. 관련 문서

1. 개요

/ dot product, inner product

벡터 공간에서 정의된 이중선형(bilinear; 실수체에서) 혹은 반쌍형적(sesquilinear; 복소수체에서) 함수의 일종. 보통 내적은 벡터의 방향이 얼마나 일치하는지를 알기 위한 용도로 쓰인다.[1] 또한 내적을 이용해 노름, 즉 '길이'를 정의할 수 있으며, 이는 벡터 사이의 거리나 벡터의 크기를 논할 수 있게 한다.[2] 코시-슈바르츠 부등식 이라는 대단히 중요한 부등식이 바로 내적(과 이로부터 유도된 노름)의 성질로부터 유도된다.

내적이 주어진 벡터 공간을 내적 공간(inner product space)이라 한다. 행렬 곱셈의 결과 행렬은 앞 행렬의 행벡터와 뒤 행렬의 열벡터를 dot product라는 내적의 한 종류를 적용한 값을 가지는 행렬이라고 할 수가 있다.

고등학교에서는 '내적'이라고 부르는 연산은 대학교에서는 '도트곱(dot product)' 혹은 '스칼라곱(scalar product)'[3] 이라고 부르는 내적의 한 종류이며, 실제로는 무한히 많은 종류의 내적이 있다. 내적의 공리만 만족시키면 구체적인 연산이 어떻든 내적이라 부르기 때문이다. 하지만 내적을 어떻게 정의하든 유한차원에서 정규직교기저(orthonormal basis)를 이용하면 도트곱과 같은 형태로 유도할 수 있기에 내적은 본질적으론 도트곱 하나뿐이다.

가령 [math((a, b))]와 [math((c, d))]를 집어넣으면 [math(2ac - ad - bc + 2bd)]를 주는 연산도 내적의 공리를 만족시키므로 내적이 된다. 또한, 무한차원에서는 주어진 구간에 대한 정적분을 내적으로 볼 수 있음을 이용해 푸리에 해석 등에 요긴하게 써먹기도 한다.

2. 표기법

내적의 표기법에는 여러가지가 존재한다. 수학적으로는 모두 같은 의미이나, 사용하는 분야의 특성에 따라 특정 표기를 선호하게 된다.
표기법 설명
[math(\mathbf{a}\cdot\mathbf{b})] 내적의 일종인 스칼라곱(dot/scalar product)의 표현. 가장 간단하게 가운뎃점으로 표기한다. 직관적이기 때문에 고등학교 수학 및 학부 미적분학에서 많이 사용되는 표기법이다.
[math(\langle a, b\rangle)] 스칼라곱 말고도 아래 내적의 공리를 만족시키는 수많은 내적을 모두 표현할 수 있으며, 학부 선형대수학과 그 이상의 수학에서 많이 사용된다.
[math(\langle a | b\rangle)] 브라-켓 표기법에서의 내적 표기법.[4]
판독성이 좋으므로, 수많은 기호를 한 줄에 적을 일이 많은 양자역학에서 많이 사용되는 표기법이다.
[math(\displaystyle \int \overline{a}b)] 우리가 생각하는 그 적분 맞다. 주로 힐베르트 공간에서 이런 적분 꼴의 내적을 사용한다.

3. 정의

체 [math(F)]의 벡터 공간 [math(V)]의 내적 [math(\langle\cdot, \cdot\rangle: V\times V\to F)][5]은 임의의 [math(u, v, w\in V)]와 [math(a\in F)]에 대해 다음을 만족시킨다.
* (켤레 대칭성) [math(\overline{\langle v, u\rangle} = \langle u, v\rangle)],
* (첫째 인수에 대한 선형성) [math(\langle au+ v, w\rangle= a\langle u, w\rangle+ \langle v, w\rangle)],
* (양의 정부호성) 임의의 [math(0)]벡터가 아닌 [math(v\in V)]에 대해 [math(\langle v, v\rangle> 0)].

여기서 체 [math(F)]는 실수체([math(F= \R)])일 수도, 복소수체([math(F= \mathbb{C})])일 수도 있다. 즉, 두 가지 경우를 모두 아우르는 일반적인 정의다. 복소수에 익숙하지 않은 독자라면 아래 '실수체의 경우'를 참고.

위 정의에서는 [math(\langle 0, 0\rangle= 0)]임을 규정하지 않았으나, 이는 첫째 인수에 대한 선형성에 의해 간단히 유도된다.[6] 저자에 따라서는 다음과 같이 이를 정의에 살짝 포함시키기도 한다.
* (양의 정부호성, 변형) [math(\langle v, v\rangle\geq 0)]. 단, 등호는 [math(v= 0)]일 때만 성립.
그러나, 이 경우에도 '등호가 [math(v= 0)]일 때 성립함'이 중요한 게 아니라, '그 때 성립함'이 중요하다.

켤레대칭성과 첫째 인수에 대한 선형성은 둘째 인수에 대한 켤레선형성을 함의한다.
* (둘째 인수에 대한 켤레선형성) [math(\langle u, av+ w\rangle = \overline{a}\langle u, v\rangle+ \langle u, w\rangle)]
이에 의해 나타나는 성질을 에르미트성, 혹은 반쌍형적 형식(sesquilinear form)이라고 한다.

저자에 따라 혹은 분야에 따라 위 정의와 같이 둘째 인수에서 켤레선형성을 가지도록 하는 게 아니라, 첫째 인수에서 켤레선형성을 가지도록 반대로 정의하기도 한다. 물리학에서 사용할 경우 혹은 순수수학에서도 힐베르트 공간에서 정의되는 에르미트 내적의 경우는 후자의 경향이 강하다. 자세한 내용은 에르미트 내적을 참고.

3.1. 실수체의 경우

모든 실수는 그 켤레복소수가 자기 자신이기 때문에 위의 정의가 다음과 같이 익숙(?)한 형태가 된다. 실수체 [math(\mathbb{R})]의 벡터 공간 [math(V)]의 내적 [math(\langle\cdot, \cdot\rangle: V\times V\to \mathbb{R})]은 임의의 [math(u, v, w\in V)]와 [math(a\in \mathbb{R})]에 대해 다음을 만족시킨다.
* (대칭성) [math(\langle v, u\rangle = \langle u, v\rangle)]
* (첫째 인수에 대한 선형성) [math(\langle au+ v, w\rangle= a\langle u, w\rangle+ \langle v, w\rangle)]
* (양의 정부호성) 임의의 [math(0)] 벡터가 아닌 [math(v\in V)]에 대해 [math(\langle v, v\rangle> 0)]

둘째 인수에 대한 선형성은 대칭성과 첫째 인수에 대한 선형성에 의해 유도된다.
* (둘째 인수에 대한 선형성) [math(\langle u, av+ w\rangle = a\langle u, v\rangle+ \langle u, w\rangle)]

고등학교나 대학 수학에서 도트곱([math((u_1, u_2)\cdot(v_1, v_2)= u_1v_1+ u_2v_2)])을 갓 배운 학생이라면, 도트곱이 일반적인 내적의 정의를 따르고 있는지 확인해보자.

4. 내적에서 유도되는 노름

내적공간에서는 보통 다음과 같이 노름 [math(\lVert\cdot\rVert: V\to\mathbb{R})]을 정의해 사용한다.
* [math(\lVert v \rVert:= \sqrt{\langle v, v\rangle})]
위에서 소개한 내적의 정의에 의해 이 함수 [math(\lVert\cdot\rVert)]가 노름의 공리를 만족시킴을 보일 수 있다. 한편, 유클리드 공간 [math(V = \mathbb{R}^n)]에서 도트곱 [math(\langle u, v\rangle = u\cdot v = u_1v_1+ \cdots + u_nv_n)]을 상정하면, 우리에게 익숙한 벡터의 길이 공식 [math(\lVert v \rVert= \sqrt{v_1^2+ \cdots + v_n^2})]을 얻을 수 있다.

노름에 관한 일반적이거나 자세한 설명은 해당 문서를 참고하자. 다만, 여기서 중요한 것은 내적공간에서는 방향뿐만 아니라 크기와 거리도 자연스럽게 다루게 된다는 것이다.

5. 텐서곱과의 관계

[math(\bold{u}\cdot\bold{v} = \mathrm{tr}(\bold{u}\otimes\bold{v}))]
텐서곱의 주대각합, 즉 두 벡터로 행렬을 만들었을 경우 주대각성분을 모두 더한 값이 된다.

6. 힐베르트 공간

파일:상세 내용 아이콘.svg   자세한 내용은 힐베르트 공간 문서
번 문단을
부분을
참고하십시오.
내적공간 [math(V)]가 아래 성질을 만족시키면 [math(V)]를 힐베르트 공간이라고 한다.
* (완비성) [math(V)]의 임의의 코시수열 [math(a_n)]이 [math(V)]내의 한 점으로 수렴한다.

코시수열과 수렴성을 다루기 위해서는 벡터간의 거리가 정의되어야 하는데, 이 때 바로 위에서 언급한 '유도된 노름'을 사용한다.

유클리드 공간은 항상 완비성을 충족하고 내적공간은 (유도된 노름에 의해) 노름공간이므로, 유클리드 공간은 항상 힐베르트 공간이다. 힐베르트 공간은 무한차원 내적공간을 우리가 익숙한 유클리드 공간과 유사하게 다루기 위해 도입한 개념이다. 함수해석학에서는 더 나아가 바나흐 공간이라는 이름으로 더 일반화시켜 다룬다.

집합 [math(L_2[-1, 1])]을 폐구간 [math([-1, 1])]에서의 [math(L_2)]-실함수들, 즉 제곱을 적분한 게 유한값을 갖는 함수들의 집합이라고 하자. 이 공간에서의 내적을
[math(\displaystyle \langle f, g\rangle = \int_0^1 f(x)\,g(x) \,{\rm d}x)]
라고 정의하면 [math(L_2[-1, 1])]는 힐베르트 공간이 된다. 이와 같은 사실을 증명하는 과정에서 르베그 적분의 정의가 사용된다. 리만 적분의 정의로는 위와 같은 내적으로 정의된 공간이 완비성을 가진다는 사실을 증명할 수 없다.

내적공간이지만 힐베르트 공간이 아닌 예가 존재한다. [math(L_2[-1, 1])] 공간의 부분집합 [math(C[-1, 1])], 즉 [math([-1, 1])]에서 연속인 함수들의 집합에서 동일한 내적을 정의하면, 이 공간은 내적공간이 되지만 완비성을 만족시키지 않는다. 불연속함수로 수렴하는 연속함수 코시수열이 존재하기 때문.[7]

7. 직교여공간

내적 공간 [math(V)]의 부분공간 [math(W<V)]을 생각하자. [math(W)]의 직교여공간 (orthogonal complement) [math(W^{\perp})]을 다음과 같이 정의한다.[8]
[math(W^{\perp}:=\left\{v\in V:\langle v, w\rangle=0\quad\forall w\in W \right\})]
즉, [math(W^\perp)]는 [math(W)]의 모든 원소에 대해 "수직"인 벡터들을 모은 집합이다. [math(W^{\perp})]은 [math(V)]의 부분공간이 된다.

또한 (유한차원의 경우) 다음을 밝힐 수 있다.[9]
* [math(V=W\bigoplus W^{\perp})]
즉, [math(V)]의 임의의 벡터 [math(v)]는 [math(W)]와 [math(W^\perp)]에 각각 속하는 서로 직각인 두 벡터 [math(w, w')]의 합 [math(v= w+ w')] 으로 나타낼 수 있으며, 이러한 표현은 유일하다. 이 성질은 정사영(orthogonal projection)과 본질적으로 동일한 현상이다. 통계학의 기본적인 도구인 최소제곱법(least squares method)이 근본적으로 정사영이므로, 통계분석과 머신러닝 등 여러 중요한 기법들은 결국 이 성질을 기반으로 하는 셈이다.

8. 관련 문서



[1] 즉, 물리적인 직관과 달리 내적이 정의되지 않는 벡터는 방향을 논할 수가 없다.[2] 다만, 노름은 내적이 없이도 더욱 일반적인 상황에서 정의될 수 있다. 따라서 내적의 존재가 벡터의 크기를 논하는 데 필수적인 것은 아니다.[3] 연산 결과로 스칼라값이 나오기 때문이다. 다만, 비슷한 이름을 가진 스칼라배(scalar multiplication)는 스칼라곱과는 다르다.[4] Bracket(괄호)를 둘로 나눠 왼쪽은 'bra 벡터', 오른쪽은 'ket 벡터'라고 부른다. 한국어로 치면 '괄' '호'로 나눈 것과 같다.[5] 임의의 •과 •의 내적은 [math(\langle\cdot, \cdot\rangle)]라고 표현한다. 양자역학에서의 내적은 [math(\langle\cdot| \cdot\rangle)]라고 표현한다. 여담이지만, 양자역학에서 •이 위치 상태를 나타내는 정보이면 [math(\langle\cdot| \cdot\rangle)]는 입자가 •에서 •으로 이동하는 전이 확률(전이 진폭)이라고 표현된다.[6] [math(\langle 0, 0\rangle= \langle 0- 0, 0\rangle= \langle 0, 0 \rangle- \langle 0, 0 \rangle= 0)][7] 예컨대, 함수열 [math(f_n(x)= \max\lbrace 0, nx\rbrace)]를 생각해보자. 이 함수열은 코시수열이고 수렴은 하긴 하는데 그 극한이 계단함수, 즉 연속함수다.[8] [math(W)]가 부분공간이 아니더라도 정의는 할 수 있으나, [math(W\subseteq V)]일 때 [math(W^\perp = \langle W \rangle^\perp)]이므로 그다지 쓸모는 없다.[9] 무한차원의 경우 등호가 일반적으로 성립하지 않는다. 위에서 언급한 힐베르트 공간의 개념이 여기서 필요해진다.