SlideShare ist ein Scribd-Unternehmen logo
1 von 26
2018 FASTCAMPUS Extension SCHOOL
FAST CAMPUS SCHOOL 2018
Copyright FAST CAMPUS Corp. All Rights Reserved
기초 선형대수
(벡터)
윤 정 훈
2018 FASTCAMPUS Extension SCHOOL
Vector란?
● Data를 분석할 때, Vector를 왜 배우는가?
○ 전통적인 선형대수학에서는 벡터를 숫자들의 list로 생각하도록 한다.
○ 사물을 list로 표현하여 데이터화 할 수 있다.
▸ 사람을 (키, 몸무게, 나이)로 구성된 list로 표현할 수 있다.
▸ 학생의 시험 성적을 (시험 1 점수, 시험 2 점수, 시험 3 점수, 시험 4 점수)의 list로 표현한다.
○ 벡터로 표현된 데이터는 계산하기 쉽다.
○ python의 list를 사용하여 벡터를 나타낼 수 있다.
▸ python 예제 코드를 보자
2018 FASTCAMPUS Extension SCHOOL
Vector의 정의
● Vector의 수학적 정의
○ Scala는 물리에서 표현되는 물리적인 양(Quantity)으로서, 수치값으로 완전하게 표시할 수 있는
양이다.
▸ 배의 속력은 10노트
○ Vector는 물리에서 표현되는 물리적인 양(Quantity)으로서, 수치값과 방향성이 있어야 완전하게
표시할 수 있는 양이다.
▸ 배의 속도는 나침반 상에서 45도 북동방향으로 10노트
2018 FASTCAMPUS Extension SCHOOL
Vector의 덧셈연산
𝕒
𝕓
𝕒 + 𝕓
𝕒
𝕓
𝕒 + 𝕓
𝕒의 끝점이 𝕓방향으로 𝕓의 길이만큼 평행이동한 결과
2018 FASTCAMPUS Extension SCHOOL
Vector의 뺄셈연산
𝕒
𝕓
𝕒 − 𝕓
𝕒
𝕓
𝕒 − 𝕓
𝕒의 끝점이 −𝕓방향으로 𝕓의 길이만큼 평행이동한 결과
−𝕓
−𝕓
2018 FASTCAMPUS Extension SCHOOL
Vector의 스칼라곱
𝕒
𝛼𝕒
𝕒
−𝛼𝕒
𝕒의 𝜶배
𝕒의 −𝜶배
2018 FASTCAMPUS Extension SCHOOL
좌표공간에서의 Vector
● 화살표가 벡터를 기하학적으로 표현하는 데 유용하다.
● 우리는 벡터를 대수적으로 표현하려고하고 직교좌표계에 벡터가 있는 것으로 생각한다.
● 직교좌표공간안의 한점은 𝑥축, 𝑦축 … 의 순서쌍과 1:1대응이 이루어진다. 순서쌍에 있는
좌표를 성분(component)이라고 부른다.
● 벡터는 어떤 유한한 차원의 공간에 존재하는 점들이다.
● 따라서 숫자로 구성된 list로 표현할 수 있다.
2018 FASTCAMPUS Extension SCHOOL
좌표공간에서의 Vector의 덧셈연산
각 컴포넌트를 표시하고 합으로 표현한다.
𝕒 = (𝑎1, 𝑎2)
𝕓 = (𝑏1, 𝑏2)
𝕒 + 𝕓 = (𝑎1 + 𝑏1, 𝑎2 + 𝑏2)
2018 FASTCAMPUS Extension SCHOOL
좌표공간에서의 Vector 연산
● 좌교공간에서의 vector 연산의 종류
○ 𝑛차원 실수공간 𝑅 𝑛내의 두 벡터 𝕧 = (𝑣1, … , 𝑣 𝑛), 𝕨 = (𝑤1, … , 𝑤 𝑛)와 임의의 스칼라 𝑘에 대하여
▸ 𝕧 + 𝕨 = 𝑣1 + 𝑤1, … , 𝑣 𝑛 + 𝑤 𝑛
▸ 𝑘𝕧 = 𝑘𝑣1, … , 𝑘𝑣 𝑛
▸ −𝕧 = −𝑣1, … , −𝑣 𝑛
▸ 𝕨 − 𝕧 = (𝑤1 − 𝑣1, … , 𝑤 𝑛 − 𝑣 𝑛)
2018 FASTCAMPUS Extension SCHOOL
좌표공간에서의 Vector 연산
● 좌표공간에서의 vector의 연산의 성질
○ 𝕦, 𝕧, 𝕨 : 벡터, 𝑘, 𝑙 : 스칼라
▸ 교환법칙 𝕦 + 𝕧 = 𝕦 + 𝕧
▸ 결합법칙 𝕦 + 𝕧 + 𝕨 = 𝕦 + 𝕧 + 𝕨
▸ 항등원 𝕦 + 𝕆 = 𝕆 + 𝕦
▸ 역원 𝕦 + −𝕦 = 𝕆
▸ 𝑘 + 𝑙 𝕦 = 𝑘𝕦 + 𝑙𝕦
▸ 𝑘 𝕦 + 𝕧 = 𝑘𝕦 + 𝑘𝕧
▸ 𝑘 𝑙𝕦 = 𝑘𝑙 𝕦
▸ 1𝕦 = 𝕦
▸ 0𝕧 = 𝕆
▸ 𝑘𝕆 = 𝕆
▸ −1 𝕧 = −𝕧
2018 FASTCAMPUS Extension SCHOOL
벡터의 평행
● 두 벡터가 평행(parallel), 동일직선상에 있다. (collinear)
○ 한 벡터가 다른 벡터의 스칼라배수인 경우를 뜻한다.
𝕒
𝕓 = 𝛼𝕒
𝕒
𝕓
2018 FASTCAMPUS Extension SCHOOL
Vector의 일차결합
● Vector의 일차결합 (Linear Combination)
○ 𝕨, 𝕧1, … , 𝕧 𝑘 ∈ 𝑅 𝑛, 스칼라 𝑐1, … , 𝑐 𝑘가 주어졌을 때, 벡터 𝕨가 𝕨 = 𝑐1 𝕧1 + 𝑐2 𝕧2 + ⋯ + 𝑐 𝑘 𝕧 𝑘로 표현
되면, 벡터 𝕨는 벡터 𝕧1, 𝕧2, … , 𝕧 𝑘의 1차 결합이라고 한다.
○ 이 때 𝑐1, 𝑐2, … , 𝑐 𝑘는 계수(coefficient)라고 한다.
2018 FASTCAMPUS Extension SCHOOL
Row vector / Column vector
● 괄호표기(comma-delimited)로, 𝑅 𝑛의 좌표공간내에서의 벡터 표기 𝕧 = 𝑣1, … , 𝑣 𝑛
● 벡터표기란 𝑛개의 성분(component)를 정해진 순서로 늘어놓은 것이기 때문에, 벡터의 성
분을 올바른 순서대로 적어 주는 어떠한 형식의 표기방식이라도 괄호표기를 대신 할 수
있다.
● 𝕧 = [𝑣1, 𝑣2, … , 𝑣 𝑛]을 행벡터 형식이라고 한다. (row vector)
● 𝕧 = 𝑣1, 𝑣2, … , 𝑣 𝑛
𝑇
=
𝑣1
𝑣2
⋮
𝑣 𝑛
를 열벡터 형식이라고 한다. (column vector)
2018 FASTCAMPUS Extension SCHOOL
2,3차원 Vector의 길이
● 𝑅2에서 벡터 𝕧 = (𝑣1, 𝑣2)의 길이 𝕧 는 Pythagoras의 정리에 의하여 다음과 같다.
○ 𝕧 = 𝑣1
2
+ 𝑣2
2
○ ex) 𝕧 = (-3, 2)의 norm?
● 𝑅3에서 벡터 𝕧 = (𝑣1, 𝑣2, 𝑣3) 의 길이 𝕧 는 Pythagoras의 정리에 의하여 다음과 같다.
○ 𝕧 = 𝑂𝑄 2 + 𝑄𝑅 2 + 𝑅𝑃 2 = 𝑣1
2
+ 𝑣2
2
+ 𝑣3
2
○ ex) 𝕧 = (-3, 2, 1)의 norm?
(𝑣1, 𝑣2)
𝒗 𝑂
𝑄
𝑅
𝑆
𝑃
2018 FASTCAMPUS Extension SCHOOL
𝒏차원 Vector의 길이
● 𝕧 = (𝑣1, 𝑣2, … , 𝑣 𝑛)이 𝑅 𝑛의 벡터이면 𝕧의 길이(length 또는 norm) 혹은 크기(magnitude)는
𝕧 로 표시하며 다음과 같이 정의한다.
○ 𝕧 = 𝑣1
2
+ 𝑣2
2
+ ⋯ + 𝑣 𝑛
2
● 벡터 𝕧 ∈ 𝑅 𝑛와 임의의 스칼라 𝑘에 대하여,
○ 𝕧 ≧ 0
○ 𝕧 = 0이 되기 위한 필요충분조건은 𝕧 = 0이다.
○ 𝑘𝕧 ≧ 𝑘 𝕧
2018 FASTCAMPUS Extension SCHOOL
단위 벡터
● 단위 벡터(unit vector)
○ 길이가 1인 벡터를 단위벡터라고 한다.
● 영이 아닌 벡터 𝕧 ∈ 𝑅 𝑛와 같은 방향을 갖는 단위벡터 𝕦는 다음 식으로 구한다.
𝕦 =
1
𝕧
𝕧
● 단위벡터를 구하는 과정을 정규화(normalizing)라 한다.
ex) v = (2, 2, -1)의 단위벡터는?
길이가 1인 단위벡터 𝕦
2018 FASTCAMPUS Extension SCHOOL
2차원 표준 단위 벡터
● 𝑅2의 직교좌표계에서 양의 좌표축 방향의 단위벡터들을 표준단위벡터라 부른다.
○ 𝑅2
에서는 𝕚 = (1,0), 𝕛 = (0,1)
● 𝑅2의 모든 벡터 𝕧 = (𝑣1, 𝑣2)는 다음과 같이 표준단위벡터들로 표현
○ 𝕧 = (𝑣1, 𝑣2) = 𝑣1(1,0) + 𝑣2(0,1) = 𝑣1 𝕚 + 𝑣2 𝕛
𝑣1, 𝑣2 = 𝑣1 𝕚 + 𝑣2 𝕛
𝕧
𝕚
𝕛
2018 FASTCAMPUS Extension SCHOOL
3차원 표준 단위 벡터
● 𝑅3의 직교좌표계에서 양의 좌표축 방향의 단위벡터들을 표준단위벡터라 부른다.
○ 𝑅3
에서는 𝕚 = (1,0,0) , 𝕛 = (0,1,0) , 𝕜 = (0, 0, 1)
● 𝑅3의 모든 벡터 𝕧 = (𝑣1, 𝑣2, 𝑣3)는 다음과 같이 표준단위벡터들로 표현
○ 𝕧 = (𝑣1, 𝑣2, 𝑣3) = 𝑣1(1,0,0) + 𝑣2(0,1,0) + 𝑣3(0,0,1) = 𝑣1 𝕚 + 𝑣2 𝕛 + 𝑣3 𝕜
𝑂
𝑄
𝑅
𝑆
𝑃
𝕚
𝕛
𝕜 𝑣1, 𝑣2, 𝑣3 = 𝑣1 𝕚 + 𝑣2 𝕛 + 𝑣3 𝕜
2018 FASTCAMPUS Extension SCHOOL
𝒏차원 표준 단위 벡터
● 일반적으로 𝑅 𝑛에서의 표준단위벡터는
○ 𝕖1 = (1,0, … , 0) , 𝕖2 = (0,1, … , 0) , … , 𝕖 𝑛 = 0,0, … , 1
● 𝑅 𝑛의 벡터 𝕧 = (𝑣1, 𝑣2, … , 𝑣 𝑛)가 다음과 같이 표준단위벡터들로써 표현될 수 있다.
○ 𝕧 = (𝑣1, … , 𝑣 𝑛) = 𝑣1 𝕖1 + 𝑣2 𝕖2 + ⋯ + 𝑣 𝑛 𝕖 𝑛
○ 즉, 벡터가 표준단위벡터의 선형결합(linear combination)으로 나타내어진다.
2018 FASTCAMPUS Extension SCHOOL
2,3차원의 점들 간의 거리
● 𝑃1과 𝑃2가 𝑅2또는 𝑅3사이의 점이면 벡터 𝑃1, 𝑃2의 길이는 두 점 간 거리 𝑑와 일치한다.
○ 2차원 : 𝑑(𝕦, 𝕧) = ||𝑃1 𝑃2|| = 𝑥1 − 𝑥2
2 + 𝑦1 − 𝑦2
2
○ 3차원 : 𝑑(𝕦, 𝕧) = ||𝑃1 𝑃2|| = 𝑥1 − 𝑥2
2 + 𝑦1 − 𝑦2
2 + (𝑧1 − 𝑧2)
𝑃1
𝑃2
𝑑 = ||𝑃1 𝑃2||
2018 FASTCAMPUS Extension SCHOOL
𝒏차원의 점들 간의 거리
● 𝕦 = (𝑢1, 𝑢2, … , 𝑢 𝑛) , 𝕧 = (𝑣1, 𝑣2, … , 𝑣 𝑛)이 𝑅 𝑛의 점이면 이들 𝕦와 𝕧사이의 거리(distance)를
𝑑(𝕦, 𝕧)로 표시하며 다음과 같이 정의한다.
○ 𝑑(𝕦, 𝕧) = 𝕦 − 𝕧 = 𝑢1 − 𝑣1
2 + 𝑢2 − 𝑣2
2 + ⋯ + (𝑢 𝑛 − 𝑣 𝑛)
ex) 𝕦 = (1, 3, −2, 7) , 𝕧 = (0, 7, 2, 2) 두 점 사이의 거리는?
● 거리의 성질
○ 𝑑 𝕦, 𝕧 ≥ 0
○ 𝑑(𝕦, 𝕧) = 0이 되기 위한 필요충분조건은 𝕦 = 𝕧이다.
○ 𝑑(𝕦, 𝕧) = 𝑑(𝕧, 𝕦)
2018 FASTCAMPUS Extension SCHOOL
벡터의 내적
● 벡터의 내적(Inner product)은 두 벡터 사이의 각을 재거나 두 벡터가 서로 수직이라는 것
을 판별하는데 유용한 곱셈
● 𝕦 = (𝑢1, … , 𝑢 𝑛)과 𝕧 = (𝑣1, … , 𝑣 𝑛)이 𝑅 𝑛의 벡터일때, 𝕦와 𝕧의 점곱(dot product) 또는 𝕦와
𝕧의 Euclid 내적(Euclidean inner product)은 𝕦 ∙ 𝕧로 표기하며 다음 식과 같이 정의한다.
○ 𝕦 ∙ 𝕧 = 𝑢1 𝑣1 + 𝑢2 𝑣2 + ⋯ + 𝑢 𝑛 𝑣 𝑛
ex) 𝕦 = (−1,3,5,7) , 𝕧 = (5, −4,7,0)
2018 FASTCAMPUS Extension SCHOOL
내적의 성질
● 𝕧 = 𝑣1, 𝑣2, … , 𝑣 𝑛
○ 𝕧・𝕧 = 𝑣1 𝑣1 + 𝑣2 𝑣2 + ⋯ + 𝑣 𝑛 𝑣 𝑛 = 𝕧 2
● 내적의 기본 성질들
○ 𝕦, 𝕧, 𝕨가 𝑅 𝑛
의 벡터이고 𝑘가 실수이면
▸ 𝕦・𝕧 = 𝕧・𝕦(대칭성)
▸ 𝕦・ 𝕧 + 𝕨 = 𝕦・𝕧 + 𝕧・𝕨(분배성)
▸ 𝑘 𝕦・𝕧 = 𝑘𝕦 ・𝕧 = 𝕦・(𝑘𝕧) (동치성)
▸ 𝕧・𝕧 ≥ 0 이고𝕧・𝕧 = 0의 필요충분조건은 𝕧 = 0 (양수성)
▸ 𝕆・𝕧 = 𝕧・𝕆
▸ 𝕧 + 𝕦 ・𝕨 = 𝕧・𝕨 + 𝕦・𝕨
▸ 𝕦・ 𝕧 − 𝕨 = 𝕦・𝕧 − 𝕧・𝕨
▸ 𝕧 − 𝕦 ・𝕨 = 𝕧・𝕨 − 𝕦・𝕨
2018 FASTCAMPUS Extension SCHOOL
벡터의 사잇각
● 만약 𝕦와 𝕧가 𝑅2 또는 𝑅3의 벡터들이고 𝜃가 이들 벡터의 사잇각이라 하면
cos 𝜃 =
𝕦 ∙ 𝕧
𝕦 𝕧
○ 𝕦 ∙ 𝕧 = 𝕦 𝕧 cos 𝜃
▸ 영벡터가 아닌 𝕦 와 𝕧 가 수직이기 위한 필요충분조건은 두 벡터의 내적이 0
𝕦
𝕧
𝕦 − 𝕧
도출방법)
1. 코사인 제2법칙 : 𝕧 − 𝕦 2
= 𝕧 2
+ 𝕦 2
− 2 𝕧 𝕦 cos 𝜃
2. 벡터의 길이 : 𝕧 − 𝕦 2
= 𝕧 − 𝕦 ∙ (𝕧 − 𝕦)
이 두개가 같음을 보이면, 사잇각이 도출된다.𝜃
2018 FASTCAMPUS Extension SCHOOL
벡터의 직교
● 𝑅 𝑛의 벡터 𝕦와 𝕧가 직교한다(orthogonal)는 것은 𝕦 ∙ 𝕧 = 0을 만족시키는 경우를 말한다.
● 공집합이 아닌 𝑅 𝑛의 벡터들의 집합이 직교집합(orthogonal set)이라는 것은 이 집합의 임
의의 서로 다른 한 쌍의 벡터가 직교하는 것을 말한다.
ex) 다음 벡터들이 𝑅4에서 직교집합을 이루고 있음을 보여라.
𝕧1 = (1,2,2,4) , 𝕧2 = (−2,1, −4,2) , 𝕧3 = (−4,2,2, −1)
2018 FASTCAMPUS Extension SCHOOL
벡터의 정규직교
● 𝑅 𝑛의 두 벡터 𝕦와 𝕧가 정규직교(orthonormal)라는 것은 이들이 직교하고 길이가 1인 경
우를 뜻한다.
○ 𝕦 ∙ 𝕧 = 0
○ 𝕦 = 1, 𝕧 = 1
● 벡터들의 집합이 정규직교집합(orthonormal set)이라는 것은 이 집합의 모든 벡터들의 길
이가 1이고 이 집합 속의 서로 다른 임의의 한 쌍의 벡터들이 직교하는 경우를 뜻한다.
ex) 표준단위벡터 𝕖1 = (1,0, … , 0) , 𝕖2 = (0,1, … , 0) , … , 𝕖 𝑛 = (0, … , 0,1)
ex) 다음이 정규직교집합을 이루는 것을 보여라.
𝕢1 = (
1
5
,
2
5
,
2
5
,
4
5
) , 𝕢2 = (−
2
5
,
1
5
, −
4
5
,
2
5
) , 𝕢3 = (−
4
5
,
2
5
,
2
5
, −
1
5
)

Weitere ähnliche Inhalte

Was ist angesagt?

0228 2 sample_distribution
0228 2 sample_distribution0228 2 sample_distribution
0228 2 sample_distributionJeonghun Yoon
 
0131 1 spectral_theorem_transformation
0131 1 spectral_theorem_transformation0131 1 spectral_theorem_transformation
0131 1 spectral_theorem_transformationJeonghun Yoon
 
03. linear regression
03. linear regression03. linear regression
03. linear regressionJeonghun Yoon
 
Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)Jeonghun Yoon
 
08. spectal clustering
08. spectal clustering08. spectal clustering
08. spectal clusteringJeonghun Yoon
 
0221 basic probability theory
0221 basic probability theory0221 basic probability theory
0221 basic probability theoryJeonghun Yoon
 
Association rule mining
Association rule miningAssociation rule mining
Association rule miningJeonghun Yoon
 
02. naive bayes classifier revision
02. naive bayes classifier   revision02. naive bayes classifier   revision
02. naive bayes classifier revisionJeonghun Yoon
 
05. k means clustering ( k-means 클러스터링)
05. k means clustering ( k-means 클러스터링)05. k means clustering ( k-means 클러스터링)
05. k means clustering ( k-means 클러스터링)Jeonghun Yoon
 
0307 2 hypothesis_testing
0307 2 hypothesis_testing0307 2 hypothesis_testing
0307 2 hypothesis_testingJeonghun Yoon
 
패턴 인식 2 classifiers based on bayes decision theory part 1
패턴 인식 2 classifiers based on bayes decision theory part 1패턴 인식 2 classifiers based on bayes decision theory part 1
패턴 인식 2 classifiers based on bayes decision theory part 1jdo
 
패턴인식-베이즈결정이론기반 분류기 part1
패턴인식-베이즈결정이론기반 분류기 part1패턴인식-베이즈결정이론기반 분류기 part1
패턴인식-베이즈결정이론기반 분류기 part1jdo
 
Wasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 IWasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 ISungbin Lim
 

Was ist angesagt? (20)

0228 2 sample_distribution
0228 2 sample_distribution0228 2 sample_distribution
0228 2 sample_distribution
 
Decision tree
Decision treeDecision tree
Decision tree
 
0131 1 spectral_theorem_transformation
0131 1 spectral_theorem_transformation0131 1 spectral_theorem_transformation
0131 1 spectral_theorem_transformation
 
03. linear regression
03. linear regression03. linear regression
03. linear regression
 
0314 2 correlation
0314 2 correlation0314 2 correlation
0314 2 correlation
 
Topic models
Topic modelsTopic models
Topic models
 
SVM
SVMSVM
SVM
 
Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)
 
07. PCA
07. PCA07. PCA
07. PCA
 
08. spectal clustering
08. spectal clustering08. spectal clustering
08. spectal clustering
 
0221 basic probability theory
0221 basic probability theory0221 basic probability theory
0221 basic probability theory
 
Association rule mining
Association rule miningAssociation rule mining
Association rule mining
 
02. naive bayes classifier revision
02. naive bayes classifier   revision02. naive bayes classifier   revision
02. naive bayes classifier revision
 
05. k means clustering ( k-means 클러스터링)
05. k means clustering ( k-means 클러스터링)05. k means clustering ( k-means 클러스터링)
05. k means clustering ( k-means 클러스터링)
 
0307 2 hypothesis_testing
0307 2 hypothesis_testing0307 2 hypothesis_testing
0307 2 hypothesis_testing
 
01. introduction
01. introduction01. introduction
01. introduction
 
패턴 인식 2 classifiers based on bayes decision theory part 1
패턴 인식 2 classifiers based on bayes decision theory part 1패턴 인식 2 classifiers based on bayes decision theory part 1
패턴 인식 2 classifiers based on bayes decision theory part 1
 
패턴인식-베이즈결정이론기반 분류기 part1
패턴인식-베이즈결정이론기반 분류기 part1패턴인식-베이즈결정이론기반 분류기 part1
패턴인식-베이즈결정이론기반 분류기 part1
 
Linear algebra
Linear algebraLinear algebra
Linear algebra
 
Wasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 IWasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 I
 

Ähnlich wie 0124 1 linear_algebra_basic_vector

Eigendecomposition and pca
Eigendecomposition and pcaEigendecomposition and pca
Eigendecomposition and pcaJinhwan Suk
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)AHRA CHO
 
Linear algebra.pptx
Linear algebra.pptxLinear algebra.pptx
Linear algebra.pptxGeonWooYoo1
 
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영AHRA CHO
 
선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt OrthogonalizationAHRA CHO
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기Woong won Lee
 
Lecture 2: Supervised Learning
Lecture 2: Supervised LearningLecture 2: Supervised Learning
Lecture 2: Supervised LearningSang Jun Lee
 
3D프로그래밍을 위한 벡터,행렬과 사원수
3D프로그래밍을 위한 벡터,행렬과 사원수3D프로그래밍을 위한 벡터,행렬과 사원수
3D프로그래밍을 위한 벡터,행렬과 사원수WoohyunKim16
 
Linear regression
Linear regressionLinear regression
Linear regression전 희천
 
게임수학 강의노트 1부
게임수학 강의노트 1부게임수학 강의노트 1부
게임수학 강의노트 1부Young-Min kang
 
Ray-triangle intersection
Ray-triangle intersectionRay-triangle intersection
Ray-triangle intersection동환 김
 
Auto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-EncodersAuto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-EncodersJinho Lee
 
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미AHRA CHO
 
Deep Learning from scratch 5장 : backpropagation
 Deep Learning from scratch 5장 : backpropagation Deep Learning from scratch 5장 : backpropagation
Deep Learning from scratch 5장 : backpropagationJinSooKim80
 
프로그래머을 위한 선형대수(Chap1)
프로그래머을 위한 선형대수(Chap1)프로그래머을 위한 선형대수(Chap1)
프로그래머을 위한 선형대수(Chap1)Haryun Lee
 
선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합AHRA CHO
 
내가 이해하는 SVM(왜, 어떻게를 중심으로)
내가 이해하는 SVM(왜, 어떻게를 중심으로)내가 이해하는 SVM(왜, 어떻게를 중심으로)
내가 이해하는 SVM(왜, 어떻게를 중심으로)SANG WON PARK
 

Ähnlich wie 0124 1 linear_algebra_basic_vector (20)

Eigendecomposition and pca
Eigendecomposition and pcaEigendecomposition and pca
Eigendecomposition and pca
 
선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)선형대수 08. 선형 변환 (Linear Transformation)
선형대수 08. 선형 변환 (Linear Transformation)
 
Linear algebra.pptx
Linear algebra.pptxLinear algebra.pptx
Linear algebra.pptx
 
선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영선형대수 09. 벡터의 직교성과 투영
선형대수 09. 벡터의 직교성과 투영
 
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
 
선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization선형대수 12강 Gram-Schmidt Orthogonalization
선형대수 12강 Gram-Schmidt Orthogonalization
 
Vae
VaeVae
Vae
 
RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기RLCode와 A3C 쉽고 깊게 이해하기
RLCode와 A3C 쉽고 깊게 이해하기
 
Lecture 2: Supervised Learning
Lecture 2: Supervised LearningLecture 2: Supervised Learning
Lecture 2: Supervised Learning
 
3D프로그래밍을 위한 벡터,행렬과 사원수
3D프로그래밍을 위한 벡터,행렬과 사원수3D프로그래밍을 위한 벡터,행렬과 사원수
3D프로그래밍을 위한 벡터,행렬과 사원수
 
Linear regression
Linear regressionLinear regression
Linear regression
 
벡터
벡터벡터
벡터
 
게임수학 강의노트 1부
게임수학 강의노트 1부게임수학 강의노트 1부
게임수학 강의노트 1부
 
Ray-triangle intersection
Ray-triangle intersectionRay-triangle intersection
Ray-triangle intersection
 
Auto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-EncodersAuto-Encoders and Variational Auto-Encoders
Auto-Encoders and Variational Auto-Encoders
 
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
선형대수 01. 선형성의 정의와 1차 연립방정식의 의미
 
Deep Learning from scratch 5장 : backpropagation
 Deep Learning from scratch 5장 : backpropagation Deep Learning from scratch 5장 : backpropagation
Deep Learning from scratch 5장 : backpropagation
 
프로그래머을 위한 선형대수(Chap1)
프로그래머을 위한 선형대수(Chap1)프로그래머을 위한 선형대수(Chap1)
프로그래머을 위한 선형대수(Chap1)
 
선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합선형대수 06. 영벡터공간과 해집합
선형대수 06. 영벡터공간과 해집합
 
내가 이해하는 SVM(왜, 어떻게를 중심으로)
내가 이해하는 SVM(왜, 어떻게를 중심으로)내가 이해하는 SVM(왜, 어떻게를 중심으로)
내가 이해하는 SVM(왜, 어떻게를 중심으로)
 

0124 1 linear_algebra_basic_vector

  • 1. 2018 FASTCAMPUS Extension SCHOOL FAST CAMPUS SCHOOL 2018 Copyright FAST CAMPUS Corp. All Rights Reserved 기초 선형대수 (벡터) 윤 정 훈
  • 2. 2018 FASTCAMPUS Extension SCHOOL Vector란? ● Data를 분석할 때, Vector를 왜 배우는가? ○ 전통적인 선형대수학에서는 벡터를 숫자들의 list로 생각하도록 한다. ○ 사물을 list로 표현하여 데이터화 할 수 있다. ▸ 사람을 (키, 몸무게, 나이)로 구성된 list로 표현할 수 있다. ▸ 학생의 시험 성적을 (시험 1 점수, 시험 2 점수, 시험 3 점수, 시험 4 점수)의 list로 표현한다. ○ 벡터로 표현된 데이터는 계산하기 쉽다. ○ python의 list를 사용하여 벡터를 나타낼 수 있다. ▸ python 예제 코드를 보자
  • 3. 2018 FASTCAMPUS Extension SCHOOL Vector의 정의 ● Vector의 수학적 정의 ○ Scala는 물리에서 표현되는 물리적인 양(Quantity)으로서, 수치값으로 완전하게 표시할 수 있는 양이다. ▸ 배의 속력은 10노트 ○ Vector는 물리에서 표현되는 물리적인 양(Quantity)으로서, 수치값과 방향성이 있어야 완전하게 표시할 수 있는 양이다. ▸ 배의 속도는 나침반 상에서 45도 북동방향으로 10노트
  • 4. 2018 FASTCAMPUS Extension SCHOOL Vector의 덧셈연산 𝕒 𝕓 𝕒 + 𝕓 𝕒 𝕓 𝕒 + 𝕓 𝕒의 끝점이 𝕓방향으로 𝕓의 길이만큼 평행이동한 결과
  • 5. 2018 FASTCAMPUS Extension SCHOOL Vector의 뺄셈연산 𝕒 𝕓 𝕒 − 𝕓 𝕒 𝕓 𝕒 − 𝕓 𝕒의 끝점이 −𝕓방향으로 𝕓의 길이만큼 평행이동한 결과 −𝕓 −𝕓
  • 6. 2018 FASTCAMPUS Extension SCHOOL Vector의 스칼라곱 𝕒 𝛼𝕒 𝕒 −𝛼𝕒 𝕒의 𝜶배 𝕒의 −𝜶배
  • 7. 2018 FASTCAMPUS Extension SCHOOL 좌표공간에서의 Vector ● 화살표가 벡터를 기하학적으로 표현하는 데 유용하다. ● 우리는 벡터를 대수적으로 표현하려고하고 직교좌표계에 벡터가 있는 것으로 생각한다. ● 직교좌표공간안의 한점은 𝑥축, 𝑦축 … 의 순서쌍과 1:1대응이 이루어진다. 순서쌍에 있는 좌표를 성분(component)이라고 부른다. ● 벡터는 어떤 유한한 차원의 공간에 존재하는 점들이다. ● 따라서 숫자로 구성된 list로 표현할 수 있다.
  • 8. 2018 FASTCAMPUS Extension SCHOOL 좌표공간에서의 Vector의 덧셈연산 각 컴포넌트를 표시하고 합으로 표현한다. 𝕒 = (𝑎1, 𝑎2) 𝕓 = (𝑏1, 𝑏2) 𝕒 + 𝕓 = (𝑎1 + 𝑏1, 𝑎2 + 𝑏2)
  • 9. 2018 FASTCAMPUS Extension SCHOOL 좌표공간에서의 Vector 연산 ● 좌교공간에서의 vector 연산의 종류 ○ 𝑛차원 실수공간 𝑅 𝑛내의 두 벡터 𝕧 = (𝑣1, … , 𝑣 𝑛), 𝕨 = (𝑤1, … , 𝑤 𝑛)와 임의의 스칼라 𝑘에 대하여 ▸ 𝕧 + 𝕨 = 𝑣1 + 𝑤1, … , 𝑣 𝑛 + 𝑤 𝑛 ▸ 𝑘𝕧 = 𝑘𝑣1, … , 𝑘𝑣 𝑛 ▸ −𝕧 = −𝑣1, … , −𝑣 𝑛 ▸ 𝕨 − 𝕧 = (𝑤1 − 𝑣1, … , 𝑤 𝑛 − 𝑣 𝑛)
  • 10. 2018 FASTCAMPUS Extension SCHOOL 좌표공간에서의 Vector 연산 ● 좌표공간에서의 vector의 연산의 성질 ○ 𝕦, 𝕧, 𝕨 : 벡터, 𝑘, 𝑙 : 스칼라 ▸ 교환법칙 𝕦 + 𝕧 = 𝕦 + 𝕧 ▸ 결합법칙 𝕦 + 𝕧 + 𝕨 = 𝕦 + 𝕧 + 𝕨 ▸ 항등원 𝕦 + 𝕆 = 𝕆 + 𝕦 ▸ 역원 𝕦 + −𝕦 = 𝕆 ▸ 𝑘 + 𝑙 𝕦 = 𝑘𝕦 + 𝑙𝕦 ▸ 𝑘 𝕦 + 𝕧 = 𝑘𝕦 + 𝑘𝕧 ▸ 𝑘 𝑙𝕦 = 𝑘𝑙 𝕦 ▸ 1𝕦 = 𝕦 ▸ 0𝕧 = 𝕆 ▸ 𝑘𝕆 = 𝕆 ▸ −1 𝕧 = −𝕧
  • 11. 2018 FASTCAMPUS Extension SCHOOL 벡터의 평행 ● 두 벡터가 평행(parallel), 동일직선상에 있다. (collinear) ○ 한 벡터가 다른 벡터의 스칼라배수인 경우를 뜻한다. 𝕒 𝕓 = 𝛼𝕒 𝕒 𝕓
  • 12. 2018 FASTCAMPUS Extension SCHOOL Vector의 일차결합 ● Vector의 일차결합 (Linear Combination) ○ 𝕨, 𝕧1, … , 𝕧 𝑘 ∈ 𝑅 𝑛, 스칼라 𝑐1, … , 𝑐 𝑘가 주어졌을 때, 벡터 𝕨가 𝕨 = 𝑐1 𝕧1 + 𝑐2 𝕧2 + ⋯ + 𝑐 𝑘 𝕧 𝑘로 표현 되면, 벡터 𝕨는 벡터 𝕧1, 𝕧2, … , 𝕧 𝑘의 1차 결합이라고 한다. ○ 이 때 𝑐1, 𝑐2, … , 𝑐 𝑘는 계수(coefficient)라고 한다.
  • 13. 2018 FASTCAMPUS Extension SCHOOL Row vector / Column vector ● 괄호표기(comma-delimited)로, 𝑅 𝑛의 좌표공간내에서의 벡터 표기 𝕧 = 𝑣1, … , 𝑣 𝑛 ● 벡터표기란 𝑛개의 성분(component)를 정해진 순서로 늘어놓은 것이기 때문에, 벡터의 성 분을 올바른 순서대로 적어 주는 어떠한 형식의 표기방식이라도 괄호표기를 대신 할 수 있다. ● 𝕧 = [𝑣1, 𝑣2, … , 𝑣 𝑛]을 행벡터 형식이라고 한다. (row vector) ● 𝕧 = 𝑣1, 𝑣2, … , 𝑣 𝑛 𝑇 = 𝑣1 𝑣2 ⋮ 𝑣 𝑛 를 열벡터 형식이라고 한다. (column vector)
  • 14. 2018 FASTCAMPUS Extension SCHOOL 2,3차원 Vector의 길이 ● 𝑅2에서 벡터 𝕧 = (𝑣1, 𝑣2)의 길이 𝕧 는 Pythagoras의 정리에 의하여 다음과 같다. ○ 𝕧 = 𝑣1 2 + 𝑣2 2 ○ ex) 𝕧 = (-3, 2)의 norm? ● 𝑅3에서 벡터 𝕧 = (𝑣1, 𝑣2, 𝑣3) 의 길이 𝕧 는 Pythagoras의 정리에 의하여 다음과 같다. ○ 𝕧 = 𝑂𝑄 2 + 𝑄𝑅 2 + 𝑅𝑃 2 = 𝑣1 2 + 𝑣2 2 + 𝑣3 2 ○ ex) 𝕧 = (-3, 2, 1)의 norm? (𝑣1, 𝑣2) 𝒗 𝑂 𝑄 𝑅 𝑆 𝑃
  • 15. 2018 FASTCAMPUS Extension SCHOOL 𝒏차원 Vector의 길이 ● 𝕧 = (𝑣1, 𝑣2, … , 𝑣 𝑛)이 𝑅 𝑛의 벡터이면 𝕧의 길이(length 또는 norm) 혹은 크기(magnitude)는 𝕧 로 표시하며 다음과 같이 정의한다. ○ 𝕧 = 𝑣1 2 + 𝑣2 2 + ⋯ + 𝑣 𝑛 2 ● 벡터 𝕧 ∈ 𝑅 𝑛와 임의의 스칼라 𝑘에 대하여, ○ 𝕧 ≧ 0 ○ 𝕧 = 0이 되기 위한 필요충분조건은 𝕧 = 0이다. ○ 𝑘𝕧 ≧ 𝑘 𝕧
  • 16. 2018 FASTCAMPUS Extension SCHOOL 단위 벡터 ● 단위 벡터(unit vector) ○ 길이가 1인 벡터를 단위벡터라고 한다. ● 영이 아닌 벡터 𝕧 ∈ 𝑅 𝑛와 같은 방향을 갖는 단위벡터 𝕦는 다음 식으로 구한다. 𝕦 = 1 𝕧 𝕧 ● 단위벡터를 구하는 과정을 정규화(normalizing)라 한다. ex) v = (2, 2, -1)의 단위벡터는? 길이가 1인 단위벡터 𝕦
  • 17. 2018 FASTCAMPUS Extension SCHOOL 2차원 표준 단위 벡터 ● 𝑅2의 직교좌표계에서 양의 좌표축 방향의 단위벡터들을 표준단위벡터라 부른다. ○ 𝑅2 에서는 𝕚 = (1,0), 𝕛 = (0,1) ● 𝑅2의 모든 벡터 𝕧 = (𝑣1, 𝑣2)는 다음과 같이 표준단위벡터들로 표현 ○ 𝕧 = (𝑣1, 𝑣2) = 𝑣1(1,0) + 𝑣2(0,1) = 𝑣1 𝕚 + 𝑣2 𝕛 𝑣1, 𝑣2 = 𝑣1 𝕚 + 𝑣2 𝕛 𝕧 𝕚 𝕛
  • 18. 2018 FASTCAMPUS Extension SCHOOL 3차원 표준 단위 벡터 ● 𝑅3의 직교좌표계에서 양의 좌표축 방향의 단위벡터들을 표준단위벡터라 부른다. ○ 𝑅3 에서는 𝕚 = (1,0,0) , 𝕛 = (0,1,0) , 𝕜 = (0, 0, 1) ● 𝑅3의 모든 벡터 𝕧 = (𝑣1, 𝑣2, 𝑣3)는 다음과 같이 표준단위벡터들로 표현 ○ 𝕧 = (𝑣1, 𝑣2, 𝑣3) = 𝑣1(1,0,0) + 𝑣2(0,1,0) + 𝑣3(0,0,1) = 𝑣1 𝕚 + 𝑣2 𝕛 + 𝑣3 𝕜 𝑂 𝑄 𝑅 𝑆 𝑃 𝕚 𝕛 𝕜 𝑣1, 𝑣2, 𝑣3 = 𝑣1 𝕚 + 𝑣2 𝕛 + 𝑣3 𝕜
  • 19. 2018 FASTCAMPUS Extension SCHOOL 𝒏차원 표준 단위 벡터 ● 일반적으로 𝑅 𝑛에서의 표준단위벡터는 ○ 𝕖1 = (1,0, … , 0) , 𝕖2 = (0,1, … , 0) , … , 𝕖 𝑛 = 0,0, … , 1 ● 𝑅 𝑛의 벡터 𝕧 = (𝑣1, 𝑣2, … , 𝑣 𝑛)가 다음과 같이 표준단위벡터들로써 표현될 수 있다. ○ 𝕧 = (𝑣1, … , 𝑣 𝑛) = 𝑣1 𝕖1 + 𝑣2 𝕖2 + ⋯ + 𝑣 𝑛 𝕖 𝑛 ○ 즉, 벡터가 표준단위벡터의 선형결합(linear combination)으로 나타내어진다.
  • 20. 2018 FASTCAMPUS Extension SCHOOL 2,3차원의 점들 간의 거리 ● 𝑃1과 𝑃2가 𝑅2또는 𝑅3사이의 점이면 벡터 𝑃1, 𝑃2의 길이는 두 점 간 거리 𝑑와 일치한다. ○ 2차원 : 𝑑(𝕦, 𝕧) = ||𝑃1 𝑃2|| = 𝑥1 − 𝑥2 2 + 𝑦1 − 𝑦2 2 ○ 3차원 : 𝑑(𝕦, 𝕧) = ||𝑃1 𝑃2|| = 𝑥1 − 𝑥2 2 + 𝑦1 − 𝑦2 2 + (𝑧1 − 𝑧2) 𝑃1 𝑃2 𝑑 = ||𝑃1 𝑃2||
  • 21. 2018 FASTCAMPUS Extension SCHOOL 𝒏차원의 점들 간의 거리 ● 𝕦 = (𝑢1, 𝑢2, … , 𝑢 𝑛) , 𝕧 = (𝑣1, 𝑣2, … , 𝑣 𝑛)이 𝑅 𝑛의 점이면 이들 𝕦와 𝕧사이의 거리(distance)를 𝑑(𝕦, 𝕧)로 표시하며 다음과 같이 정의한다. ○ 𝑑(𝕦, 𝕧) = 𝕦 − 𝕧 = 𝑢1 − 𝑣1 2 + 𝑢2 − 𝑣2 2 + ⋯ + (𝑢 𝑛 − 𝑣 𝑛) ex) 𝕦 = (1, 3, −2, 7) , 𝕧 = (0, 7, 2, 2) 두 점 사이의 거리는? ● 거리의 성질 ○ 𝑑 𝕦, 𝕧 ≥ 0 ○ 𝑑(𝕦, 𝕧) = 0이 되기 위한 필요충분조건은 𝕦 = 𝕧이다. ○ 𝑑(𝕦, 𝕧) = 𝑑(𝕧, 𝕦)
  • 22. 2018 FASTCAMPUS Extension SCHOOL 벡터의 내적 ● 벡터의 내적(Inner product)은 두 벡터 사이의 각을 재거나 두 벡터가 서로 수직이라는 것 을 판별하는데 유용한 곱셈 ● 𝕦 = (𝑢1, … , 𝑢 𝑛)과 𝕧 = (𝑣1, … , 𝑣 𝑛)이 𝑅 𝑛의 벡터일때, 𝕦와 𝕧의 점곱(dot product) 또는 𝕦와 𝕧의 Euclid 내적(Euclidean inner product)은 𝕦 ∙ 𝕧로 표기하며 다음 식과 같이 정의한다. ○ 𝕦 ∙ 𝕧 = 𝑢1 𝑣1 + 𝑢2 𝑣2 + ⋯ + 𝑢 𝑛 𝑣 𝑛 ex) 𝕦 = (−1,3,5,7) , 𝕧 = (5, −4,7,0)
  • 23. 2018 FASTCAMPUS Extension SCHOOL 내적의 성질 ● 𝕧 = 𝑣1, 𝑣2, … , 𝑣 𝑛 ○ 𝕧・𝕧 = 𝑣1 𝑣1 + 𝑣2 𝑣2 + ⋯ + 𝑣 𝑛 𝑣 𝑛 = 𝕧 2 ● 내적의 기본 성질들 ○ 𝕦, 𝕧, 𝕨가 𝑅 𝑛 의 벡터이고 𝑘가 실수이면 ▸ 𝕦・𝕧 = 𝕧・𝕦(대칭성) ▸ 𝕦・ 𝕧 + 𝕨 = 𝕦・𝕧 + 𝕧・𝕨(분배성) ▸ 𝑘 𝕦・𝕧 = 𝑘𝕦 ・𝕧 = 𝕦・(𝑘𝕧) (동치성) ▸ 𝕧・𝕧 ≥ 0 이고𝕧・𝕧 = 0의 필요충분조건은 𝕧 = 0 (양수성) ▸ 𝕆・𝕧 = 𝕧・𝕆 ▸ 𝕧 + 𝕦 ・𝕨 = 𝕧・𝕨 + 𝕦・𝕨 ▸ 𝕦・ 𝕧 − 𝕨 = 𝕦・𝕧 − 𝕧・𝕨 ▸ 𝕧 − 𝕦 ・𝕨 = 𝕧・𝕨 − 𝕦・𝕨
  • 24. 2018 FASTCAMPUS Extension SCHOOL 벡터의 사잇각 ● 만약 𝕦와 𝕧가 𝑅2 또는 𝑅3의 벡터들이고 𝜃가 이들 벡터의 사잇각이라 하면 cos 𝜃 = 𝕦 ∙ 𝕧 𝕦 𝕧 ○ 𝕦 ∙ 𝕧 = 𝕦 𝕧 cos 𝜃 ▸ 영벡터가 아닌 𝕦 와 𝕧 가 수직이기 위한 필요충분조건은 두 벡터의 내적이 0 𝕦 𝕧 𝕦 − 𝕧 도출방법) 1. 코사인 제2법칙 : 𝕧 − 𝕦 2 = 𝕧 2 + 𝕦 2 − 2 𝕧 𝕦 cos 𝜃 2. 벡터의 길이 : 𝕧 − 𝕦 2 = 𝕧 − 𝕦 ∙ (𝕧 − 𝕦) 이 두개가 같음을 보이면, 사잇각이 도출된다.𝜃
  • 25. 2018 FASTCAMPUS Extension SCHOOL 벡터의 직교 ● 𝑅 𝑛의 벡터 𝕦와 𝕧가 직교한다(orthogonal)는 것은 𝕦 ∙ 𝕧 = 0을 만족시키는 경우를 말한다. ● 공집합이 아닌 𝑅 𝑛의 벡터들의 집합이 직교집합(orthogonal set)이라는 것은 이 집합의 임 의의 서로 다른 한 쌍의 벡터가 직교하는 것을 말한다. ex) 다음 벡터들이 𝑅4에서 직교집합을 이루고 있음을 보여라. 𝕧1 = (1,2,2,4) , 𝕧2 = (−2,1, −4,2) , 𝕧3 = (−4,2,2, −1)
  • 26. 2018 FASTCAMPUS Extension SCHOOL 벡터의 정규직교 ● 𝑅 𝑛의 두 벡터 𝕦와 𝕧가 정규직교(orthonormal)라는 것은 이들이 직교하고 길이가 1인 경 우를 뜻한다. ○ 𝕦 ∙ 𝕧 = 0 ○ 𝕦 = 1, 𝕧 = 1 ● 벡터들의 집합이 정규직교집합(orthonormal set)이라는 것은 이 집합의 모든 벡터들의 길 이가 1이고 이 집합 속의 서로 다른 임의의 한 쌍의 벡터들이 직교하는 경우를 뜻한다. ex) 표준단위벡터 𝕖1 = (1,0, … , 0) , 𝕖2 = (0,1, … , 0) , … , 𝕖 𝑛 = (0, … , 0,1) ex) 다음이 정규직교집합을 이루는 것을 보여라. 𝕢1 = ( 1 5 , 2 5 , 2 5 , 4 5 ) , 𝕢2 = (− 2 5 , 1 5 , − 4 5 , 2 5 ) , 𝕢3 = (− 4 5 , 2 5 , 2 5 , − 1 5 )

Hinweis der Redaktion

  1. python 실습
  2. python 실습
  3. python 실습
  4. python 실습
  5. python code
  6. python code
  7. python code
  8. python 예제
  9. python 예제