변수가 하나인 함수에서 변화량은
삼각형 △(대문자), δ(소문자)로 표기하고.
델타(Delta)라고 부릅니다.
변수가 여러개인 함수에서 변화량은
역삼각형 ▽로 표기하고,
나블라(Nabla) 또는 델(Del)로 부릅니다.
Delta Operator
△는 미분 연산자이며,
△x의 변화량을 0에 가깝게 하면 Graident를 구할 수 있습니다.
긴 설명은 생략하겠습니다. (그림 출처 : link)
Del Operator
▽도 미분 연산자이며, 차원마다 편미분한 벡터로 볼 수 있습니다.
i와 j는 x,y축의 unit vector입니다.
▽델을 크게 4가지로 구분해서 사용합니다.
(아래 그림 출처 : link )
1. Gradient Operator
함수f가 스칼라 함수(=Scalar Field) 일 때,
▽와 f의 내적은 벡터장(=Vector Field)을 나타내고
▽를 Graident라 부릅니다.
(벡터▽와 스칼라 f 의 내적은 벡터입니다.)
Scalar 함수로부터, 각 지점에서의 방향을 계산하기 때문에 Graident(기울기) 연산자라고 불리는 것 같습니다.
2. Divergence Operator
함수f가 벡터장(벡터 함수) 일 때,
▽와 f의 내적은 ▽f는 스칼라 함수(=Scalar Field)를 나타내고,
▽를 Divergence라 부릅니다.
(벡터▽ 와 벡터 f 의 내적은 스칼라입니다.)
Vector 함수로부터, 각 지점에서의 발산하는 크기를 나타내기 때문에 Divergence(발산) 연산자라고 불리는 것 같습니다.
3. Curl Operator
함수f가 벡터장 일 때,
▽와 f의 외적은 점의 Rotation을 나타내고,
▽를 Curl이라 부릅니다.
Rotation을 나타내기 때문에 Curl(회전) 연산자라고 불리는 것 같습니다.
(이 부분은 설명이 부족하다고 생각합니다. 논문 읽다가 Curl형태를 쓰게 되면 업데이트 하겠습니다.)
4. Laplacian Operator
▽와▽의 내적을 △로 표기하고
2개 벡터의 내적이므로 스칼라를 나타냅니다.
Laplacian(라플라시안)라고 부릅니다.
Divergence of Gradient라고 합니다.
이미지 처리분야에서 라플라시안 필터라는 용어가 있습니다. (이미지 출처 : link)
이미지는 스칼라 형태이기에
Graident연산자가 쓰이면, 색상이 급격하게 변하는 벡터의 위치와 크기를 검출 할 수 있고,
그 후 Divergence연산자가 쓰이면, 벡터의 균일 정도를 파악 할 수 있습니다.
이를 통해 Laplacian Operator로 Edge를 검출 할 수 있습니다.
논문을 읽다보면, 내적을 · 외적을 × 로 사용하지 않는 경우도 많습니다.
f함수가 스칼라인지 벡터인지로 ▽f가 무엇을 의미하는지 판단하시길 바랍니다.
출처
https://en.wikipedia.org/wiki/Delta_operator
https://en.wikipedia.org/wiki/Del
http://www.statistics4u.com/fundstat_eng/vector_ops.html
'Terminology' 카테고리의 다른 글
[개념 정리] Levenberg-Marquardt 알고리즘 : 최적화 기법 (0) | 2024.04.12 |
---|---|
[개념 정리] Poisson Surface Reconstruction (2006) : Point-to-Mesh (2) | 2024.01.04 |
[기본 개념] CLIP (Contrastive Language-Image Pre-training) (1) | 2023.12.24 |
[개념 정리] Jensen’s inequality - 옌센 부등식 (0) | 2023.12.23 |
[개념 정리] Anisotropic과 Isotropic (1) | 2023.12.13 |
댓글