Artigos

Tire duas dúvidas com o especialista no assunto Dr. Daphnis Citti de Lauro

선형대수 최소제곱법 예제

이러한 속성은 가정이 엄격하게 유효하지 않은 경우에도 모든 유형의 데이터 피팅에 대해 최소 제곱 방법의 사용을 뒷받침합니다. 위에서 언급한 치료의 기본은 독립 변수 x에 오류가 없다는 것입니다. 실제로 독립 변수의 측정 오류는 일반적으로 종속 변수의 오류보다 훨씬 작기 때문에 무시할 수 있습니다. 그렇지 않은 경우 총 최소 제곱 또는 일반적으로 오류 인 변수 모델 또는 엄격한 최소 제곱을 사용해야 합니다. 이 작업은 종속 변수와 독립 변수 모두에 대한 오류를 고려한 다음 표준 프로시저에 따라 가중치 체계를 조정하여 수행할 수 있습니다. [10] [11] 통계 및 수학에서 선형 최소 제곱은 모든 데이터 포인트에 대해 모델에서 제공하는 이상화 값이 미지의 매개 변수의 관점에서 선형으로 표현되는 경우 데이터에 수학 또는 통계 모델을 피팅하는 접근 방식입니다. 모델. 결과 피팅 모델은 데이터를 요약하고, 동일한 시스템에서 관찰되지 않은 값을 예측하고, 시스템의 기초가 될 수 있는 메커니즘을 이해하는 데 사용할 수 있습니다. 잔차들이 정규 분포에 속한다고 가정하면, 객관적인 함수는 가중 제곱 잔차의 합인, 카이제곱 (θ 2 {displaystyle chi ^{2}} ) m- n 자유도의 분포에 속한다. θ 2 {displaystyle chi ^{2}}의 일부 설명 백분위수 값은 다음 표에 있습니다. [8] 선형 최소 제곱의 기본 응용 프로그램은 데이터 피팅에 있습니다.

m 데이터 포인트 y 1, y 2 , … x 1 , x 2 , … scalar 또는 벡터 수량), 및 모델 함수 y = f (x , β) 및 {displaystyle y=f(x,{boldsymbol {beta}),} β =β(β 1, β 2) , β n) , {디스플레이 스타일 {boldsymbol {베타 }}=(베타 _{1}, 베타 _{2}, 베타 _{n}, 베타 _{n}),} 파라메를 찾는 것이 좋습니다. ters β j {디스플레이 스타일 베타 _{j}} 모델 함수 “최적”이 데이터에 맞습니다. 선형 최소 제곱에서 선형성은 매개 변수 β j , {displaystyle beta _{j}와 관련하여 의미하므로 각 지점에서 곡선 맞춤과 데이터 사이의 잔차는 위의 방정식의 오른쪽과 왼쪽 측면 의 차이입니다. 이 문제를 해결하는 최소 제곱 접근 방식은 이러한 잔류물의 제곱의 합을 가능한 한 작게 만드는 것입니다. 즉, 함수의 최소를 찾기 위해 최소 제곱 추정기의 또 다른 단점은 잔차의 규범이 있다는 사실이다, y – X β ^ {디스플레이 스타일 \mathbf {y} -X{hat {베타 }}}}}}}}}}는 일부 경우는 최소화되는 반면, 매개 변수 β ^ {디스플레이 스타일 {표시 스타일 {hat {베타 }} } } } 굵은 기호 {베타 }}-{hat {굵은 기호 {베타}}}}}}}}}}}}}}}}}}}}}}}}}} . [인용 필요] 그러나 진정한 매개 변수 β {displaystyle {boldsymbol {beta}}는 반드시 알 수 없으므로 이 수량을 직접 최소화할 수 없습니다. β^{displaystyle {-hat {boldsymbol {beta}}}}에 대한 이전 확률이 알려진 경우, 베이즈 추정기를 사용하여 평균 제곱 오차를 최소화할 수 있습니다. 굵은 기호 {베타 }}-{hat {boldsymbol {베타}}}^{{2}]}} .

최소 제곱 방법은 이전에 알려진 적이 없을 때 종종 적용됩니다. 놀랍게도 여러 매개 변수가 공동으로 추정될 때 더 나은 추정기는 스타인의 현상으로 알려진 효과를 생성할 수 있습니다. 예를 들어, 측정 오차가 가우시안인 경우, 몇몇 추정기는 가장 낮은 제곱 기술을 지배하거나 능가하는 것으로 알려져 있습니다. 이들 중 가장 잘 알려진 것은 제임스 스타인 추정기입니다. 이는 회귀 문제에 적용된 보다 일반적인 수축 추정기의 예입니다.