"
0
C
F
G
H
K
L
N
P
S
T
W
Z
А
Б
В
Г
Д
Е
Ж
З
И
Й
К
Л
М
Н
О
П
Р
С
Т
У
Ф
Х
Ц
Ч
Ш
Э
Ю
Я
НАИМЕНЬШИХ КВАДРАТОВ МЕТОДЗначение НАИМЕНЬШИХ КВАДРАТОВ МЕТОД в математической энциклопедии: - один из методов ошибок теории для оценки неизвестных величин по результатам измерений, содержащим случайные ошибки. Н. к. м. применяется также для приближенного представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений. Н. к. м. предложен К. Гауссом (С. Gauss, 1794-95) и А. Лежандром (A. Legendre, 1805-06). Строгое обоснование и установление границ содержательной применимости Н. к. м. даны А. А. Марковым и А. Н. Колмогоровым. В простейшем случае линейных связей (см. ниже) и наблюдений, не содержащих систематич. ошибок, а подверженных лишь случайным ошибкам, оценки неизвестных величин, полученные с помощью Н. к. м., являются линейными функциями от наблюденных значений. Эти оценки не имеют систематич. ошибок, т. е. являются несмещенными (см. Несмещенная оценка). Если случайные ошибки наблюдений независимы и подчиняются нормальному распределению, то Н. к. м. дает оценки неизвестных с наименьшей дисперсией, т. е. эти оценки являются эффективными (см. Статистическое оценивание). В этом смысле Н. к. м. является наилучшим среди всех остальных методов, позволяющих находить несмещенные оценки. Однако если распределение случайных ошибок существенно отличается от нормального, то Н. к. м. может и не быть наилучшим. При обосновании Н. к. м. (по Гауссу) предполагается, что "убыток" от замены точного (неизвестного) значения нек-рой величины ее приближенным значением X, вычисленным по результатам наблюдений, пропорционален квадрату ошибки оптимальной оценкой считается такая лишенная систематич. ошибки величина X, для к-рой среднее значение "убытка" минимально. Именно это требование и составляет основу Н. к. м. В общем случае отыскание оптимальной в смысле Н. к. м. оценки X - задача весьма сложная, поэтому практически эту задачу сужают и в качестве Xвыбирают линейную функцию от результатов наблюдений, лишенную систематич. ошибки, и такую, для к-рой среднее значение убытка минимально в классе всех линейных функций. Если случайные ошибки наблюдений подчиняются нормальному распределению и оцениваемая величина mзависит от средних значений результатов наблюдений линейно (случай, весьма часто встречающийся в приложениях Н. к. м.), то решение этой задачи будет одновременно являться и решением общей задачи. При этом оптимальная оценка Xтакже подчиняется нормальному распределению со средним значением и, следовательно, плотность вероятности случайной величины X достигает максимума в точке (это свойство и выражает точное содержание распространенного в теории ошибок утверждения: "оценка X, вычисленная согласно Н. к. м.,- наиболее вероятное значение неизвестного параметра "). Случай одного неизвестного. Пусть для оценки значения неизвестной величины произведено пнезависимых наблюдений, давших результаты - случайные ошибки (по определению, принятому в классич. теории ошибок, случайные ошибки - независимые случайные величины с нулевым математич. ожиданием:; если же наз. систематическими ошибками). Согласно Н. к. м. в качестве оценки величины m. принимают такое X, для к-рого будет наименьшей сумма квадратов (отсюда и само название метода): где (коэффициент k>0 можно выбирать произвольно). Величину наз. весом, а -квадратичным отклонением измерения с номером . В частности, если все измерения равноточны, то и в этом случае можно положить если же каждое - арифметич. среднее из равноточных измерений, то полагают Сумма будет наименьшей, если в качестве Xвыбрать взвешенное среднее: Оценка величины лишена систематич. ошибки, имеет вес Ри дисперсию . В частности, если все измерения равноточны, то Y - арифметич. среднее результатов измерений: При нек-рых общих предположениях можно показать, что если количество наблюдений пдостаточно велико, то распределение оценки У мало отличается от нормального с математич. ожиданием m и дисперсией .В этом случае абсолютная погрешность приближенного равенства меньше с вероятностью, близкой к значению интеграла (напр., ). Если веса измерений заданы, а множитель кдо наблюдений остается неопределенным, то этот множитель и дисперсия оценки могут быть оценены по формулам: и (обе оценки лишены систематич. ошибок). В том практически важном случае, когда ошибки подчиняются нормальному распределению, можно найти точное значение вероятности, с к-рой абсолютная погрешность приближенного равенства окажется меньше (t- произвольное положительное число): где постоянная выбрана таким образом, чтобы выполнялось условие ( Стьюдента распре деление с п-1 степенями свободы). При больших пформулу (2) можно заменить формулой (1). Однако применение формулы (1) при небольших ппривело бы к грубым ошибкам. Так, напр., согласно (1) значению I= 0,99 соответствует t=2,58; истинные значения t, определяемые при малых пкак решения соответствующих уравнений приведены в таблице: Пример. Для определения массы нек-рого тела произведено 10 независимых равноточных взвешиваний, давших результаты Yi (в г): (здесь ni - число случаев, в к-рых наблюдалась масса ). Так как все взвешивания равноточные, то следует положить и в качестве оценки для неизвестного веса выбрать величину . Задавая, напр.,по таблицам распределения Стьюдента с девятью степенями свободы можно найти, что и поэтому в качестве предельной абсолютной погрешности приближенного равенства следует принять величину Таким образом, Случай нескольких неизвестных (линейные связи). Пусть презультатов измерений связаны с тнеизвестными величинами независимыми линейными соотношениями где - известные коэффициенты, а - независимые случайные ошибки измерений. Требуется оценить неизвестные величины (эту задачу можно рассматривать как обобщение предыдущей, в к-рой Так как то средние значения результатов измерений связаны с неизвестными величинами линейными уравнениями (линейные связи): Следовательно, искомые величины представляют собой решение системы (4), уравнения к-рой предполагаются совместными. Точные значения измеряемых величин и случайные ошибки обычно неизвестны, поэтому вместо систем (3) и (4) принято записывать так наз. условные уравнения Согласно Н. к. м. в качестве оценок для неизвестных применяют такие величины , для к-рых сумма квадратов отклонений будет наименьшей (как и в предыдущем случае,- вес измерения,- величина, обратно пропорциональная дисперсии случайной ошибки ). Условные уравнения, как правило, несовместны, т. с. при любых значениях разности не могут, вообще говоря, все обратиться в нуль. Н. к. м. предписывает в качестве оценок выбрать такие значения , к-рые минимизируют сумму S. В тех исключительных случаях, когда условные уравнения совместны и, значит, обладают решением, это решение совпадает с оценками, полученными согласно Н. к. м. Сумма квадратов Sпредставляет собой квадратичный многочлен относительно переменных ; этот многочлен достигает минимума при таких значениях при к-рых обращаются в нуль все первые частные производные: Отсюда следует, что оценки , полученные согласно Н. к. м., должны удовлетворять системе т. н. нормальных уравнений, к-рая в обозначениях, предложенных К. Гауссом, имеет вид где и Оценки, получающиеся в результате решения системы нормальных уравнений, лишены систематич. ошибок дисперсии величин равны где d- определитель системы (5), а - минор, соответствующий диагональному элементу (иными словами,- вес оценки ). Если множитель пропорциональности (кназ. дисперсией на единицу веса) заранее неизвестен, то для его оценки, а также для оценки дисперсии служат формулы (S- минимальное значение исходной суммы квадратов). При нек-рых общих предположениях можно показать, что если количество наблюдений пдостаточно велико, то абсолютная погрешность приближенного равенства меньше с вероятностью, близкой к значению интеграла (1). Если случайные ошибки наблюдений подчиняются нормальному распределению, то все отношения распределены по закону Стьюдента с п-то степенями свободы (точная оценка абсолютной погрешности приближенного равенства производится здесь с помощью интеграла (2) так же, как в случае одного неизвестного). Кроме того, минимальное значение суммы Sв вероятностном смысле не зависит от и потому приближенные значения дисперсий оценок не зависят от самих оценок Один из наиболее типичных случаев применения Н. к. м.- "выравнивание" таких результатов наблюдений , для к-рых в уравнениях (3) где - известные функции нек-рого параметра t(если t- время, то - те моменты времени, в к-рые производились наблюдения). Особенно часто встречается в приложениях случай т. н. параболической интерполяции, когда - многочлены (напр., ); если а наблюдения равноточные, то для вычисления оценок можно воспользоваться таблицами ортогональных многочленов. Другой важный для приложений случай - т. н. гармоническая интерполяция, когда в качестве выбирают три-гонометрич. функции (напр., ). Пример. Для оценки точности одного из методов химич. анализа этим методом определялась концентрация СаО в десяти эталонных пробах заранее известного состава. Результаты наблюдений указаны в таблице (г - номер эксперимента, t;- истинная концентрация СаО,- концентрация СаО, определенная в результате химич. анализа, - ошибка химич. анализа): Если результаты химич. анализа не имеют систематич. ошибок, то Если же такие ошибки имеются, то в первом приближении их можно представить в виде:(наз. постоянной ошибкой, а - методической ошибкой) или, что то же самое, где Для отыскания оценок и достаточно оценить величины и . Условные уравнения в данном случае имеют вид поэтому (согласно предположению о равноточности наблюдений все ). Так как то система нормальных уравнений записывается особенно просто: где Дисперсии компонент решения этой системы суть где k - неизвестная дисперсия на единицу веса (в данном случае k- дисперсия любой из величин ). Так как в этом примере компоненты решения принимают значения Х 1= -0,35, и Х 2= - 0,00524, то Если случайные ошибки наблюдений подчиняются нормальному распределению, то отношения j= 1, 2, распределены по закону Стьюдента. В частности, если результаты наблюдений лишены систематич. ошибок, то , и, значит, закону Стьюдента должны подчиняться отношения и . С помощью таблиц распределения Стьюдента с п-m=8 степенями свободы можно убедиться, что если действительно х 1=х 2=0, то с вероятностью 0,999 каждое из этих отношений не должно превосходить 5,04 и с вероятностью 0,95 не должно превосходить 2,31. В данном случае поэтому гипотезу отсутствия систематич. ошибок целесообразно отвергнуть; в то же время следует признать, что гипотеза об отсутствии ме-тодич. ошибки () не противоречит результатам наблюдений, т. к. . Таким образом, можно заключить, что для определения tпо результату наблюдения Тцелесообразно пользоваться приближенной формулой Случай нескольких неизвестных (нелинейные связи). Пусть презультатов измерений связаны с mнеизвестными функциональной зависимостью где - независимые случайные ошибки, а функции (в общем случае нелинейные) дифференцируемы. Согласно Н. к. м. в качестве оценок для xj принимают такие величины , для к-рых сумма квадратов будет наименьшей. Так как функции нелинейные, то решение нормальных уравнений в этом случае может представлять значительные трудности. Иногда нелинейные связи каким-либо преобразованием могут быть приведены к линейным. Напр., при намагничивании железа напряженность магнитного поля H связана с магнитной индукцией Вэмпирич. формулой (коэффициенты и определяются по измеренным значениям при заданных ). Индукция В- нелинейная функция от и . Однако обратная величина индукции зависит от и Линейно. Применение Н. к. м. к исходному и преобразованному равенствам дает, вообще говоря, различные оценки для неизвестных и , но если дисперсия случайных ошибок измерения индукции значительно меньше измеряемых величин , то . Поэтому величинам следует приписать веса ; естественно ожидать, что при этих условиях различие оценок в нелинейном и линейном случаях будет практически несущественным. В тех случаях, когда не удается тождественными преобразованиями заменить нелинейные уравнения линейными, пользуются другим способом линеаризации. Из заданных пуравнений отбирают какие-либо m уравнений, решение к-рых принимают за нулевое приближение для неизвестных xj. Если положить то систему условных уравнений можно записать в виде: Разлагая правые части в ряд по степеням и ограничиваясь линейными членами, получают где - значение функции и ее производных по при Эта система уравнений линейна, и поэтому для оценки неизвестных легко может быть применен Н. к. м. Оценив получают первое приближение для неизвестных Величины берут за исходное приближение, и всю операцию повторяют, пока с заданной точностью не совпадут два последовательных приближения. Если дисперсии ошибок уменьшаются, то процесс сходится. Очень часто при малых оказывается вполне достаточным уже первое приближение: не имеет смысла требовать нахождения с точностью, значительно превышающей Во многих практически важных случаях (и в частности, при оценке сложных нелинейных связей) количество неизвестных параметров бывает весьма большим, и поэтому реализация Н. к. м. оказывается эффективной лишь при использовании современной вычислительной техники. Лит.:[1] Марков А. А., Исчисление вероятностей, 4 изд., М., 1924; [2] Колмогоров А. Н., "Успехи матем. наук", 1946, т. 1, в. 1, с. 57-70; [3] Линник Ю. В., Метод наименьших квадратов и . основы математико-статистической теории обработки наблюдений, 2 изд., М., 1962; [4] Налимов В. В., Применение математической статистики при анализе вещества, М., 1960; [5] Helmert F. R., Die Ausgleichungsrechnung nach der Methode der kleinsten Quadrate, 3 Aufl., Lpz.- В., 1924. Л. Н. Большее. |
|
|