birmaga.ru
добавить свой файл

1
Глава 4


СТАТИСТИЧЕСКАЯ ТЕОРИЯ ОШИБОК

4.1. Статистические характеристики ошибок

Ошибку измерения мы определили как разность приближенной величины и точной

Это - непредсказуемая, неизвестная величина, которую нельзя определить. В противном случае мы смогли бы внести поправку в приближенное число и получили бы точное. Практически сделать это невозможно. Однако практические потребности диктуют нам необходимость знать что-то об этих ошибках. Понятно, что с плохим инструментом мы получим больший разброс измеренных значений, чем с хорошим. Это “что-то” есть характеристики ошибок. В частности, одной из характеристик ошибок является мера ее разброса - дисперсия, на определении которой остановимся чуть позже.

Раздел математики, изучающий закономерности по большому количеству наблюдательных данных называют математической статистикой.

Предельная абсолютная погрешность (ПАП) и предельная относительная погрешность (ПОП), с которыми мы познакомились в главе 1, также являются характеристиками ошибок, дающими представление о точности приближенного числа. Однако в астрономической практике эти характеристики почти не применяются, т.к. слишком мало шансов встретить предельную погрешность. Термин “шанс”, введенный французским экономистом Курно, одним из основателей теории вероятности, в настоящее время не употребляется. Его заменяет понятие вероятности.

Допустим, что число имеет один знак после запятой, но выписано без дробной части. Какова предельная абсолютная ошибка? Очевидно, что ошибкой может быть любое из приведенных ниже чисел: 0.0; 0.1; 0.2; 0.3; 0.4; 0.5; 0.6; 0.7; 0.8; 0.9. Наибольшее из них - 0.9 - есть ПАП. Шанс получить результат с максимальной погрешностью в этом случае соответствует 1:10.

Однако, если вы имеете дело с двумя приближенными числами, над которыми совершается арифметическое действие (сложение, вычитание, умножение, деление), то с каждой из десяти погрешностей первого числа может сочетаться любая из десяти погрешностей второго числа. Таким образом, имеем 10х10=100 различных вариантов. Наибольшую погрешность даст только один из них. Следовательно, шанс (вероятность) получить ПАП составляет всего 1:100.


Рассуждая подобным образом, нетрудно убедиться, что вероятность столкнуться с предельной ошибкой в случае арифметических действий с n числами будет 1:10n, т.е. уже для n=3 практически вариант можно считать невозможным.

Вероятность - это отношение числа результатов с заданными признаками к общему числу равновозможных результатов. Причем, оба эти числа, которые составляют отношение, могут быть и бесконечно.

Для построения какой-либо характеристики погрешности наблюдений мы будем пользоваться этим статистическим определением вероятности.

Важнейшей характеристикой ошибки является среднее значение или в терминологии теории вероятности - математическое ожидание.

Допустим, что мы измеряем величину Х. В результате имеем ряд приближенных значений . Возникает вопрос, как получить наиболее достоверное значение, как уменьшить влияние погрешности измерения? Если предположить, что ошибки могут быть как положительные, завышающие истинную величину, так и отрицательные, занижающие Х, то при суммировании часть одних погрешностей будет компенсировать другие. Интуиция подсказывает, что среднее арифметическое будет менее всего подвержено влиянию погрешностей измерений. Кажется очевидным также, что чем больше наблюдательных данных, тем более точный результат мы получим. Тогда


Приведенное выражение по сути дела есть статистическое определение математического ожидания (среднего значения). Молчаливо предполагается, конечно, что все - равновозможны. В действительности это выполняется далеко не всегда. Поэтому строгое определение математического ожидания отличается от введенного нами понятия среднего значения, как среднего арифметического по бесконечному ансамблю данных.


В дальнейшем среднее значение будем обозначать треугольными скобками

,

арифметическое среднее будем записывать так

,

для того чтобы среднее значение было равно точному значению числа Х, т.е.,

если то

Отсюда следует, что среднее значение случайной ошибки равно нулю.

Это свойство случайной ошибки можно считать за ее определение: ошибку (погрешность) можно считать случайной, если помимо ее непредсказуемости выполняется условие равенства нулю ее среднего значения.

Заметим, что округление числа путем отбрасывания “лишних” знаков приводит к погрешности, не являющейся строго случайной, а содержит и систематическую часть (“систему”). В вышеприведенном примере округление приводило к погрешностям от 0.0 до 0.9 - всего 10 вариантов. Если мы располагаем большим массивом данных (N чисел), то приблизительно 10% из него будут иметь ошибку 0.0, другие 10% - ошибку 0.1, ... и, наконец, 10% - ошибку 0.9.

Вычислим среднее значение ошибки округления



где - число ошибок, равных соответственно 0.0, 0.1, ..., 0.9. При увеличении N до бесконечности отношение , k=0,...,9 в силу равновозможности каждой из ошибок будет стремиться к 0.1 (10%), поэтому


Итак, ошибка округления путем отбрасывания десятичного разряда равна 0.45 от удерживаемого последнего знака.

Округление по методу Гаусса свободно от этого недостатка: среднее значение погрешности округления равно нулю. Предлагаем показать это самостоятельно.

Второй статистической характеристикой ошибки является дисперсия.

Определение. Дисперсией случайной погрешности числа Х называется среднее значение квадрата этой погрешности и обозначается через :



Квадратный корень из дисперсии, имеющий размерность числа Х, называется стандартным отклонением (стандартом) .

.

Стандарт всегда положителен, так же как и дисперсия.

Наконец, средней квадратической ошибкой (СКО) называют эмпирическое значение (полученное из опытных данных) стандарта случайной погрешности. Например, СКО можно определить как

.

Очевидно, что при , будем иметь .

Ковариацией двух ошибок называют среднее значение их произведения. Даны и - ошибки величин соответственно X и Y, тогда ковариация этих ошибок равна

.


Ковариация является мерой независимости ошибок величин X и Y. Если они независимы, то . Обратное утверждение - если ковариации x и y равна нулю, то они независимы - строго говоря, несправедливо.

Итак, если мы имеем дело с двумя приближенными числами, то в качестве характеристик ошибок будем иметь три числа , и . Из них можно образовать матрицу

, где = .

Такая матрица называется ковариационной.

Ковариационная матрица может быть любого размера. Пусть - числа, ошибками которых являются . Вычислим дисперсии и ковариации





. . . . . . . . . . . .


Из них также можно построить ковариационную матрицу


.

Эта матрица обладает свойством симметрии где “Т” - знак транспонирования - замена строк матрицы столбцами или наоборот.

Из набора т чисел можно построить матрицу-столбец. В математике такую матрицу часто называют вектором. В отличие от вектора - направленного отрезка, такой вектор может иметь сколько угодно “составляющих”. В приведенном выше случае вектор можно записать так: . Мы использовали матрицу-строку вместо матрицы-столбца исключительно ради экономии места. Знак “Т” указывает на то, что в данном случае имеем дело с матрицей-столбцом.

Нетрудно убедиться, что ковариационную матрицу ошибки вектора можно определить так



Ковариационная матрица ошибок вектора выполняет ту же функцию в математической обработке наблюдений, что и дисперсия ошибки скалярного числа.

4.2. Линейное преобразование ошибок

4.2.1. Линейное преобразование ошибок скалярных величин

Допустим, что величины X и Y связаны между собой линейной зависимостью Y=aX+b.

Естественно, что для вычисления y по приближенному числу х мы будем пользоваться той же линейной зависимостью y=ax+b.

Вычитая из второго равенства первое, получим y=ax.

Если величина х содержит случайную погрешность, т.е. х=0, то отсюда немедленно следует, что и у=0.


Вычислим теперь дисперсии и стандартные отклонения. По определению

, , .

Возводя в квадрат обе части уравнения ошибок, получим

т.е.

Определим теперь ковариацию:

В отличие от стандартного отклонения ковариация, в зависимости от знака а, может быть как положительной, так и отрицательной

Рассмотрим более сложный случай, когда одно число Z есть линейная комбинация двух других X и Y.

Z=aX+bY+c.

Отбрасывая несущественную аддитивную постоянную с, получим уравнение ошибок z=ax+by.

Очевидно, что дисперсию ошибок приближенной величины z можно вычислить по формуле



или .

Заметим, что полученное выражение отличается от квадрата суммы тем, что в общем случае

Если ошибки x и y независимы, то .

Полученный вывод очень важен: при независимых ошибках дисперсия суммы равна сумме дисперсий. Другими словами, складываются не ошибки, а их средние квадраты!


4.2.2. Линейное преобразование ошибок векторных величин

Рассмотрим два вектора ,

.

Будем считать их линейно зависимыми ,

где А - прямоугольная матрица (nxm), В - матрица-столбец (nx1). Очевидно, что той же зависимости удовлетворяют и приближенные вектора и : .

Вычитая из последнего равенства точную формулу, получим векторное уравнение ошибок

.

Матрица В исключается, ибо по предположению, ошибки содержат только составляющие векторов и .

Выполним осреднение по бесконечному “ансамблю реализаций”

.

Если - случайная ошибка, т.е. , то легко видеть, что и ее линейная трансформация - также случайная ошибка: .

Вычислим теперь ковариационную матрицу ошибок вектора по известной ковариационной матрице ошибок вектора . По определению ,




но , , поэтому .

Отсюда следует, что .

Итак, для того, чтобы получить ковариационную матрицу погрешности линейного преобразования , нужно ковариационную матрицу погрешности исходной векторной величины умножить слева на матрицу А, а справа - на матрицу АТ.

Пример. В качестве примера рассмотрим систему , где предполагается, что ковариационная матрица ошибок вектора нам известна и равна . Вычислим ковариационную матрицу погрешностей .

1 способ. Решим приведенные выше уравнения ,

,

.

Вычислим дисперсии, при условии, что ковариации ошибок и равны нулю


,

.

Ковариация ошибок и отлична от нуля: .

Таким образом, ковариационная матрица ошибок имеет вид

.

2 способ. (матричный)

Запишем уравнение в матричной форме

,  .

Ковариационную матрицу вычислим по ранее выведенной нами формуле

.

Видим, что матричный способ много экономичнее.

4.3. Перенос ошибки. Прямая задача теории ошибок.

В предыдущем разделе мы познакомились с линейными преобразованиями - частным случаем функций с приближенными аргументами. Схематически это преобразование можно изобразить так

x алгоритм  u

“входные данные” y  обработки  v “выходные данные”

z  наблюдений  w


Прямая задача теории ошибок решает вопрос переноса ошибок исходных данных в результаты вычислений при их произвольном преобразовании.

Рассмотрим сначала простейший случай преобразования одной скалярной величины Х в другую скалярную величину Y, зависящей от первой следующим образом Y=f(X).

Вместо точного значения аргумента Х мы располагаем лишь приближенным х, поэтому в результате вычисления получим приближенное значение y y=f(x).

Ошибкой этого значения будет .

Как и в случае определения предельной абсолютной погрешности, ограничимся линейным приближением

.

Отсюда следует, что , или .

Например: , ,

Однако, мы можем столкнуться и с особым случаем. Например, при Следовательно, ошибка аргумента не вносит ошибку в результат. В действительности это не так, ибо здравый смысл подсказывает, что ошибочные исходные данные обязаны внести погрешность в результат. Все дело в том, что процедуру линеаризации - замены нелинейной функции линейной - нельзя применить к функции вблизи ее экстремума. В данном случае в точке функция имеет максимум. Очевидно, при разложении х в ряд по степеням приращения нужно брать и квадрат этой величины






При имеем , т.е. среднее значение погрешности y . Ошибка в этом случае имеет систематический характер, ее среднее значение равно половине дисперсии аргумента с обратным значением.

Рассмотрим теперь случай, когда функция имеет два аргумента .

Линеаризация этой функции дает .

В данном случае производные и суть числа, полученные после подстановки значений x и y в выражение для производных. Уравнение ошибок, следовательно, можно записать так

где , .

Следуя рассуждениям, приведенным в предыдущем разделе, легко получить дисперсию и стандартное отклонение функции двух аргументов

,

.

В случае независимости ошибок и , будем иметь .


Определение дисперсии или стандартного отклонения функции по заданным дисперсиям (и ковариациям) погрешности аргумента называется прямой задачей теории ошибок.

Пример. Период колебания маятника Т зависит от приведенной длины l и ускорения свободного падения g следующим образом: С какой точностью по этой формуле можно вычислить g, если м, с, а м, мс-2, Т=1с?

В данном случае удобнее поступить следующим образом. Прологарифмируем обе части равенства

.

Дифференцируя, получим уравнение ошибок

.

В данном случае g - функция, а l и Т - аргументы. поэтому, разделив их знаком равенства, получим

.

Предполагая, что ошибки и независимы, получим дисперсию ошибки : .

Подставив численные значения, получим


В случае, когда решается прямая задача для вектор-функции приближенных аргументов, искомую дисперсию погрешности заменяет ковариационная матрица , где - вектор-функция размера (n x 1), а - вектор размера (m x 1):

,

,

. . . . . . . . . . . . . . . . .

.

Допустим, что ковариационная матрица ошибок вектора известна и равна Cx (см. 4.2.2). Попробуем определить ковариационную матрицу ошибок вектора . Запишем уравнения ошибок, используя описанный выше способ линеаризации:

,

,

. . . . . . . . . . . . . . . . . . . .

.

Полученную систему запишем в матричном виде

, , ,

.


Матрица J имеет элементами значения производных функций по координатам , полученных после подстановки приближенных значений аргументов. Эта матрица носит название матрицы Якоби и обозначается как отдельной буквой J, так и в виде производной вектор-функции по векторному аргументу . Применяя это обозначение, уравнение ошибок примет вид , ничем не отличающийся от подобного уравнения в случае скалярной функции и скалярного аргумента (см. 4.2.2). Однако, при всех выкладках следует помнить, что и - вектора, а - матрица размера (n x m).

Ковариационная матрица ошибок вектора по определению равна

.

Таким образом,

,

где - матрица Якоби заданной вектор-функции.

4.4. Обратная задача теории ошибок

Обратной задачей теории ошибок назовем задачу определения дисперсии погрешностей аргументов по заданной допустимой дисперсии ошибки функции.

В простейшем случае ,

.

Следовательно, .

Поэтому, если предельное допустимое значение стандартного отклонения не должно превосходить , т.е. . Тогда .

Пример. С какой точностью нужно задать угол для того, чтобы обеспечить вычисление функции с шестью верными знаками?

Имеем

Ответ: аргумент нужно задать до десятых долей секунды.

Рассмотрим теперь функцию с двумя аргументами .

Если x и y определяются с независимыми погрешностями, то .

Зададим допустимое значение дисперсии ошибки функции такое, что . Следовательно,


.

Перепишем полученное неравенство так:

Если взять и в качестве координат плоскости, то область допустимых значений и будет лежать внутри эллипса с полуосями

,

.

Таким образом, решение обратной задачи неоднозначное. Можно определить лишь область допустимых значений для стандартных отклонений погрешностей, а не сами значения. Для двух переменных эта область - эллипс, для трех - эллипсоид, для большего числа - гиперэллипсоид.

Чтобы получить хотя бы одно решение, иногда прибегают к методу или принципу равных влияний, который можно распространить на любое количество переменных. Пусть

.

Тогда, предполагая, что ошибки всех переменных независимы, получим

.

Принцип равных влияний заключается в принятии гипотезы равного вклада погрешностей всех (или части) аргументов в суммарную дисперсию ошибки функции. Будем иметь еще m-1 недостающее уравнение

,

,


. . . . . . . . . . . . . . . . . .

.

Решая эти уравнения совместно с уравнением для , получим

.

Окончательно .

Полученное равенство решает обратную задачу. Следует подчеркнуть отсутствие физического обоснования для принципа равных влияний, поэтому его следует применять лишь в случае, когда больше ничего не остается.

Пример. Допустим, что наблюдается свободное падение тела в вакууме. Требуется определить точность измерения времени и отрезков пути для того, чтобы обеспечить определение ускорения свободного падения с точностью, не хуже 5 мкГал ().

Для простоты будем считать, что начальная скорость тела равна нулю, а вертикальная координата тела определяется формулой

.

Пусть весь путь падающего тела равен l=1м, а время, затраченное на это падение, Т=0.45 с. Отсюда следует

.

Прологарифмируем это равенство: .

Дифференцируя, получим уравнение ошибок: .

Полагая и независимыми, будем иметь: .


По условию задачи , следовательно, .

Стандартные отклонения и допустимых погрешностей l и Т должны лежать внутри эллипса

.

Зафиксируем какое-нибудь значение для . Получим допустимую границу погрешности для измерения времени

.

Результат можно свести в таблицу


, нм

1

2

3

4

5

, нс

5.5

5.1

4.5

3.4

0.0

Принцип равных влияний дает

,