Содержание

Обработка результатов измерений

Основы теории ошибок

Отклонения результатов измерения $x$ от истинного значения $x_0$ (которое обычно неизвестно) называют ошибками измерения $|x - x_0|.$ Ошибки измерений принято разделять на две группы: систематические и случайные (или статистические) ошибки.

Теория ошибок справедлива только для случайных ошибок. Рассмотрим наиболее простой случай, когда одна и та же физическая величина измеряется $N$ раз. Если измеряемая величина $x$ изменяется непрерывно, то область полученных значений разделяют на некоторое количество интервалов одинаковой ширины $\Delta x$ и, далее, определяют количество измерений, попавших в каждый из этих интервалов ($x_i \pm \frac 12 \Delta x$). Такое частотное распределение представляют с помощью диаграммы (гистограммы).

Для описания серий измерений удобно вместо $N_i$ — количества результатов, попавших в класс $x_i$ ввести относительные частоты $n_i = \frac{N_i}{N},$ нормированные на единицу. При увеличении числа измерений $n$ это распределение стремится к теоретическому распределению вероятностей, которое характеризует результаты бесконечного числа опытов. Существование теоретического распределения вероятностей является основополагающим предположением теории ошибок, которое, строго говоря, нельзя проверить экспериментально. Математически предел при $N\to \infty$ для каждого класса $x_i$ выражается в виде $$ P(x_i)=\lim\limits_{n\to \infty}\frac{N_i}{N}; \hspace{10pt} \sum_{i}P(x_i)=1. $$ Величина $P$ есть не что иное, как вероятность попадания измеряемого значения в $i$–тый интервал при одном измерении.

Теоретическое распределение вероятностей переходит при $\Delta x\to 0$ в гладкую кривую. Вероятность попадания исхода одного измерения $x$ в интервал $\Delta x$ равна $p(x)\Delta x.$ Функцию $p(x)$ называют плотностью вероятности. Вероятность $P$ попадания результата измерения в интервал $[x_1,x_2]$ равна $$ P(x_1\leqslant x\leqslant x_2)=\int \limits_{x_1}^{x_2} p(x)\, dx. $$ Вероятность попадания исхода одного измерения в область от $-\infty$ до $x$ в математической статистике называют функцией распределения $F(x):$ $$ F(x)=\int \limits_{-\infty}^{x} p(\xi)\, d\xi. $$ Теоретическая функция распределения в сжатой форме содержит всю информацию, которую можно получить из опыта, в том числе и истинное значение измеряемой величины $x_0.$ Эту величину для дискретного распределения значений $x$ называют арифметическим средним $E:$ $$ x_0=\overline{x}=E(x)=\sum_{i}x_iP(x_i), $$ а в случае непрерывного распределения: $$ x_0=\overline{x}=E(x)=\int \limits_{- \infty}^{\infty} xp(x)\, dx =\int \limits_{- \infty}^{\infty} x\, dF(x). $$

Если сравнивать результаты нескольких серий измерений одной и той же физической величины, то наиболее точное значение будет получено в той серии, в которой кривая распределения будет самой узкой. Чем уже кривая распределения, тем меньше ошибка $\delta = x- x_0$ отдельного измерения, поэтому целесообразно характеризовать распределение вероятностей не только средним значением $x_0$, но и шириной кривой распределения. Арифметическое среднее ошибки $\delta $ для этого не подходит, поскольку оно в точности равно нулю. Для этой цели выбирают математическое ожидание квадрата ошибки $\sigma ^2,$ которое называют дисперсией $$ \sigma ^2=E(\delta ^2)= \int \limits_{- \infty}^{\infty} \delta ^2 p(x)\, dx= \int \limits_{- \infty}^{\infty} (x-x_0)^2p(x)\, dx. $$ Квадратный корень из дисперсии $\sigma = \sqrt{\sigma ^2}$ называют средним квадратичным отклонением распределения. Оно непосредственно характеризует ширину распределения вероятностей — разброс измеряемых значений: $$ \sigma ^2=\overline{x^2}-\overline{x}^2. $$ Наилучшим приближением истинной величины х является так называемое выборочное среднее значение $$ \overline{x}_N=\frac 1N \sum_{i=1}^{N}x_i. $$

Вводя выборочную дисперсию $s ^2_N$, которая определяется как среднее значение квадрата отклонений $(x_i-\overline{x}_N)$ (Здесь не может идти речь об истинной ошибке поскольку не известно истинное значение $\overline{x}$): $$ s_N^2=\frac 1{N-1} \sum_{i=1}^{N}(x_i-\overline{x}_N)^2. $$

Квадратный корень из выборочной дисперсии называют выборочным стандартным отклонением $s_N.$ Оно характеризует разброс отдельных результатов измерений вблизи среднего значения и является наилучшей оценкой среднеквадратичного отклонения $\sigma $ генеральной совокупности, которое можно определить по выборке из $N$ результатов.

Для практического расчета выборочной дисперсии пользуются формулой: $$ s^2_N=\frac 1{N-1}\left( \sum_{i=1}^{N} x_i^2-\frac 1N \left(\sum_{i=1}^{N} x_i\right)^2 \right) . $$ Кроме среднего значения результатов измерений экспериментатора интересует еще и его точность. Мы можем определить ее, несколько раз повторяя серии по $n$ измерений. Тогда величины математических ожиданий $\overline{x}_N$ образуют распределение, стандартное отклонение которого $s_{\overline{x}}$ будет характеризовать разброс средних значений $\overline{x}_N$ от выборки к выборке. Поэтому величину $s_{\overline{x}}$ называют стандартным отклонением выборочного среднего (или его средней ошибкой). Пользуясь законом сложения ошибок получим $$ s_{\overline{x}}=\frac{s_N}{\sqrt{N}}=\sqrt{\frac{\sum_{i=1}^{N}(x_i-\overline{x}_N)^2}{N(N-1)}}. $$ Стандартное отклонение среднего, полученного по $N$ измерениям, отличается в $\frac 1{\sqrt{N}}$ раз от стандартного отклонения отдельного измерения. Таким образом, точность измерений достаточно медленно растет с увеличением количества измерений при больших $N.$ Поэтому нужно стремиться не к увеличению количества опытов, а к улучшению измерительных методов, которые позволят уменьшить стандартные отклонения $s_N$ отдельного измерения.

Распределение вероятностей

На практике могут реализовываться различные распределения вероятностей, мы рассмотрим нормальное распределение которое было найдено К. Ф. Гауссом. Важная роль гауссова распределения объясняется тем, что, с одной стороны, оно хорошо описывает плотность вероятностей для многих, кроме того, многие другие распределения переходят в предельном случае в нормальное распределение. Плотность вероятностей для случайной переменной $x$, меняющейся в пределах от $-\infty $ до $\infty $ имеет вид $$ p(x,x_0,\sigma )=\frac 1{\sigma \sqrt{2\pi}} \text{exp}\left( -\frac{(x-x_0)^2}{2\sigma ^2}\right). $$ Для описания функции распределения $$ F(x)=\frac 1{\sigma \sqrt{2\pi}}\int\limits_{-\infty}^{x} \text{exp}\left( -\frac{(z-x_0)^2}{2\sigma ^2}\right) \, dz. $$ используют функцию ошибок (интеграл ошибок Гаусса) $$ \text{erf}(t)=\frac 2{ \sqrt{\pi}}\int\limits_{0}^{t} \text{exp}\left( -z^2\right) \, dz $$ так, что $$ F(x)=\frac 12 \left(1+\text{erf}\left(\frac{x-x_0}{\sigma \sqrt{2}}\right)\right). $$ Вероятность того, что случайная переменная $x$, распределенная по нормальному закону, попадет в интервал $[x_1, x_2],$ равна $$ P(x_1\leqslant x\leqslant x_2)=F(x_2)-F(x_1)=\frac 12 \left( \text{erf}\left(\frac{x_2-x_0}{\sigma \sqrt{2}}\right)- \text{erf}\left(\frac{x_1-x_0}{\sigma \sqrt{2}}\right) \right). $$ Величину $P(x_1\leqslant x\leqslant x_2),$ выраженную в процентах, называют также {\bf статистической достоверностью}, например, $P(x_0-\sigma\leqslant x\leqslant x_0+\sigma) = 68,3\%$, $P(x_0-2\sigma\leqslant x\leqslant x_0+2\sigma ) = 95,5\%$.

Доверительный интервал

Введённые границы называют доверительными границами, а интервал — доверительным интервалом. Величина статистической достоверности в каждом конкретном случае зависит от требуемой надежности измерений.

Эмпирические средние являются случайной величиной и их поведение можно описать некоторой функцией распределения относительно величины математического ожидания со своей дисперсией $s_x$ и если $x$ определено из $n$ измерений, то $$s_x^2=\frac{\sigma ^2}{n}.$$ К сожалению заранее $\sigma $ неизвестна и, следовательно, выражение невозможно использовать. Вместо $\sigma $ используется оценка среднего квадратичного отклонения $s_n$, а величину $$s_x=\frac{\sigma _n}{\sqrt{n}}$$ будем называть стандартной ошибкой, причём она, в отличие от стандартного отклонения $s_n$, уменьшается с ростом числа измерений пропорционально $\frac{1}{\sqrt{n}}$. По этой причине нет смысла увеличивать количество измерений после того, как величина $s_x$ станет сравнима с величиной систематической ошибки (или точности измерительного прибора).

В идеализированном случае, когда $\sigma $ точно известна, можно задать необходимую доверительную вероятность и по соотношению $ 2\Phi(t) = P, $ определить соответствующее значение верхнего предела $ t = t(P) $ и утверждать, что с вероятностью $P$ отклонение измеренного значения $\overline{x}$ от истинного $x$ не превышает $$ |\overline{x}-x| <t(P)\frac{\sigma}{\sqrt{n}}. $$ В реальности дисперсия неизвестна, а величина $$ t=\frac{\overline{x}-x}{\frac{s_n}{\sqrt{n}}} $$ соответствует не закону нормального распределения, а распределению Стьюдента, переходящему при $n\to \infty$ в нормальное распределение.

Доверительная оценка при выбранном уровне статистической достоверности $P$ в принимает вид $$ |\overline{x}-x| <t(P,n-1)\frac{s_n}{\sqrt{n}}. $$ Функция $t(P, n-1),$ называемая коэффициентом Стьюдента, зависит не только от $P$, но и от числа измерений $n.$ Таблицы значений этого коэффициента для нескольких уровней доверительной вероятности (называемых еще уровнями надежности) $P$ и различных $n$ табулированы.

Таблица коэффициентов Стьюдента
$n-1$ $P=68,3\%$ $P=95\%$ $P=99\%$ $P=99,73\%$
11.812.767235
21.324.709.919.2
31.2031.185.89.2
41.152.784.66.6
51.112.574.05.5
61.092.453.74.9
71.082.373.54.5
81.072.313.44.3
91.062.263.24.1
101.052.233.24.0
151.032.133.03.6
201.032.092.83.4
301.022.042.83.3
501.012.012.73.2
1001.001.982.63.1
2001.001.972.63.0
предел $n\to \infty$1.001.962.583.0

Представление результатов измерений

При обработке результатов измерений предлагается следующий порядок операций.

При прямых измерениях

  1. Результаты каждого измерения записываются в таблицу.
  2. Вычисляется среднее значение из $n$ измерений $$\overline{x}=\frac 1n \sum_{i=1}^{n}x_i.$$
  3. Находятся погрешности отдельного измерения $$\Delta x_i=\overline{x}-x_i$$ и вычисляются их квадраты $\left(\Delta x_i \right)^2 .$
  4. Определяется среднеквадратичная погрешность среднего арифметического $$ \Delta S_{\overline{x}}=\sqrt{\frac{\sum_{i=1}^{n}\left( \Delta x_i\right)^2 }{n(n-1)}}. $$
  5. Задается значение надежности $\alpha $ (обычно выбирают одно из стандартных значений — 0,68; 0,9; 0,95; 0,99; 0,995; 0,999, обычно выбирают 0,95).
  6. Определяется коэффициент Стьюдента $t_{\alpha n}$ для заданной на­дежности $\alpha $ и числа произведенных измерений $n$ (по таблице).
  7. Находится доверительный интервал (погрешность результата измерений): $$\Delta x= t_{\alpha n}\cdot \Delta S_{\overline{x}}.$$
  8. Если величина погрешности результата измерений $\Delta x$ окажется сравнимой с величиной погрешности прибора $\delta ,$ то в качестве границы доверительного интервала следует взять величину $$ \Delta x =\sqrt{\left( t_{\alpha n} \Delta S_{\overline{x}}\right) ^2+\delta ^2}. $$
  9. Окончательный результат записывается в виде $$ x=\overline{x}\pm \Delta x. $$
  10. Оцените относительную погрешность результата измерений $$ \varepsilon = \frac{\Delta x}{x}\cdot 100\%. $$