обработка_результатов

Это старая версия документа!


Отклонения результатов измерения $x$ от истинного значения $x_0$ (которое обычно неизвестно) называют ошибками измерения $|x - x_0|.$ Ошибки измерений принято разделять на две группы: систематические и случайные (или статистические) ошибки.

Теория ошибок справедлива только для случайных ошибок. Рассмотрим наиболее простой случай, когда одна и та же физическая величина измеряется $N$ раз. Если измеряемая величина $x$ изменяется непрерывно, то область полученных значений разделяют на некоторое количество интервалов одинаковой ширины $\Delta x$ и, далее, определяют количество измерений, попавших в каждый из этих интервалов ($x_i \pm \frac 12 \Delta x$). Такое частотное распределение представляют с помощью диаграммы (гистограммы).

Для описания серий измерений удобно вместо $N_i$ — количества результатов, попавших в класс $x_i$ ввести относительные частоты $n_i = \frac{N_i}{N},$ нормированные на единицу. При увеличении числа измерений $n$ это распределение стремится к теоретическому распределению вероятностей, которое характеризует результаты бесконечного числа опытов. Существование теоретического распределения вероятностей является основополагающим предположением теории ошибок, которое, строго говоря, нельзя проверить экспериментально. Математически предел при $N\to \infty$ для каждого класса $x_i$ выражается в виде $$ P(x_i)=\lim\limits_{n\to \infty}\frac{N_i}{N}; \hspace{10pt} \sum_{i}P(x_i)=1. $$ Величина $P$ есть не что иное, как вероятность попадания измеряемого значения в $i$–тый интервал при одном измерении.

Теоретическое распределение вероятностей переходит при $\Delta x\to 0$ в гладкую кривую. Вероятность попадания исхода одного измерения $x$ в интервал $\Delta x$ равна $p(x)\Delta x.$ Функцию $p(x)$ называют плотностью вероятности. Вероятность $P$ попадания результата измерения в интервал $[x_1,x_2]$ равна $$ P(x_1\leqslant x\leqslant x_2)=\int \limits_{x_1}^{x_2} p(x)\, dx. $$ Вероятность попадания исхода одного измерения в область от $-\infty$ до $x$ в математической статистике называют функцией распределения $F(x):$ $$ F(x)=\int \limits_{-\infty}^{x} p(\xi)\, d\xi. $$ Теоретическая функция распределения в сжатой форме содержит всю информацию, которую можно получить из опыта, в том числе и истинное значение измеряемой величины $x_0.$ Эту величину для дискретного распределения значений $x$ называют арифметическим средним $E:$ $$ x_0=\overline{x}=E(x)=\sum_{i}x_iP(x_i), $$ а в случае непрерывного распределения: $$ x_0=\overline{x}=E(x)=\int \limits_{- \infty}^{\infty} xp(x)\, dx =\int \limits_{- \infty}^{\infty} x\, dF(x). $$

Если сравнивать результаты нескольких серий измерений одной и той же физической величины, то наиболее точное значение будет получено в той серии, в которой кривая распределения будет самой узкой. Чем уже кривая распределения, тем меньше ошибка $\delta = x- x_0$ отдельного измерения, поэтому целесообразно характеризовать распределение вероятностей не только средним значением $x_0$, но и шириной кривой распределения. Арифметическое среднее ошибки $\delta $ для этого не подходит, поскольку оно в точности равно нулю. Для этой цели выбирают математическое ожидание квадрата ошибки $\sigma ^2,$ которое называют дисперсией $$ \sigma ^2=E(\delta ^2)= \int \limits_{- \infty}^{\infty} \delta ^2 p(x)\, dx= \int \limits_{- \infty}^{\infty} (x-x_0)^2p(x)\, dx. $$ Квадратный корень из дисперсии $\sigma = \sqrt{\sigma ^2}$ называют средним квадратичным отклонением распределения. Оно непосредственно характеризует ширину распределения вероятностей — разброс измеряемых значений: $$ \sigma ^2=\overline{x^2}-\overline{x}^2. $$ Наилучшим приближением истинной величины х является так называемое выборочное среднее значение $$ \overline{x}_N=\frac 1N \sum_{i=1}^{N}x_i. $$

Вводя выборочную дисперсию $s ^2_N$, которая определяется как среднее значение квадрата отклонений $(x_i-\overline{x}_N)$ (Здесь не может идти речь об истинной ошибке поскольку не известно истинное значение $\overline{x}$): $$ s_N^2=\frac 1{N-1} \sum_{i=1}^{N}(x_i-\overline{x}_N)^2. $$

Квадратный корень из выборочной дисперсии называют выборочным стандартным отклонением $s_N.$ Оно характеризует разброс отдельных результатов измерений вблизи среднего значения и является наилучшей оценкой среднеквадратичного отклонения $\sigma $ генеральной совокупности, которое можно определить по выборке из $N$ результатов.

Для практического расчета выборочной дисперсии пользуются формулой: $$ s^2_N=\frac 1{N-1}\left( \sum_{i=1}^{N} x_i^2-\frac 1N \left(\sum_{i=1}^{N} x_i\right)^2 \right) . $$ Кроме среднего значения результатов измерений экспериментатора интересует еще и его точность. Мы можем определить ее, несколько раз повторяя серии по $n$ измерений. Тогда величины математических ожиданий $\overline{x}_N$ образуют распределение, стандартное отклонение которого $s_{\overline{x}}$ будет характеризовать разброс средних значений $\overline{x}_N$ от выборки к выборке. Поэтому величину $s_{\overline{x}}$ называют стандартным отклонением выборочного среднего (или его средней ошибкой). Пользуясь законом сложения ошибок получим $$ s_{\overline{x}}=\frac{s_N}{\sqrt{N}}=\sqrt{\frac{\sum_{i=1}^{N}(x_i-\overline{x}_N)^2}{N(N-1)}}. $$ Стандартное отклонение среднего, полученного по $N$ измерениям, отличается в $\frac 1{\sqrt{N}}$ раз от стандартного отклонения отдельного измерения. Таким образом, точность измерений достаточно медленно растет с увеличением количества измерений при больших $N.$ Поэтому нужно стремиться не к увеличению количества опытов, а к улучшению измерительных методов, которые позволят уменьшить стандартные отклонения $s_N$ отдельного измерения.

На практике могут реализовываться различные распределения вероятностей, мы рассмотрим нормальное распределение которое было найдено К. Ф. Гауссом. Важная роль гауссова распределения объясняется тем, что, с одной стороны, оно хорошо описывает плотность вероятностей для многих, кроме того, многие другие распределения переходят в предельном случае в нормальное распределение. Плотность вероятностей для случайной переменной $x$, меняющейся в пределах от $-\infty $ до $\infty $ имеет вид $$ p(x,x_0,\sigma )=\frac 1{\sigma \sqrt{2\pi}} \text{exp}\left( -\frac{(x-x_0)^2}{2\sigma ^2}\right). $$ Для описания функции распределения $$ F(x)=\frac 1{\sigma \sqrt{2\pi}}\int\limits_{-\infty}^{x} \text{exp}\left( -\frac{(z-x_0)^2}{2\sigma ^2}\right) \, dz. $$ используют функцию ошибок (интеграл ошибок Гаусса) $$ \text{erf}(t)=\frac 2{ \sqrt{\pi}}\int\limits_{0}^{t} \text{exp}\left( -z^2\right) \, dz $$ так, что $$ F(x)=\frac 12 \left(1+\text{erf}\left(\frac{x-x_0}{\sigma \sqrt{2}}\right)\right). $$ Вероятность того, что случайная переменная $x$, распределенная по нормальному закону, попадет в интервал $[x_1, x_2],$ равна $$ P(x_1\leqslant x\leqslant x_2)=F(x_2)-F(x_1)=\frac 12 \left( \text{erf}\left(\frac{x_2-x_0}{\sigma \sqrt{2}}\right)- \text{erf}\left(\frac{x_1-x_0}{\sigma \sqrt{2}}\right) \right). $$ Величину $P(x_1\leqslant x\leqslant x_2),$ выраженную в процентах, называют также {\bf статистической достоверностью}, например, $P(x_0-\sigma\leqslant x\leqslant x_0+\sigma) = 68,3\%$, $P(x_0-2\sigma\leqslant x\leqslant x_0+2\sigma ) = 95,5\%$.

Введённые границы называют доверительными границами, а интервал — доверительным интервалом. Величина статистической достоверности в каждом конкретном случае зависит от требуемой надежности измерений.

Эмпирические средние являются случайной величиной и их поведение можно описать некоторой функцией распределения относительно величины математического ожидания со своей дисперсией $s_x$ и если $x$ определено из $n$ измерений, то $$s_x^2=\frac{\sigma ^2}{n}.$$ К сожалению заранее $\sigma $ неизвестна и, следовательно, выражение невозможно использовать. Вместо $\sigma $ используется оценка среднего квадратичного отклонения $s_n$, а величину $$s_x=\frac{\sigma _n}{\sqrt{n}}$$ будем называть стандартной ошибкой, причём она, в отличие от стандартного отклонения $s_n$, уменьшается с ростом числа измерений пропорционально $\frac{1}{\sqrt{n}}$. По этой причине нет смысла увеличивать количество измерений после того, как величина $s_x$ станет сравнима с величиной систематической ошибки (или точности измерительного прибора).

В идеализированном случае, когда $\sigma $ точно известна, можно задать необходимую доверительную вероятность и по соотношению $ 2\Phi(t) = P, $ определить соответствующее значение верхнего предела $ t = t(P) $ и утверждать, что с вероятностью $P$ отклонение измеренного значения $\overline{x}$ от истинного $x$ не превышает $$ |\overline{x}-x| <t(P)\frac{\sigma}{\sqrt{n}}. $$ В реальности дисперсия неизвестна, а величина $$ t=\frac{\overline{x}-x}{\frac{s_n}{\sqrt{n}}} $$ соответствует не закону нормального распределения, а распределению Стьюдента, переходящему при $n\to \infty$ в нормальное распределение.

Доверительная оценка при выбранном уровне статистической достоверности $P$ в принимает вид $$ |\overline{x}-x| <t(P,n-1)\frac{s_n}{\sqrt{n}}. $$ Функция $t(P, n-1),$ называемая коэффициентом Стьюдента, зависит не только от $P$, но и от числа измерений $n.$ Таблицы значений этого коэффициента для нескольких уровней доверительной вероятности (называемых еще уровнями надежности) $P$ и различных $n$ табулированы.

Таблица коэффициентов Стьюдента
$n-1$ $P=68,3\%$ $P=95\%$ $P=99\%$ $P=99,73\%$
11.812.767235
21.324.709.919.2
31.2031.185.89.2
41.152.784.66.6

5 1.11 2.57 4.0 5.5 6 1.09 2.45 3.7 4.9 7 1.08 2.37 3.5 4.5 8 1.07 2.31 3.4 4.3 9 1.06 2.26 3.2 4.1 10 1.05 2.23 3.2 4.0 15 1.03 2.13 3.0 3.6 20 1.03 2.09 2.8 3.4 30 1.02 2.04 2.8 3.3 50 1.01 2.01 2.7 3.2 100 1.00 1.98 2.6 3.1 200 1.00 1.97 2.6 3.0 предел 1.00 1.96 2.58 3.0

При обработке результатов измерений предлагается следующий порядок операций.

При прямых измерениях

  1. Результаты каждого измерения записываются в таблицу.
  2. Вычисляется среднее значение из $n$ измерений $$\overline{x}=\frac 1n \sum_{i=1}^{n}x_i.$$
  3. Находятся погрешности отдельного измерения $$\Delta x_i=\overline{x}-x_i$$ и вычисляются их квадраты $\left(\Delta x_i \right)^2 .$
  4. Определяется среднеквадратичная погрешность среднего арифметического $$ \Delta S_{\overline{x}}=\sqrt{\frac{\sum_{i=1}^{n}\left( \Delta x_i\right)^2 }{n(n-1)}}. $$
  5. Задается значение надежности $\alpha $ (обычно выбирают одно из стандартных значений — 0,68; 0,9; 0,95; 0,99; 0,995; 0,999, обычно выбирают 0,95).
  6. Определяется коэффициент Стьюдента $t_{\alpha n}$ для заданной на­дежности $\alpha $ и числа произведенных измерений $n$ (по табл. 2).
  7. Находится доверительный интервал (погрешность результата измерений): $$\Delta x= t_{\alpha n}\cdot \Delta S_{\overline{x}}.$$
  8. Если величина погрешности результата измерений $\Delta x$ окажется сравнимой с величиной погрешности прибора $\delta ,$ то в качестве границы доверительного интервала следует взять величину $$ \Delta x =\sqrt{\left( t_{\alpha n} \Delta S_{\overline{x}}\right) ^2+\delta ^2}. $$
  9. Окончательный результат записывается в виде $$ x=\overline{x}\pm \Delta x. $$
  10. Оцените относительную погрешность результата измерений $$ \varepsilon = \frac{\Delta x}{x}\cdot 100\%. $$