Как вычислить погрешность: функции, примеры, теория
Вычисление погрешности (или ошибки) сильно зависит от конкретной задачи, которую мы должны решить, а также от вида погрешности, которая нам необходима.
Общие сведения о погрешностях
Точность полученного результата может быть охарактеризована при помощи разных видов погрешностей:
- абсолютная погрешность – разность между истинным (точным) значением величины и тем значением, которое было получено в ходе измерений;
- относительная погрешность – отношение абсолютной погрешности к истинному (точному) значению измеряемой величины; обычно эта ошибка выражается в процентах;
- приведенная погрешность – отношение абсолютной ошибки к нормирующему значению, которое имеет прибор, с помощью которого было выполнено измерение;
- основная погрешность – ошибка результата, которую обеспечивает прибор, выполняющий измерения при нормальных условиях (для каждого прибора эти условия свои);
- дополнительная погрешность – ошибка результата, которую обеспечивает прибор, работающий в условиях, отличающихся от нормальных условий;
- систематическая погрешность – постоянно возникающая ошибка, связанная с особенностями прибора;
- случайная погрешность – ошибка, появляющаяся из-за действия случайных (непредсказуемых) факторов;инструментальная погрешность – ошибка, которая связана с ошибками, допущенными в процессе изготовления прибора;
- методическая погрешность – ошибка, обусловленная особенностями выбранного метода измерений;
- субъективная погрешность – ошибка, обусловленная квалификацией и личными характеристиками персонала, выполняющего измерения;
- статистическая погрешность – ошибка, которая рассчитывается на основе теории вероятностей;
- статическая погрешность – ошибка, которая появляется при измерении неизменных величин;
- динамическая погрешность – ошибка, которая появляется при измерении меняющихся во времени величин.
Эти и другие виды погрешностей изучаются в рамках теории погрешностей.
Вычисление погрешности измерений
Школьникам и студентам, выполняющим лабораторные работы, чаще всего приходится вычислять абсолютные и относительные погрешности. Делается это при помощи некоторого набора формул и определений.
Абсолютная погрешность ΔА вычисляется как разность между истинным значением величины (А) и ее приблизительным значением (Апр):
ΔА = А — Апр.
Относительная погрешность δА вычисляется как выраженное в процентах отношение абсолютной погрешности ΔА к приблизительному значению Апр:
δА = (ΔА / Апр) • 100%.
Абсолютная инструментальная погрешность ΔиА зависит от конструкции конкретного измерительного прибора и от его класса точности. Обычно это значение указывается на шкале прибора или в его паспорте.
С помощью класса точности можно рассчитать инструментальную погрешность ΔиА, выраженную в процентах. Для этого значение класса точности нужно умножить на наибольшее значение, которое способен измерять данный прибор, и поделить результат на 100.
То есть класс точности (обозначим его γ) связан с абсолютной инструментальной погрешностью (ΔиА) и максимальным показанием шкалы (Аmax) следующей формулой:
γ = ΔиА / Аmax • 100%.
Величины класса точности (γ) и максимально возможного показания шкалы (Аmax) можно узнать из паспорта прибора, которым будет производиться измерение. На их основе можно рассчитать абсолютную погрешность, с которой будет произведено измерение:
ΔиА = γ • Аmax / 100.
Поясним это на примере
Пусть амперметр имеет шкалу от 0 до 5 А, и на его шкале указан класс точности 0,5. Тогда инструментальная погрешность измерений при помощи такого амперметра будет:
ΔиА = 0,5 • 5 / 100 = 0,025.
Часто бывает так, что класс точности не указывают. В этом случае абсолютная инструментальная погрешность принимается такой же, как и погрешность отсчета ΔоА, которая принимается равной половине цены деления шкалы измерительного прибора.
Например, погрешность отсчета у обычной школьной линейки с миллиметровыми делениями принимается равной 0,5 мм. Если же линейка проградуирована не в миллиметрах, а, скажем, в дюймах, то погрешность отсчета ΔоА будет равна 0,5 дюймов.
Одна и та же величина, измеренная разными инструментами, будет иметь разную ошибку, и даже разное значение, так как результат необходимо округлять с той точностью, которую обеспечивает конкретная линейка.
Например, вот какие результаты мы получаем при измерении отрезка длиной 7 дюймов сначала при помощи дюймовой линейки, а затем при помощи двухдюймовой линейки.
Также точность конечного результата будет зависеть и от условий, в которых проводится измерение.
Рассмотрим решение следующей простой задачи: 25 зубочисток плотно лежат в коробочке. Ширину коробочки измерили обычной линейкой и получили значение 30 мм. Чему равна толщина одной зубочистки (толщиной стенок коробочки можно пренебречь)?
Решение:
Линейка обеспечивает погрешность измерений 0,5 мм.
Толщина одной зубочистки:
l = 30 / 25 = 1,2 мм.
Погрешность измерения толщины 25 зубочисток будет 0,5 мм, значит погрешность измерения толщины одной зубочистки:
Δl = 0,5 / 25 = 0,02.
Согласно правилам в ответе мы должны привести определяемую величину с той же точностью, что и ее погрешность. Таким образом, получаем следующий ответ.
Ответ:
l = 1,20 ± 0,02 мм.
Если же инструментальная погрешность ΔиА прибора известна, то максимальная абсолютная погрешность произведенных с его помощью измерений будет равна сумме абсолютной погрешности измерений и абсолютной инструментальной. Она рассчитывается по формуле:
ΔА = ΔоА + ΔиА.
При расчетах абсолютную погрешность принято округлять до одной значащей цифры.
Основные правила вычисления погрешностей
Чаще всего при выполнении практических измерений приходится определять относительные погрешности величин, которые вычисляются по формулам, и каждый член формулы имеет свою погрешность. В этом случае используются следующие правила:
Соответственно, абсолютная погрешность в таких задачах вычисляется как произведение относительной погрешности и приблизительного значения интересующей нас величины:
ΔА = δА • Апр.
Видео по теме погрешностей:
Что такое относительная и абсолютная погрешность читайте в нашей статье.
Отзывы и комментарии