Приведите способы числового выражения погрешностей средств измерений

1 Расчетно-графическая работа №1. Способы числового выражения погрешностей средств измерений

Цель работы: изучение способов расчета абсолютных, относитель-ных, приведенных основных и дополнительных погрешностей средств измерений.

1.1 Задание №1

Учет всех нормируемых метрологических характеристик средства измерений (СИ) при оценивании погрешности результата измерений, как вид­но, сложная и трудоемкая процедура, оправданная при измерениях по­вышенной точности. При измерениях на производстве, в обиходе такая точность не всегда нужна. В то же время, определенная информация о возможной инструментальной составляющей погрешности измерения необходима. Такая информация дается указанием класса точности сред­ства измерений.

Класс точности – обобщенная метрологическая характеристика (МХ), определяемая пределами основной и дополнительных допускаемых погрешностей, а также другими свойствами средств измерений, влияющими на точность. Класс точности — величина безразмерная.

Классы точности присваивают сред­ствам измерений при их разработке на основании исследований и испы­таний представительной партии средств измерения данного типа. При этом пределы допускаемых погрешностей нормируют и выражают в форме абсолютных, приведенных или относительных погрешностей, в зависимости от характера изменения погрешностей в пределах диапазо­на измерений.

От условий применения СИ различают следующие погрешности:

1) основная погрешность СИ погрешность СИ, используемого в нормальных условиях (Н.У.). Под Н.У. применения СИ понимаются условия, при которых влияющие величины (температура окружающего воздуха, барометрическое давление, влажность, напряжение питания, частота тока и т.д.) имеют нормальные значения или находятся в пределах нормальной области значений, а также определенное пространственное их положение, отсутствие вибрации, внешнего электромагнитного поля, кроме земного магнитного поля. Н.У. обычно не являются рабочими условиями применения СИ;

2) под пределом допускаемой дополнительной погрешности понимается наибольшая дополнительная погрешность, вызываемая изменением влияющей величины в пределах расширенной области значений (РОЗ), при которой средство измерений может быть признано годным и допущено к применению. В стандартах или технических условиях для каждого вида СИ устанавливают расширенную область значений влияющих величин, в пределах которой значение дополнительной погрешности не должно превышать установленных пределов. Терминам основная и дополнительная погрешности соответствуют фактические погрешности СИ, имеющие место при данных условиях.

От формы представления погрешности различают абсолютную, относительную и приведенную погрешности СИ.

Абсолютная погрешность измерительного прибора – разность между показаниями прибора и действительным значением измеряемой величиной

, (1.1)

определяется с помощью образцового прибора или воспроизводится мерой.

Относительная погрешность измерительного прибора – отношение абсолютной погрешности измерительного прибора к действительному значению измеряемой величины

(1.2)

Приведенная погрешность измерительного прибора — отношение абсолютной погрешности измерительного прибора к нормирующему значению измеряемой величины

Читайте также:  Укажите способы временной остановки кровотечения ответ

. (1.3)

В качестве нормирующего значения используется верхний предел измерения или диапазон измерений измерительного прибора.

Для рассматриваемого способа нормирования погрешностей средств измерений предел допускаемой основной погрешности показаний , выраженный в процентах нормирующего значения, совпадает с числом, принимаемым для обозначения класса точности средств измерений. Таким образом, исходя из того, что класс точности численно равен приведенной погрешности, выраженной в процентах, то предел допускаемой основной абсолютной погрешности показаний определяют по формуле

. (1.4)

Дополнительные погрешности средств измерений или изменение показаний измерительных приборов, вызываемые изменением i –ой влияющей величины на нормированное отклонение (или в пределах расширенной области), выражаются в виде приведенной погрешности в процентах нормирующего значения и определяются по формуле

, (1.5)

где предел допускаемой дополнительной погрешности, %;

— показание прибора или значение выходного сигнала преобразователя в данной точке шкалы (диапазона преобразования);

— показание прибора или значение выходного сигнала преобразователя в данной точке шкалы (диапазона преобразования) при нормальном значении или нормальной области значений влияющей величины (принимается за действительное значение).

Если в стандарте или монтажно-эксплуатационной инструкции указывается, что измерительный прибор предназначен для применения в рабочих условиях в расширенной области значений влияющей величины (РОЗ), это означает, что предел допускаемой дополнительной погрешности в пределах этой области нормирован.

Источник

Погрешность средств измерений

От погрешностей, присущих средствам измерений, зависит погрешность результата измерений той или иной физической величины. Погрешность средства измерений есть разница между значением величины, полученной при помощи этого средства, и истинным значением измеряемой величины. Поскольку истинное значение величины не известно, на практике вместо него пользуются действительным значением величины, полученным при помощи более точного средства измерений.

Погрешности средств измерений могут быть классифицированы следующим образом:

— по характеру появления и причинам – систематические и случайные;

— по отношению к условию применения – основные и дополнительные;

— по способу (форме) числового выражения – абсолютные, относительные и приведенные.

Систематической погрешностью средства измерения называется составляющая погрешности, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же величины. Происхождение и характер этих погрешностей известен и выявляется в результате многократных измерений одной и той же величины. Влияние этих погрешностей исключается путем введением поправок, определяемых расчетным или опытным путем.

Случайной погрешностью средства измерения называется составляющая погрешности, изменяющиеся случайным образом при повторных измерениях одной и той же величины. Она возникает в результате влияния на средства измерений таких случайных факторов как вибрация, наличие электромагнитных полей, изменение органов чувств наблюдателя. Они не могут быть исключены опытным путем. Для учета случайных погрешностей одну и ту же величину измеряют много раз данным средством измерений. К полученному ряду значений применимы теории вероятности и математической статистики, на основании которых оценивается случайная составляющая погрешности средств измерений.

Читайте также:  Способы искусственного питания больных

Основная погрешность – это погрешность средства измерения, используемого в нормальных условиях, которые обычно определены в нормативно-технической документации на данное средство измерения.

Под дополнительными погрешностями понимают изменение погрешности средств измерений вследствие отклонения влияющих величин от нормальных значений.

Абсолютная погрешность измерительного прибора – это разность между показаниями прибора и истинным (действительным) значением измеряемой величины:

Х =

где ХП – показания прибора;

Хд – действительное значение измеряемой величины. За действительное значение измеряемой величины принимают показания образцового прибора.

Относительная погрешность прибора – это отношение абсолютной погрешности измерительного прибора к истинному (действительному) значению измеряемой величины, %:

Приведенная погрешность измерительного прибора — это отношение абсолютной погрешности измерительного прибора к нормирующему значению. нормирующее значение – условно принятое значение ХN, равное или верхнему пределу измерения, или диапазону измерений, или длине шкалы. Приведенную погрешность обычно выражают в %:

Точность СИ – характеристика качества средства измерений, отражающая близость его погрешности к нулю. Класс точности СИ – это обобщенная характеристика данного типа СИ, как правило, отражающая уровень их точности, выражается пределами допускаемых основных и дополнительных погрешностей, а также другими характеристиками, влияющими на точность. Класс точности дает возможность судить о том, в каких пределах находится погрешность СИ данного типа, но не является непосредственным показателем точности измерений, выполняемых с помощью каждого из этих средств. Класс точности средств измерений конкретного типа устанавливается в стандартах, технических условиях или других нормативных документах.

В соответствии с основными нормативами документации (ГОСТ 12997-76 «Государственная система промышленных приборов и средств автоматизации. Технические условия») основной метрологической характеристикой измерительного прибора является класс точности , который является обобщенной характеристикой средств измерений, определяющей пределы допускаемых основных и дополнительных погрешностей. Под пределом допускаемой погрешности понимается наибольшая (без учета знака) погрешность средства измерений при которой оно может быть признано годным к эксплуатации.

ГОСТ 8.401-80 регламентирует способы значения классов точности в зависимости от способа выражения пределов допускаемых погрешностей средств измерений. Этим стандартом предусматривается выражение предельно допускаемых погрешностей средств измерений в виде абсолютных и приведенных погрешностей.

Абсолютная погрешность выражается

(1)

, (2)

где — предел допускаемой абсолютной погрешности, выражаемой в единицах на входе (выходе);

а – положительное число, выраженное в тех же единицах, что и

Читайте также:  Способ приема гептрала таблетки

х – значение величины на входе (выходе) средств измерений;

в — отвлеченное положительное число.

Относительная погрешность выражается формулой:

(3)

, (4)

где — предел допускаемой относительной погрешности %;

с,d – относительные величины;

хк – конечное значение диапазона измерения прибора.

Приведенную погрешность определяют по формуле:

(5)

где — предел допускаемой приведенной погрешности, %;

хN – нормирующее значение, равное или верхнему пределу измерений или диапазону измерений, или длине шкалы.

Для измерительных приборов предельные допускаемые погрешности которых выражены как приведенные погрешности согласно выражению (5), должны быть присвоены классы точности, выбираемые из ряда чисел:

(1; 1.5; 2; 2.5; 3; 4; 5; 6) 10 n , где n = (1.0; 0; -1; -2; и т.д.) Класс точности прибора устанавливают при выпуске, градуируя его по образцовому прибору в нормальных условиях.

Для измерительных приборов, предел допускаемых погрешностей которых выражается относительной погрешностью в процентах, согласно выражению (4) класс точности определяется совокупностью значений с и d. Тогда условные обозначения состоят из двух чисел, разделенных косой чертой и равных с и d.

Таким образом, для большинства применяемых в практике приборов используются одночленные или двучленные обозначения класса точности. Например, обозначение класса точности 0,5 показывает, что пределы допускаемых погрешностей выражаются в процентах нормирующего значения. Обозначение класса точности 0,1/0,2 означает что предел допускаемой относительной погрешности в процентах значения измеряемой величины определяется формулой

,

где с = 0,1 d = 0,02

Статические погрешности СИ возникают при измерении физической величины, принимаемой за неизменную. Динамические погрешности средств измерений возникают при измерении изменяющейся во времени (в процессе измерений) физической величины.

На обеспечение качества измерений направлено применение аттестованных методик выполнения измерений (МВИ) – ГОСТ 8.563-96 «ГСИ. Методики выполнения измерений».

Методика выполнения измерений – это совокупность операций и правил, выполнение которых обеспечивает получение результатов измерений с известной погрешностью. МВИ – это, как правило, документированная измерительная процедура. МВИ может быть изложена в отдельном документе (стандарте, рекомендации), разделе стандарта, части технического документа (разделе ТУ, паспорта).

Аттестация МВИ – процедура установления и подтверждения соответствия МВИ предъявляемым к ней метрологическим требованиям. В документах, регламентирующих МВИ в общем случае указывают: назначение МВИ; условия выполнения измерений; требования к погрешности измерений; метод измерений; требования к средствам измерения, вспомогательным устройствам, материалам и т.п.; операции при подготовке к выполнению измерений; операции при выполнении измерений; операции обработки и вычисления результатов измерений; нормативы и процедуру контроля погрешности результатов выполняемых измерений; требования к квалификации операторов; требования к безопасности выполняемых работ.

Источник

Оцените статью
Разные способы