Metrologia Calibración Cursos UNE-EN ISO / IEC 17025

miércoles, 16 de abril de 2014

¿Que es una distribución y para que se utiliza?

Una función de distribución es la función que da, para cada valor de x, la probabilidad de que la variable aleatoria X sea menor que x. Es la función de probabilidad acumulativa


Función de densidad de probabilidad para una variable aleatoria continua, es la derivada de la función de distribución. Representa la probabilidad de que una variable aleatoria toma un valor determinado.



Su relación gráfica:



Las funciones de densidad se utilizan para cuantificar las incertidumbres de las diferentes componentes que intervienen en el modelo del proceso de medida: incertidumbres de calibración, de las correcciones por efecto del medio ambiente, repetición de medidas, , resolución, histéresis, deriva, etc....

martes, 15 de abril de 2014

¿Porqué se utiliza la estadística en Metrologia?

La importancia de la estadística en Metrologia se debe a que con ella se pueden estudiar los fenómenos inciertos (aleatorios), los fenómenos que no se pueden predecir con certeza. La estadística sirve para tomar decisiones respecto a una característica que queremos evaluar. Esta característica se denomina variable aleatoria puesto que es una variable que puede tomar cualquier valor de un conjunto determinado de valores. Una variable aleatoria puede tomar sólo valores aislados y se denomina discreta o tomar cualquiera de los valores de un intervalo finito o infinito y se denomina continua.

Podríamos definir una variable aleatoria como la función que asocia un número a cada suceso o resultado de un experimento aleatorio.

Hay dos conceptos muy importantes en el uso de la estadística: Población y Muestra.

Cuando se habla del total de observaciones posibles de un experimento en el que estamos interesados se denomina Población y cuando se habla de una parte de ellas, de un subconjunto, se denomina Muestra.

Cada observación de una población es un valor de la variable aleatoria X que estamos evaluando, y a esta variable le va a corresponder una distribución de probabilidad determinada. Esta función de probabilidad es una función que da la probabilidad  de que una variable aleatoria tome un valor dado cualquiera o pertenezca a un conjunto dado de valores.

En resumen una variable aleatoria lleva asociada una distribución de probabilidad que asocia mediante una función de probabilidad un posible valor de la variable.

La distribución de probabilidad queda caracterizada por dos parámetros poblacionales: Valor Esperado y la Varianza.

Valor esperado: Determina el lugar donde se centra la distribución de probabilidad. Es la Esperanza matemática.

Varianza: Determina el grado de dispersión que presenta la distribución frente al valor esperado


¿Cómo se pueden identificar, reducir y corregir los errores sistemáticos?

Métodos para identificar errores sistemáticos:
  • Calibración
  • Utilización de distintos aparatos, métodos y procedimientos
  • Variación controlada de condiciones ambientales
Reducir errores sistemáticos:
  • Cambio del método de medida
  • Ajuste del instrumento de medida
  • Modificación del instrumento de medida
Corregir errores sistemáticos:
  • Datos de calibración
  • Aplicación de leyes físicas
  • Magnitudes ambientales de influencia
Habrá que tener en cuenta que el mismo efecto puede dar lugar a un error corregible o a un error estimable. El que sea uno u otro será función del conocimiento de las variables de influencia y del conocimiento de cómo afectan a la medida.

lunes, 14 de abril de 2014

¿Que diferencias hay entre errores aleatorios y errores sistemáticos?

ERROR ALEATORIO: Presenta carácter aleatorio que surge de manera imprevisible cuando se repite la medida de una misma magnitud en las mismas condiciones, es decir, surgen debido a factores de influencia que varían de forma impredecible. No conservan ni valor, ni signo, ni sigue ninguna ley. Este tipo de errores no se pueden corregir, pero si se pueden disminuir aumentando el número de repeticiones (su esperanza matemática es cero). Para su estimación nos basaremos en la estadística a partir de una serie de datos obtenidos de medidas repetidas en condiciones de repetibilidad.

ERROR SISTEMÁTICO: presentan un carácter sistemático, varía de forma predecible en el curso de una serie de medidas, se puede considerar prácticamente constante o con una variación regular en función de las condiciones experimentales. La característica fundamental de estos errores, es que obedecen a una cierta ley aunque no sea conocida. El error sistemático puede tratarse como una variable aleatoria pero la diferencia con el error aleatorio es que la esperanza del error sistemático es distinta de cero y debe ser corregida. La corrección de este tipo de errores lleva asociada una incertidumbre en el resultado de medida debido a un incompleto conocimiento de los valores requeridos para dicha corrección. Estas incertidumbres que generan pueden ser estimadas por distintos métodos.

La diferencia más importante entre los dos tipos de errores definidos es que el error sistemático puede tratarse como una variable aleatoria pero la diferencia con el error aleatorio es que la esperanza del error sistemático es distinta de cero y debe ser corregida.

Su corrección lleva asociada una incertidumbre en el resultado de medida debido a un incompleto conocimiento de los valores requeridos para dicha corrección.

lunes, 7 de abril de 2014

¿De que dos formas se puede expresar el error?

El error puede expresarse de dos formas: Forma absoluta o Forma relativa.

Forma absoluta: El error absoluto de medida sería E = A' - A, siendo A el valor verdadero y A` el resultado de medida. Este error es el que corresponde con la definición del VIM y se expresa en las mismas unidades que la magnitud medida. En los certificados de calibración se expresa el término de corrección, que representa el mismo valor numérico que el error absoluto pero con signo contrario, es decir c = -E

Forma relativa: Se expresa como la fracción entre el error expresado en forma absoluta y el valor verdadero de la magnitud, e = E/A, este error se expresa normalmente en %.

¿Porqué es ideal el concepto de error?

El error se define como la diferencia entre el resultado de una medida y el valor del mensurando. Este concepto es ideal ya que el valor verdadero de la magnitud medible siempre es desconocido. El error de medida es causado por imperfecciones en la medición.

Para conocer el error de medida deberíamos conocer los errores de los distintos factores que influyen en un proceso de medida y sumarlos. Esto no es sencillo, no todos los errores se comportan de la misma manera, no tienen las mismas propiedades y requieren de procedimientos distintos para estimarlos.

¿Porque toda medida realizada es imperfecta?

Se debe a la naturaleza aleatoria de las mediciones, es decir, la dispersión. Sobre cualquier medida actúan las magnitudes de influencia que intervienen directamente en las condiciones de la medida, además del sistema de medida, instrumento, mensurando y operador.

Aunque controlemos todas las magnitudes de influencia el instrumento no es perfecto y no responde siempre igual en las medidas. Las imperfecciones de nuestros sentidos, los métodos inadecuados, los patrones imperfectos, etc..

Para subsanar la naturaleza aleatoria de las medidas lo que se realiza frecuentemente es repetir las medidas n veces, sin embargo la tendencia a la máxima exactitud cuando no es necesaria es también una equivocación porque se pierde tiempo y dinero, por muchas veces que se mida una temperatura con un termómetro de los de casa jamás se conseguirá una incertidumbre de centésima de grado. Depende del grado de definición del mensurando y de la división de escala del instrumento de medida empleado. Por eso repetir las medidas no siempre es la solución y la estimación de la incertidumbre requiere de criterio y experiencia para saber cuándo es inútil seguir realizando medidas. No se deben matar moscas a cañonazos. He comprobado en calibraciones realizadas in sitú en distintas organizaciones que tenían equipos de medida de calidad muy superior a sus necesidades reales,  una inversión realizada mucho mayor a la necesaria, que también contribuye a que su calibración y mantenimiento sea más caro. También se ve la situación contraria. Para todos los casos se debe analizar las necesidades técnicas antes de elegir un equipo de medida, que hace aumentar los costes y peligra la viabilidad del negocio.

Los métodos estadísticos permiten estimar la incertidumbre y ofrecen la posibilidad de deducir propiedades de una población a partir de los datos que se presentan en una muestra. El tratamiento estadístico correcto de las medidas permite obtener toda la información que contienen, pero el metrólogo sesudo debe ser cauteloso contra el abuso de los métodos estadísticos. Por eso es horroroso el abuso del aparato estadístico que se presenta para ocultar medidas mediocres.

CONCLUSIÓN: Las medidas nunca permiten obtener el verdadero valor de la magnitud que se mide y es inevitable que el resultado de cualquier medida sea un número con un cierto grado de incertidumbre que es esencial estimar con el grado de confianza que merezca.

viernes, 4 de abril de 2014

Curso Calibración Pesas Patrón y balanzas analíticas, básculas de precisión, básculas industriales, básculas de camiones, básculas de ferrocarril, etc...

INTRODUCCIÓN

El curso contiene ejemplos detallados de la estimación de la incertidumbre de las medidas y se va a impartir por la necesidad creciente de los usuarios de los equipos de confirmar las cualidades metrológicas mediante calibración cuando lo requieren las normas ISO 9001 o ISO/IEC 17025.
Este curso contiene orientaciones para la calibración estática de instrumentos de pesaje de funcionamiento no automático de indicación automática, en particular en lo que se refiere a:

1. mediciones a realizar,
2. cálculo de los resultados de medida,
3. determinación de la incertidumbre de medida,

4. contenidos de los certificados de calibración.

Los instrumentos para pesar y las pesas patrón que se utilizan comúnmente en los procesos de sistemas de medición industriales deben someterse a calibraciones o verificaciones para proporcionar la evidencia de la conformidad del producto con los requisitos especificados.
Este curso está orientado a ofrecer una serie de conocimientos y métodos que nos faciliten estas Calibraciones o verificaciones.

DIRIGIDA:

El curso esta dirigido a técnicos o responsables de calidad o metrología así como a los usuarios involucrados en las actividades de medición de la masa. Estudiantes y interesados con ganas de aprender

OBJETIVO GENERAL:

Proporcionar directrices a los participantes para conocer los requisitos mínimos para la calibración de IPFNA (básculas, balanzas), explicar cómo establecer procedimientos prácticos, exponer ejemplos detallados de la estimación de la incertidumbre de las medidas
Dar a conocer los tipos de instrumentos relacionados con el pesaje, como balanzas, básculas y pesas patrones de masa.
Analizar su uso, clasificación y características metrológicas.

OBJETIVO ESPECIFICO:

Familiarizarse con los procedimientos para su calibración, y el uso correcto del instrumento en lectura directa.
Realizar prácticas de calibración en el aula, donde tendrán la oportunidad de aprender con un instrumentos real realizando una calibración práctica, usando un procedimiento de calibración documentado, un formato de toma de datos, evaluando el error y la incertidumbre de los resultados de calibración en un archivo de prácticas, (hoja de cálculo en Excel) que podrán serle de utilidad en su trabajo.
Se explicará en detalle las calibraciones a estos instrumentos (balanzas, básculas, pesas patrón de masa). Es conveniente que el participante asista con una portátil personal con instalación completa del programa Excel.

TEMAS:

1.- Conceptos y Fundamentos en Metrología de Masa
2.- Clasificación y Características de Balanzas y Básculas
3.- Clasificación y Características de Pesas
4.- Trazabilidad e Incertidumbre en Metrología de Masa
5.- Manejo de Pesas y Condiciones Ambientales de Laboratorio
6.- Procedimiento de Calibración de Balanzas y Básculas; ensayo de excentricidad, de repetibilidad y de carga descarga, (Selección de Patrones, recomendaciones previas, toma de lecturas)
7.- Procedimiento de Calibración de Pesas
(Selección de Patrones, recomendaciones previas, toma de lecturas, método de ciclo de pesada ABBA)
8.- Determinación de la Masa de un Objeto a partir de su Peso
9.- Pruebas Estadísticas de la Calidad de los Resultados de Calibración
10.- Evaluación de Incertidumbres en Calibración de Pesas, Balanzas y Básculas
11.- Intervalos de Calibración de Pesas, Balanzas y Básculas

PREVISIÓN FECHAS:

Junio de 2014

HORARIO Y DÍAS

3 días de 9 a 18 h con 1 hora de descanso para comer y los oportunos descansos para café. El curso se impartirá en un hotel céntrico de Bilbao.

PRECIO

590 EUROS + 21 % IVA. Previo pago antes de asistir al curso. Se pueden tramitar las ayudas para la formación.

INSCRIPCIÓN

andoni.incertidumbre@gmail.com

miércoles, 2 de abril de 2014

¿Es lo mismo Repetibilidad y Reproducibilidad?

Repetibilidad

Es el grado de coincidencia existente entre los resultados de sucesivas mediciones del mismo mensurando, permaneciendo inalterables las condiciones de medida durante todo el proceso.

Reproducibilidad

Es el grado de coincidencia existente entre los resultados de sucesivas mediciones del mismo mensurando, habiéndose producido, durante el proceso, la variación de alguna de las condiciones de medida como pueden ser el equipo de medición, operador, patrón de referencia, intervalo entre mediciones, lugar de las mediciones y el procedimiento de medida.

Leyendo las dos definiciones esta mucho más claro que No es lo mismo Repetibilidad y Reproducibilidad.


¿Es la Exactitud lo mismo que el Error?

EXACTITUD

Es el grado de coincidencia existente entre el resultado de una medición y el valor del mensurando aceptado como referencia.

EXACTITUD = VERACIDAD + PRECISIÓN

Veracidad: (justeza) es el grado de coincidencia existente entre el valor obtenido de una serie de resultados y el valor del mensurando aceptado como referencia. También se le suele denominar sesgo.

Precisión: (fidelidad) es el grado de coincidencia existente entre los resultados independientes de una medición obtenidos en condiciones estipuladas. Tiene que ver con la desviación típica.

Como se aprecia por las definiciones la Exactitud es un concepto más amplio, y no es lo mismo exactitud y error, aunque en el lenguaje coloquial se confundan estos términos. Muchos fabricantes de equipos industriales confunden también exactitud y precisión, poniendo en sus descripciones y folletos de especificaciones técnicas la precisión como si fuera la exactitud, confundiendo a los usuarios de los equipos.

¿Que son las magnitudes de influencia en una medición?

Las magnitudes de influencia son aquellas magnitudes que no constituyendo el objeto directo de la medida, están presentes durante su realización y afectan determinantemente al resultado final.

La incertidumbre del resultado de una medida se calcula teniendo en cuenta todas las magnitudes de influencia.

¿Cuales son los campos en los que se divide la Metrología?

Metrologia Científica

Comprende todas las actuaciones relacionadas con la obtención, desarrollo, conservación y diseminación de los patrones nacionales de las unidades de medida. Es el pilar básico del resto de las actividades y fundamentalmente se circunscribe a los Institutos Nacionales de Metrología, sin embargo, en algunos casos son laboratorios públicos y privados los que se encargan del mantenimiento de los patrones.

Metrología Aplicada

Su campo de actuación se centra en las calibraciones que se llevan a cabo en el sector voluntario y según normas universalmente aceptadas que exponen criterios generales de actuación para la obtención de las mejores incertidumbres posibles y asegurar la trazabilidad a los patrones nacionales.

Metrologia Legal

Se refiere al control metrológico que los distintos Estados tienen que aplicar a los instrumentos de medida para garantizar la salud y la seguridad de los ciudadanos así como para evitar fraudes en las transacciones comerciales. Su actividad está regulada en virtud de diferentes disposiciones legales.

Metrología Química

Es un nuevo campo de la metrología que se ha establecida más recientemente y engloba toda la actividad de los análisis químicos que se realizan en los laboratorios de ensayo.

¿Cuando nació la Metrologia moderna?

La Metrología moderna, como se conoce en la actualidad, tiene su origen en 1875 con la firma en París, por 17 estados, del Tratado de la Convención del Metro. En este tratado se plasman los principios básicos para establecer en un futuro, instituciones y organizaciones que armonicen los procesos de medida en los distintos países y de esta forma puedan potenciarse los intercambios comerciales.

Entradas populares

Vistas de página en total