Buenas tardes, hace días estaba en prácticas de instrumentación electrónica, y me pedían calibrar la fuente de voltaje mediante el siguiente procedimiento:
<<El procedimiento descrito a continuación, aplica a cualquier situación de calibración, según el circuito de
medición requerido en cada caso.
1. Encienda la fuente. Espere que se estabilice térmica y eléctricamente.
2. Seleccione el intervalo a calibrar de acuerdo a la escala de sus instrumentos.
3. Una vez seleccionado el intervalo, utilice como puntos de muestras los equivalentes a: 0%, 25%, 50%,
75% y 100%. Anótelos en la tabla de calibración (tabla 3), en la columna del valor de la fuente VL.
4. Arme el circuito de medición, según se muestra:
5. Determine y ajuste el valor de la corriente máxima de la fuente
6. Haga un primer recorrido ascendente y descendente del intervalo, sin tomar ninguna medición, pero
observando que la fuente alcance los valores máximo y mínimo a calibrar. Tome nota, si la fuente no
logra alcanzar algunos de los valores, esto le dirá si presenta error de cero o de amplitud.
7. Inicie ahora el proceso de calibración, variando la tensión lentamente en forma ascendente, hasta
cubrir todo el intervalo. Sobrepase levemente el 100% del voltaje y empiece el recorrido descendente.
8. Repita el paso anterior, para obtener un total de cuatro (4) valores para cada punto de muestreo.
Registre los valores en la tabla 3, en las columnas de valor del patrón (VP).
9. Ordene su mesa de trabajo y regrese al personal del laboratorio los materiales y equipos suministrados. >>
El profe nos estableció los siguientes intervalos:
1. [0,2) v
2. [2,6) v
3. [6, 10) v
4. [10, 14) v
5. [14, 16] v
Ahora, mi dudas son 2, la primera es por que al hacer el "recorrido" de subida (del mínimo al máximo) a través de los valores del voltaje, el display de la fuente proporciona valores menores y al regresar (de máximo a mínimo da valores menores? ¿Es acaso un fenómeno propio del proceso de calibración o es algo más? Estos fueron los resultados:
Otra cosa, el profesor nos dijo que si por error nos "pasábamos" al intentar controlar el voltaje de la fuente, dijo que regresáramos al límite inmediato más cercano en el intervalo, esto es, si estoy en 6v y voy a tratar de ajustar la fuente subiendo a 8v, pero por error la coloco en 8.5v, por ejemplo, me regreso a 6v y vuelvo a subir a 8v. ¿Esto se hace con el fin de respetar los intervalos establecidos, cierto?
<<El procedimiento descrito a continuación, aplica a cualquier situación de calibración, según el circuito de
medición requerido en cada caso.
1. Encienda la fuente. Espere que se estabilice térmica y eléctricamente.
2. Seleccione el intervalo a calibrar de acuerdo a la escala de sus instrumentos.
3. Una vez seleccionado el intervalo, utilice como puntos de muestras los equivalentes a: 0%, 25%, 50%,
75% y 100%. Anótelos en la tabla de calibración (tabla 3), en la columna del valor de la fuente VL.
4. Arme el circuito de medición, según se muestra:
5. Determine y ajuste el valor de la corriente máxima de la fuente
6. Haga un primer recorrido ascendente y descendente del intervalo, sin tomar ninguna medición, pero
observando que la fuente alcance los valores máximo y mínimo a calibrar. Tome nota, si la fuente no
logra alcanzar algunos de los valores, esto le dirá si presenta error de cero o de amplitud.
7. Inicie ahora el proceso de calibración, variando la tensión lentamente en forma ascendente, hasta
cubrir todo el intervalo. Sobrepase levemente el 100% del voltaje y empiece el recorrido descendente.
8. Repita el paso anterior, para obtener un total de cuatro (4) valores para cada punto de muestreo.
Registre los valores en la tabla 3, en las columnas de valor del patrón (VP).
9. Ordene su mesa de trabajo y regrese al personal del laboratorio los materiales y equipos suministrados. >>
El profe nos estableció los siguientes intervalos:
1. [0,2) v
2. [2,6) v
3. [6, 10) v
4. [10, 14) v
5. [14, 16] v
Ahora, mi dudas son 2, la primera es por que al hacer el "recorrido" de subida (del mínimo al máximo) a través de los valores del voltaje, el display de la fuente proporciona valores menores y al regresar (de máximo a mínimo da valores menores? ¿Es acaso un fenómeno propio del proceso de calibración o es algo más? Estos fueron los resultados:
Lectura | voltaje | lectura de subida (1) | lectura de bajada (1) | lectura de subida (2) | lectura de bajada (2) |
1 | 2v | 1.99v | 2.01v | 1.98v | 2.02v |
2 | 6v | 5.97v | 6.00v | 5.99v | 6.08v |
3 | 10v | 9.98v | 10.07v | 10.01v | 10.10v |
4 | 14v | 13.99v | 13.97v | 14.01v | 14.11v |
5 | 16v | 16.03v | 16.01v | 16.04v | 16.04v |
Otra cosa, el profesor nos dijo que si por error nos "pasábamos" al intentar controlar el voltaje de la fuente, dijo que regresáramos al límite inmediato más cercano en el intervalo, esto es, si estoy en 6v y voy a tratar de ajustar la fuente subiendo a 8v, pero por error la coloco en 8.5v, por ejemplo, me regreso a 6v y vuelvo a subir a 8v. ¿Esto se hace con el fin de respetar los intervalos establecidos, cierto?