Creía tenerlo claro pero algún profesor me ha llamado la atención por hacerlo "mal".
Así lo entiendo yo:
-Si tengo una escala graduada, cojo como medida la marca más cercana a la aguja (una aguja o lo que sea que indique), y como error cojo la mitad del intervalo. Por ejemplo, una escala que solo marque el 1, 2, 3 ,4 ... si la medida está más cerca de 3 que de 4, mi medida es x = 3+-0.5.
-Si la escala graduada tiene las marcas suficientemente espaciadas como para distinguir si la aguja se encuentra más cerca de una marca o de la mitad entre marcas, podría coger la mitad dado el caso. Por ejemplo, una escala que solo marque el 1, 2, 3 ,4 ... si pudiese distinguir si la aguja está más cerca de 3.5 que de 3, entonces pondría x=3.5. Y aquí me veo tentado de coger como error 0.25, pero suelo coger 0.5.
Es correcta esta forma de tomar medidas?
Así lo entiendo yo:
-Si tengo una escala graduada, cojo como medida la marca más cercana a la aguja (una aguja o lo que sea que indique), y como error cojo la mitad del intervalo. Por ejemplo, una escala que solo marque el 1, 2, 3 ,4 ... si la medida está más cerca de 3 que de 4, mi medida es x = 3+-0.5.
-Si la escala graduada tiene las marcas suficientemente espaciadas como para distinguir si la aguja se encuentra más cerca de una marca o de la mitad entre marcas, podría coger la mitad dado el caso. Por ejemplo, una escala que solo marque el 1, 2, 3 ,4 ... si pudiese distinguir si la aguja está más cerca de 3.5 que de 3, entonces pondría x=3.5. Y aquí me veo tentado de coger como error 0.25, pero suelo coger 0.5.
Es correcta esta forma de tomar medidas?
Comentario