Anuncio

Colapsar
No hay ningún anuncio todavía.

afirmaciones sobre cifras significativas

Colapsar
X
 
  • Filtro
  • Hora
  • Mostrar
Borrar todo
nuevos mensajes

  • afirmaciones sobre cifras significativas

    ​​​​​​ Cuando se realizan mediciones para realizar un cálculo con ellas, las cifras significativas del resultado se determinan por:
    a. el número con mayor cantidad de decimales ( ). b. el número con menor cantidad de decimales ( ). d. Por los decimales de la cifra más precisa ( ). e. La cantidad de cifras decimales es irrelevante para determinar la precisión ( ) f. Las afirmaciones a y c son las correctas ( ). g. Las afirmaciones b y e son las correctas ( ). h. Todas las afirmaciones anteriores son las correctas ( ). ). i. Ninguna de las afirmaciones anteriores son las correctas ( ).

    Para mí es la b

  • #2
    Yo diría que ninguna es correcta.

    El número de cifras significativas viene determinado por el error. Debes tomar los errores de las mediciones y propagarlos para obtener el error en el resultado. Por ejemplo, para una suma o una resta el error es la suma de los errores, para una multiplicación xy, el error será e=xey+yex (siendo ex y ey los errores en x e y respectivamente).

    Redondeando este error a 1 o 2 cifras significativas (según qué libro uses), el número de cifras significativas del resultado es el que tiene éste al redondearlo al mismo orden de magnitud que el error.

    Si por ejemplo tienes



    Tienes



    Redondeando como he dicho:



    Es decir, tienes 1 cifra significativa, mientras que en las medidas originales tenías 2.
    Última edición por teclado; 12/09/2020, 17:07:55.
    Eppur si muove

    Comentario


    • #3
      Si el número de cifras significativas viene determinado por el error y este error tiene que ser determinado primero con metodos de medición,

      ¿ no sería la capacidad del metodo de medición del error lo que determina el maximo de cifras significativas dentro del cual nos podemos mover?



      Me gusta la d por lo ambigůa que es,

      "Por los decimales de la cifra mas precisa"

      ¿ Que es la cifra mas precisa ? Ese valor varía tanto como necesidades pueda tener un observador.



      (Pero siempre respetando las normas de cifras significativas que para el uso estan muy bien establecidas)

      Futuro será presente y pasado fue presente. Ahora es presente al comparar con pasado y futuro. ¿ Que son pues pasado y futuro sino la regla con la que medir el presente ?

      Comentario


      • #4
        Porque no la d teclado?

        Comentario


        • #5
          Escrito por Richard R Richard Ver mensaje
          Porque no la d teclado?
          La d: Por los decimales de la cifra más precisa, como a Livilro, me parece un tanto ambigua.

          En primer lugar, hay que tener en cuenta que decimales y cifras significativas son cosas muy distintas. Un número como 123 tiene 3 cifras significativas y ningún decimal. Otro como 0,0012 tiene 4 decimales y 2 cifras significativas. Decimales son las cifras que van después de la coma, mientras que cifras significativas son todas las que vayan después de todos los ceros que haya a la izquierda (para aclarar esto, un número como 0,01230 tiene 4 cifras significativas, ya que el 0 de la derecha no está a la izquierda, y sí, no es lo mismo que algo mida 0,1m que que mida 0,10m, en el segundo caso sabemos el segundo decimal).

          En segundo lugar, aunque dijera "cifras significativas" y no "decimales" (y por eso digo que me parece ambigua), no estoy seguro de si se refiere a los decimales del resultado o a los de la medida más precisa.

          En el primer caso me viene a la mente el ejemplo de que la operación sea un promedio de 3 medidas. Tendrías como resultado una fracción de denominador cierto múltiplo de 3, y en base 10 vas a encontrarte siempre con un número infinito de decimales.

          En el segundo, cuando atiendes a los errores, si tienes varias opciones siempre se escoge el error mayor (ya que es el que abarca un intervalo mayor). Esto significa que, en todo caso (que tampoco), tendrías que atender a las cifras significativas de la medida menos precisa, y no a la que lo es más.

          Como menciono en mi primer post, siempre hay que atender al error propagado del resultado para obtener las cifras significativas. En un resultado como , las cifras 3, 4 y 5 no tienen sentido, ya que sus valores son menores que el error, y hay que descartarlas mediante un redondeo al segundo decimal, por lo que te queda , con 2 cifras significativas.
          Última edición por teclado; 12/09/2020, 18:21:03.
          Eppur si muove

          Comentario


          • #6
            Bueno, he releído las opciones y quizás me quedaría con la e: "La cantidad de cifras decimales es irrelevante para determinar la precisión", por el primer punto de mi post anterior.
            Eppur si muove

            Comentario


            • #7
              Yo creo que la d si y la e no,

              Me explico, aquí estamos hablando de la medida,en sí no del instrumento que la hace, supón que quieres medir el espesor de una hoja de papel, si tomamos un calibre normal y una sola hoja, veremos que la precisión del calibre tiene el rango similar a la medida, por lo que no es muy recomendable medir de esa manera, pero podemos tomar n hojas apiladas y medirles el espesor e nuevamente, luego podemos dividir la medida por n.

              Cuando hacemos el cociente este valor no tiene que ser un valor entero, ni tener un numero predeterminado de decimales... supongamos que nos da 0.08327mm

              La pregunta es... sirven esas cifras 327 cuando la precisión de un calibre de mano es de 0.05mm ?
              si se divide el error 0.05 por n tendríamos el valor de una primer cifra significativa de precisión contando sus decimales, cualquier cifra por debajo de esa cifra significativa carece de representatividad.


              Y la e depende del instrumento, quiza no este viendo el alcance de lo que quieres explicar Teclado, pero una regla mide con 1mm de precisión, un calibre mide con 0.05mm, un micrómetro con 0.005mm , evidentemente las cifras decimales previas a la primer cifra significativa son importantes no tanto las posteriores, poco agrega que la precisión del calibre sea 0.05634mm
              Incluso hay calibres de 0.1mm de precisión vs los de 0.05mm y de 0.02mm la cantidad de decimales si determina cual es mas preciso.
              Última edición por Richard R Richard; 12/09/2020, 19:30:24.

              Comentario


              • #8
                Hola Richard,

                Como dices, y por seguir con el ejemplo, si tomamos la medida del grosor de, digamos 11 hojas de papel con un calibre de precisión 0,05 mm, el error propagado en el resultado del grosor de una de ellas sería 0,05/11=0,00454545454545 mm. En este caso habría que redondear el error a 0,0045 mm (con dos cifras significativas si quieres), y la medida de 0,08327 mm quedaría como , descartando por redondeo la cifra 7 y convirtiendo el 2 en un 3.

                Ahora bien, el número de decimales que hay en el resultado (0,0833 mm) es 4. Hay 4 cifras detrás de la coma. Pero el número de cifras significativas es 3. Para ser más claro, este número (0,0833) se puede expresar en notación científica como , con 3 cifras a la izquierda.

                Antes de dar el paso de procesar el error, podrías plantearte que el número de cifras significativas de un resultado como 0,08327 es de 4 (el 8, el 3, el 2 y el 7), pero ni en el caso general ni en éste, coincide con el número de decimales, que es 5 (el 0, el 8, el 3, el 2 y el 7).

                Tras haber procesado el error, teniendo una precisión en la medida que siempre (siempre) depende del aparato y método, de 0,0045 mm, tu resultado queda 0,0833, que tiene 3 cifras significativas y 4 decimales.

                No estoy seguro de haber sido claro ni de haber contestado a tus preguntas, pero el proceso de propagación del error es siempre el determinante a la hora de obtener un resultado. Y qué cifras son significativas o no siempre depende de este error.

                ¿Cómo tratarías el resultado si en vez de 0,08327 hubiera sido 0,00008327? ¿Tendría un número distinto de cifras significativas?
                Última edición por teclado; 13/09/2020, 00:15:00.
                Eppur si muove

                Comentario


                • #9
                  Saludos,


                  El error propagado me resulta siempre curioso que sea el error de salidad tras una error de entrada dado,

                  pensaba con ello en el principio de superposición de ondas y como después de interactuar mantienen su forma original.
                  En el ejemplo de la hoja, tener una hoja suelta o todas juntas.


                  En un contexto real todos los tipos de error influyen,
                  la salida de un proceso tendría aparte del error propagado una serie de errores mas asociados a incertidumbre,
                  pero el consenso es que de por si una suma de errores solo aumenta ( por norma general ),

                  para que una suma de errores pudiese ser igual a 0 ......se necesitaría un tiempo infinito, mas bien en este caso, realizar infinitas mediciones a un mismo elemento.



                  Aún asi definir la incertidumbre según error relativo o absoluto tiene miga ya que el absoluto depende de un valor exacto, y el concepto exacto...

                  ...y el relativo es a función del absoluto..."la pescadilla que se muerde la cola."


                  Futuro será presente y pasado fue presente. Ahora es presente al comparar con pasado y futuro. ¿ Que son pues pasado y futuro sino la regla con la que medir el presente ?

                  Comentario


                  • #10
                    Escrito por teclado Ver mensaje

                    ¿Cómo tratarías el resultado si en vez de 0,08327 hubiera sido 0,00008327? ¿Tendría un número distinto de cifras significativas?
                    No no, estamos de acuerdo, pero la afirmación no dice,

                    "La cantidad de cifras decimales es irrelevante para determinar la cantidad de cifras significativas"

                    ni la inversa

                    "La cantidad de cifras significativas es irrelevante para determinar la cantidad de cifras decimales"

                    sino

                    "La cantidad de cifras decimales es irrelevante para determinar la precisión"

                    si realizamos la medición de una determinada variable en un objeto, siempre expresada en las mismas unidades y puedes expresar el resultado con más cantidad de números de decimales es porque eres más preciso. El excedente a la derecha como bien haces lo redondeas al valor más próximo superior o inferior.

                    veamos creo que se te deslizo un error creo intentas decirme o bien es en lo que no nos ponemos de acuerdo.

                    Si expreso mm o bien 0.0833mm con el error en 0.005 mm el ultimo 3 esta demás. estaría bien , no? dejando eso de lado

                    Si puedo expresar 0.08327 entonces he usado un aparato mas preciso, pues puedo expresarlo si lo hago

                    veámoslo de otro modo si fuera por encima de la unidad ejemplo

                    decir es un redondeo de una cifra a una significativa en cambio es una medición mas precisa el error "estaría" en la cifra del metro.

                    Supongamos que ahora quieres expresar esas dos mediciones con una regla de o e una unidad de esa magnitud.

                    es menos precisa que se entiende la idea , el numero de decimales conque puedo expresar el resultado de una medida de una misma magnitud, nos da la idea de precisión, en este caso las cifras significativas son 9 y 10 decimales, vs 1 y 2 decimales.


                    Pongamos el caso inverso supongamos que lo correcto fuera 300000 y lo que llegamos por medición es 299792 si mejoramos la precisión diríamos 300000000 m/s y 299792458 m/s
                    y cuando expresamos las magnitudes con errores

                    m/s tendría sentido de medición precisa para comparar usamos m/s

                    puede confundirnos y nos deja ver clara la precisión, por lo que el numero de cifras decimales es relevante para determinar la precisión de la medida en un numero bien expresado, lo que hace falsa a la e. porque tampoco determina el numero de cifras significativas.

                    Última edición por Richard R Richard; 13/09/2020, 00:59:08.

                    Comentario


                    • #11
                      La regla con la que medimos el tiempo son 9192631770 ciclos de la radiación asociada a la transición hiperfina desde el estado de reposo del isótopo de cesio 133.

                      Incluso ya tenemos reglas mejores.

                      Pero si cualquiera de ellas ofrece las desviaciones teorizadas que ofrecen,

                      ¿ podemos decir que alguna vez se contabilizó físicamente 1 segundo perfecto y no 0,999.../1,000...?




                      Invirtamos el enfoque que estabamos tratando,

                      ahora la precisión no depende de los decimales del resultado.
                      Futuro será presente y pasado fue presente. Ahora es presente al comparar con pasado y futuro. ¿ Que son pues pasado y futuro sino la regla con la que medir el presente ?

                      Comentario


                      • #12
                        Escrito por Richard R Richard Ver mensaje

                        No no, estamos de acuerdo, pero la afirmación no dice,

                        "La cantidad de cifras decimales es irrelevante para determinar la cantidad de cifras significativas"

                        ni la inversa

                        "La cantidad de cifras significativas es irrelevante para determinar la cantidad de cifras decimales"

                        sino

                        "La cantidad de cifras decimales es irrelevante para determinar la precisión"
                        Pues ahora que lo dices, tienes toda la razón. Estaba pensando en la precisión como un porcentaje como , pero (hasta lo he buscado) estás en lo cierto con que tiene más que ver con el valor de la última cifra significativa, que es el mismo que el valor del último decimal. Me sigue chirriando que los valores enteros no tienen decimales, y aún así siguen teniendo su precisión, pero supongo que se puede arreglar empleando notación científica.


                        Escrito por Richard R Richard Ver mensaje
                        veamos creo que se te deslizo un error creo intentas decirme o bien es en lo que no nos ponemos de acuerdo.

                        Si expreso mm o bien 0.0833mm con el error en 0.005 mm el ultimo 3 esta demás. estaría bien , no? dejando eso de lado
                        Ojo, el error no era 0,005 mm, si no 0,0050, que no es lo mismo. Dado de la primera forma, no sabes si en el caso de haber tenido más precisión hubiera sido 0,0051, 0,0052 o cualquier otro que redondeado a una cifra significativa hubiera dado 0,005. En el segundo sabes que la segunda cifra significativa es un 0, y el redondeo se hace al cuarto decimal, que es el valor de la última cifra significativa del error.

                        De todas formas, sí que tenía un error cuando hice el cálculo, no era 0,0050 si no 0,00050, que hubiera significado que al redondear el 0,08327 se quedara igual. Si vuelves a releer el post verás que he cambiado el número de hojas de 101 a 11 para corregir esto, y ahora el error es 0,0045 (en diferentes libros he encontrado veces en las que se dice que el error se redondea a una cifra significativa y otras en las que se dice que se redondee a dos).

                        Escrito por Richard R Richard Ver mensaje
                        Si puedo expresar 0.08327 entonces he usado un aparato mas preciso, pues puedo expresarlo si lo hago
                        No necesariamente. Recuerda que estamos considerando el caso en el que el valor que tenemos que tratar es el resultado de realizar ciertas operaciones con medidas directas. Dependiendo de la operación (si es una multiplicación o un promedio ocurre así), podemos encontrar que un resultado tiene muchas cifras que hay que descartar porque su valor es menor que el error.

                        Si por ejemplo tenemos



                        Y la medida indirecta es el resultado de multimplicar estas dos medidas directas, queda



                        Si el resultado que dices de 0,08327 es el que obtienes después de considerar el redondeo después de la operación estás en lo cierto, pero en este punto del cálculo tenemos un 0,0585 en el que las últimas cifras no tienen sentido, ya que el error es de 0,02, y habrá que redondear a 0,06. Cuando se realizan cálculos siempre hay que tratar el error para dar un resultado final.

                        Escrito por Richard R Richard Ver mensaje
                        veámoslo de otro modo si fuera por encima de la unidad ejemplo

                        decir es un redondeo de una cifra a una significativa en cambio es una medición mas precisa el error "estaría" en la cifra del metro.

                        Supongamos que ahora quieres expresar esas dos mediciones con una regla de o e una unidad de esa magnitud.

                        es menos precisa que se entiende la idea , el numero de decimales conque puedo expresar el resultado de una medida de una misma magnitud, nos da la idea de precisión, en este caso las cifras significativas son 9 y 10 decimales, vs 1 y 2 decimales.

                        Pongamos el caso inverso supongamos que lo correcto fuera 300000 y lo que llegamos por medición es 299792 si mejoramos la precisión diríamos 300000000 m/s y 299792458 m/s
                        y cuando expresamos las magnitudes con errores

                        m/s tendría sentido de medición precisa para comparar usamos m/s

                        puede confundirnos y nos deja ver clara la precisión, por lo que el numero de cifras decimales es relevante para determinar la precisión de la medida en un numero bien expresado, lo que hace falsa a la e. porque tampoco determina el numero de cifras significativas.
                        Por esto siempre hay que acompañar siempre la medida con su error. En el segundo caso que pones, en el que la medida fuera , la forma correcta de expresarla sería . Estos ceros que he añadido, aunque son 0, son cifras significativas. Aportan tanta información como cualquier otra cifra que no sea 0. Aunque estemos acostumbrados a expresar números como 0,10 en la forma 0,1 por resumir, no se puede pasar por alto cuando es el resultado de una medida. Como mencioné arriba, no es lo mismo 0,1 que 0,10. Esto se hace precisamente para que la precisión del valor coincida con la precisión del error, y para que se pueda determinar la precisión de la medida contando los decimales del valor (sin recurrir a los del error).
                        Eppur si muove

                        Comentario


                        • #13
                          Escrito por teclado Ver mensaje
                          la forma correcta de expresarla sería . .
                          En todo de acuerdo, por eso decía que expresarlo del otro modo puede confundirnos..


                          Escrito por Livilro Ver mensaje

                          ¿ podemos decir que alguna vez se contabilizó físicamente 1 segundo perfecto y no 0,999.../1,000...?
                          perfecto?... para quien o quienes? ,incluso la relatividad dice que el tiempo que tu experimentas es distinto al mio si no estamos en el mismo sistema de referencia en un espacio tiempo plano, o bajo la misma curvatura espaciotemporal en un espaciotiempo curvo , y a la vez no compartimos el mismo espacio tangente o geometría local, que es una idealización, como considerar al superficie terrestre plana cuando no lo es.

                          Te hago la siguiente pregunta... puedes medir algo con infinita precisión?

                          Yo pongo mis porotos a que no, luego nadie mide nada perfectamente.

                          Lo que puedes es definir es por ejemplo una constante con un número finito de cifras significativas, en ese caso lo serán todas ellas, mientras exista un método de medición cuyo error este siempre por debajo de la última cifra significativa.

                          Comentario


                          • Livilro
                            Livilro comentado
                            Editando un comentario
                            (Que conste, al igual que tu tambien opino que no podemos conseguir precisión infinita)

                            Imaginate que intentasemos construir la circunferencia perfecta, incluso vamos a poner imaginación ( ya que la mente no tiene límites )
                            y lo consiguiesemos,
                            ¿que tendriamos ?¿esa circunferencia vale algo ?

                            No vale nada, lo único importante es todo lo que hemos tenido que descubrir, optimizar y todo el conocimiento que hemos adquirido para llegar a crear esa circunferencia ,

                            luego podremos tirarla a la basura, eso da igual.

                            Quien quiere una circunferencia perfecta si ahora tienes la formula para construir tantas circunferencias perfectas como quieras.


                            Resumen (era exageración),
                            queda muchisima fisica detras de todo lo que llamamos "despreciable", "aproximable", "asumible",etc
                            tener patrones númericos ideales aun siendo innalcanzables es una gran ayuda y nos permite en principio no tener límites de mejora.

                        • #14
                          Richard
                          , " si lo correcto fuera 300000 y lo que llegamos por medición es 299792 si mejoramos la precisión diríamos 300000000 m/s y 299792458 m/s
                          y cuando expresamos las magnitudes con errores"

                          Este ejemplo y el resto sobre precisión en si puede simplificarse con esta frase de Teclado al principio?,


                          "no es lo mismo que algo mida 0,1m que que mida 0,10m, en el segundo caso sabemos el segundo decimal)."


                          Las probabilidades que disponemos son las mismas solo que tendrian un grado menos de precisión.



                          El 0,1 tiene de manera imaginaria a la derecha del 1 los valores 0,1,2,3,4,5 ,
                          mas no ya que el número debería ser entonces redondeado 0,2 y no 0,1.


                          El 0,10 tambien puede tener de manera imaginaria a la derecha del 0 los valores 0,1,2,3,4,5, es decir 0,100,,,0,101,,,0,102,,,etc

                          igual que antes hasta 0,105 maximo ya que si no el número principal debería haber sido 0,11 y no 0,10.



                          Bueno, viendolo asi incluso se nota cierta exponencialidad, ya que en un caso el error oscila entre los valores 0,2 y 0,1, pero en el segundo caso el error oscilaria entre 0,11/0,10,

                          teniendo en cuenta que casi teníamos el mismo número en ambos casos, (0,1//0,10)
                          Última edición por Livilro; 13/09/2020, 19:00:10.
                          Futuro será presente y pasado fue presente. Ahora es presente al comparar con pasado y futuro. ¿ Que son pues pasado y futuro sino la regla con la que medir el presente ?

                          Comentario


                          • #15
                            Escrito por Livilro Ver mensaje
                            Richard
                            "no es lo mismo que algo mida 0,1m que que mida 0,10m, en el segundo caso sabemos el segundo decimal)."
                            no es lo mismo decir

                            "no es lo mismo que algo mida 0,0001km que que mida 0,00010km, en el segundo caso sabemos el quinto decimal)."
                            en fin el número de decimales no aporta a la precisión , sino la posición de la ultima cifra significativa por eso es d y no e.




                            Escrito por Livilro Ver mensaje
                            El 0,1 tiene de manera imaginaria a la derecha del 1 los valores 0,1,2,3,4,5 ,
                            mas no ya que el número debería ser entonces redondeado 0,2 y no 0,1.
                            difiero en tu interpretacion del 5

                            pero del mismo modo redondeas con la misma precisión 0,05 0.06 0.07 0.08 y 0.09 a 0.1 la longitud del intervalo del conjunto de valores a los que se redondea hacia 0.1 es el mismo que el de 0.2


                            Escrito por Livilro Ver mensaje
                            El 0,10 también puede tener de manera imaginaria a la derecha del 0 los valores 0,1,2,3,4,5, es decir 0,100,,,0,101,,,0,102,,,etc

                            igual que antes hasta 0,105 maximo ya que si no el número principal debería haber sido 0,11 y no 0,10.



                            Bueno, viendolo asi incluso se nota cierta exponencialidad, ya que en un caso el error oscila entre los valores 0,2 y 0,1, pero en el segundo caso el error oscilaria entre 0,11/0,10,

                            teniendo en cuenta que casi teníamos el mismo número en ambos casos, (0,1//0,10)
                            no veo a donde quieres llegar, la precisión te la da el ultimo valor de la cifra significativa, y por allí en ese rango tiene que estar el valor del error.

                            Comentario


                            • Livilro
                              Livilro comentado
                              Editando un comentario
                              -"decir" ok

                              -ups, se me colo el 5

                              - error me refiero específicamente al error de redondeo.

                              El error del redondeo es exponencialmente mayor cuanto menor sea la posicíon de la ultima cifra significativa.

                          Contenido relacionado

                          Colapsar

                          Trabajando...
                          X