Anuncio

Colapsar
No hay ningún anuncio todavía.

¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

Colapsar
X
 
  • Filtro
  • Hora
  • Mostrar
Borrar todo
nuevos mensajes

  • ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

    Hola a todos. Primeramente quiero dejar claro que no soy físico ni nada, es decir, no tengo mucha idea de física, aunque me interesa y me encantaría, al menos, leerme los libros de Hawkins.
    El caso es que tengo un blog y quise hablar de la entropía para tocar otro tema distinto a la física (que aun no he publicado). Para informarme sobre la entropía acudí a la amada wikipedia. No sé si mis conlusiones son acertadas o un completo disparate.

    Es curioso que sea la entropía la primera ley que gobierna nuestro mundo. La entropía es la explicación de que las cosas tiendan al desorden. Es una ley que nos conduce al caos. Cuando un objeto frío pierde su frío (qué pena que no exista la palabra “desenfriar”), cuando un objeto caliente pierde su calor o cuando un objeto cae al suelo estamos ante un efecto de entropía. Es decir, la entropía provoca que la energía se reparta, se extienda en el universo y los objetos. Es una ley equitativa pero estricta. Cada materia en movimiento tiende a aumentar su estado de entropía o desorden. Si suponemos esto, debe haber un proceso a la inversa, ya que primeramente tuvo que haber habido energía en los objetos para que se pudiera desgastar o escapar. No sé si hay un término que designe lo contrario, no soy físico, pero quizás se pueda llamar atracción. En este caso podemos comprobar claramente que estos extremos son iguales. La única diferencia es la perspectiva desde donde se mira. Atracción y entropía son lo mismo. Orden y desorden son lo mismo. Las leyes físicas, el mundo, es el concierto de los extremos. No hay otra forma de explicar la nada y el todo. La nada se explica con el todo y el todo se explica con la nada. Destrucción es construcción y viceversa. Por lo tanto, somos nada, todo, contradicción y confirmación.

    Hay dos estados de entropía ideal. En uno, el universo se ha extendido completamente; en el otro, es un núcleo gigante. Ambos son la misma cosa. Quizás, en este punto, el tiempo deja de existir o, mejor dicho, es la muestra de que nunca ha existido. Según mi súbita lógica, el tiempo y la inexistencia de tiempo son lo mismo. En un estado de entropía ideal, la atracción entre las partículas es perfecta e inmensa.

    En ese instante de inexistencia de tiempo, debe originarse una gran explosión, como ocurrió con el Big Bang.

    Muchas gracias por la ayuda. Como recien estoy empezando con mi blog nadie lo lee, así que no hay riesgo de que divulgue información falsa.
    Última edición por arreldepi; 08/04/2012, 11:14:48. Motivo: Borrar enlace.

  • #2
    Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

    Escrito por Armandonadando Ver mensaje
    Si suponemos esto, debe haber un proceso a la inversa,
    Precisamente, la entropía nos dice por qué algunos fenómenos sólo ocurren en "una dirección" y no a la inversa. Es decir, el proceso a la inversa no ocurre (no es espontáneo, como nos gusta decir a los Físicos). Dado que tu premisa es falsa, todas las conclusiones que sacas a partir de ella también lo son.

    En resumidas cuentas, la entropía no es más que una medida probabilistica de la información. Desde el mundo macroscópico, tenemos acceso a unas variables muy generales, poco descriptivas. No tenemos acceso a las variables más detalladas (que serían la posición y velocidad de todas y cada una de las partículas; algo que no podemos conocer). Por ejemplo, si nos fijamos en mi habitación, la descripción detallada sería el lugar que ocupan todos los libros y demás enseres. Pero macroscópicamente hacemos una descripción más general: está ordenada o no. Obviamente, hay muchas posiciones posibles para cada objeto de mi habitación en que estará desordenada, y sólo hay una posición en que estará ordenada. Por lo tanto, si los objetos de la habitación evolucionan libremente, lo más probable es que vayan a estados de desorden. Es probable que, eventualmente, vuelvan al orden espontáneamente, pero como solo hay un estado ordenado entre muchos (cuasi infinitos) posibles, es un evento prácticamente imposible.

    En resumen, el proceso inverso que tu mencionas no se da, tiene una probabilidad ridículamente baja (cero coma cero cero cero.... millones de ceros después de la coma antes de encontrar el primer número que no sea cero).
    La única alternativo a ser Físico era ser etéreo.
    @lwdFisica

    Comentario


    • #3
      Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

      Hay algo contradictorio en lo que se dice:
      En resumidas cuentas, la entropía no es más que una medida probabilistica de la información. Desde el mundo macroscópico, tenemos acceso a unas variables muy generales, poco descriptivas. No tenemos acceso a las variables más detalladas (que serían la posición y velocidad de todas y cada una de las partículas; algo que no podemos conocer).
      No queda claro si el desconocimiento o la falta de acceso a las variables detalladas es una carencia del observador o es una carencia del propio sistema. No se sabe si puede haber dos observadores que midan distintos valores de entropia del mismo sistema como consecuencia de tener un distinto conocimiento del sistema.

      Si la entropia es algo interno del sistema y no de quien lo observa no se entiende bien como:
      Obviamente, hay muchas posiciones posibles para cada objeto de mi habitación en que estará desordenada, y sólo hay una posición en que estará ordenada.
      puede haber un estado ordenado como contra posición a un estado desordenado, que parece elegir el observador si que quede claro que criterio se utiliza para definir "ordenado" y "desordenado", conceptos que claramente son subjetivos o dependientes del observador:

      "A mi me puede parecer ordenado una habitación cuando la cama esta hecha y a otro cuando las sabanas y las mantas están en el armario y no sobre la cama."

      En fin, que creo que se esta dando una idea subjetiva, o dependiente del observador, de la entropía que no se corresponde con la que se utiliza en física que es totalmente objetiva y para nada depende del observador.

      Comentario


      • #4
        Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

        Escrito por reti Ver mensaje
        Hay algo contradictorio en lo que se dice:
        No queda claro si el desconocimiento o la falta de acceso a las variables detalladas es una carencia del observador o es una carencia del propio sistema. No se sabe si puede haber dos observadores que midan distintos valores de entropia del mismo sistema como consecuencia de tener un distinto conocimiento del sistema.
        Si hacemos un tratamiento puramente clásico (no hace falta más), está claro que es una carencia del observador.

        Dos observadores que utilicen el mismo modelo de un sistema medirán la misma entropía. Por ejemplo, si uno está hablando de gases (descripción macroscópica), y el otro está hablando de partículas elementales no están utilizando el mismo modelo, y es normal que no les salgan los mismos valores (de hecho, el segundo observador ni siquiera podrá hablar de entropía, ya que no está definida en teorías microscópicas). No obstante, si el segundo observador hace uso de las técnicas de física estadística que permiten conectar el mundo microscópico con el macroscópico, entonces obtendrá el mismo valor de la entropía. No sólo obtendrá el mismo valor, sino que podrá explicarle al primer observador por qué obtiene el valor que obtiene: "oye, el valor de la entropía es esta porque la distribución de posiciones y velocidades de las partículas del gas es esta y no otra".

        Escrito por reti Ver mensaje
        puede haber un estado ordenado como contra posición a un estado desordenado, que parece elegir el observador si que quede claro que criterio se utiliza para definir "ordenado" y "desordenado", conceptos que claramente son subjetivos o dependientes del observador:

        "A mi me puede parecer ordenado una habitación cuando la cama esta hecha y a otro cuando las sabanas y las mantas están en el armario y no sobre la cama."
        Aceptando todas las posibles definiciones de "orden" que tengan cierta lógica, sin duda siempre habrá más estados de desorden. Sin duda, hay infinitos estados "ordenados"; pero la cantidad de estados desordenados es un infinito de orden muy superior.

        Esto es, si las sabanas pueden elegir con la misma probabilidad todas las posiciones posibles (incluyendo todas las "formas" posibles) dentro de la habitación, con muy poca probabilidad elegirán uno en que parezcan "ordenadas", ya sea estiradas en la cama, dobladas en el armario, o encima de la cabeza de un fantasma.
        La única alternativo a ser Físico era ser etéreo.
        @lwdFisica

        Comentario


        • #5
          Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

          Escrito por pod Ver mensaje
          con muy poca probabilidad elegirán uno en que parezcan "ordenadas", ya sea estiradas en la cama, dobladas en el armario, o encima de la cabeza de un fantasma.
          Jaja! muy bueno lo del fantasma.

          Solo quería puntualizar que también existe entropía en la información. Se demostró (no recuerdo la fuente, lo siento) que para aumentar el conocimiento de los microestados de un sistema y así reducir la entropía, hace falta información que al ser obtenida aumenta la entropía del Universo. O sea que para reducir la entropía de un sistema hay que aumentar la del universo, de manera que la entropía total no puede disminuir.

          Saludos

          Comentario


          • #6
            Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

            Crei haberlo entendido mal pero me temo que lo he entendido bien.

            Esto:
            Escrito por pod Ver mensaje
            Si hacemos un tratamiento puramente clásico (no hace falta más), está claro que es una carencia del observador.
            Se contradice con esto otro:
            Dos observadores que utilicen el mismo modelo de un sistema medirán la misma entropía.
            En que quedamos?? Es o no es dependiente la entropia del observador???
            !! Porque si se utiliza el mismo modelo da el mismo valor pero al mismo tiempo es una carencia del observador cuando el modelo particular es el clasico.!!! Sigue sin quedar claro si la entropia depende del observador o no depende de el.

            Aqui se repite el error:

            Por ejemplo, si uno está hablando de gases (descripción macroscópica), y el otro está hablando de partículas elementales no están utilizando el mismo modelo, y es normal que no les salgan los mismos valores (de hecho, el segundo observador ni siquiera podrá hablar de entropía, ya que no está definida en teorías microscópicas). No obstante, si el segundo observador hace uso de las técnicas de física estadística que permiten conectar el mundo microscópico con el macroscópico, entonces obtendrá el mismo valor de la entropía. No sólo obtendrá el mismo valor, sino que podrá explicarle al primer observador por qué obtiene el valor que obtiene: "oye, el valor de la entropía es esta porque la distribución de posiciones y velocidades de las partículas del gas es esta y no otra".
            La entropía debe de ser independiente del observador y aunque esta claro que debe de depender del objeto observado y por tanto del modelo del objeto observado en el caso particular que describes no ocurre así. Tal como lo cuentas parece que el observador que esta utilizando el modelo microscópico sabe mas o tiene un conocimiento mas completo del sistema del que esta utilizando el modelo macroscópico y esto no es cierto.

            Creo que se esta confundiendo un sistema donde puede definirse la entropía porque es estadístico con un sistema donde no tiene sentido esa definición. Cuando tiene sentido la definición ambos tienen la misma información o el mismo conocimiento del sistema tanto el macroscópico como el microscópico.

            Otra cosa bien distintas es si un sistema clasico donde se pueden conocer las posiciones y velocidades de las partículas se puede o no considerar un sistema estadístico. Evidentemente no es un sistema estadistico donde se aplica la estadistica y es por esto donde viene la confusión.

            No se si se entiende. Se tiene un sistema estadistico que no es en realidad un sistema estadistico y por tanto alguien puede no necesitar aplicar la estadistica para conocer el sistema. El truco es que la entropia se define para un sistema del que no se puede tener conocimiento completo aunque luego pueda aplicarse a sistema que evidentemente no aplican a la definicion.

            Se puede poner un ejemplo fácil relacionado con la teoría de la información en este sentido.

            Comentario


            • #7
              Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

              Escrito por reti Ver mensaje
              En que quedamos?? Es o no es dependiente la entropia del observador???
              !! Porque si se utiliza el mismo modelo da el mismo valor pero al mismo tiempo es una carencia del observador cuando el modelo particular es el clasico.!!! Sigue sin quedar claro si la entropia depende del observador o no depende de el.
              La entropía depende del modelo, no del observador. Para usar el modelo clásico de un gas se tiene que conocer la posición y momento de toadas ya cada una de las partículas, de aquí que no haya entropía. Pero todos sabemos que es casi imposible tener esta información. Por esto en el modelo estadístico aparece la entropía.

              Para aclarar esta confusión, me remito a lo que dije en mi último post: La entropía generada para obtener la información de los micro-estados del gas no puede ser menor que la entropía estadística del gas. De manera que la entropía total nunca decrece.

              Comentario


              • #8
                Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

                Otra vez la misma contradiccion:
                Escrito por guibix Ver mensaje
                La entropía depende del modelo, no del observador. Para usar el modelo clásico de un gas se tiene que conocer la posición y momento de toadas ya cada una de las partículas, de aquí que no haya entropía. Pero todos sabemos que es casi imposible tener esta información. Por esto en el modelo estadístico aparece la entropía.
                Lo que quiere decir que yo puedo tener esa informacion ya sea de forma parcial o no y tu puedes no tener esa informacion, luego la entropia depende de lo que yo o tu podamos o no podamos "saber".

                Mas de lo mismo:
                Para aclarar esta confusión, me remito a lo que dije en mi último post: La entropía generada para obtener la información de los micro-estados del gas no puede ser menor que la entropía estadística del gas. De manera que la entropía total nunca decrece.
                No queda nada claro que es la entropia y de que depende. Se dice que se genera entropia al obtener informacion de un gas o de sus microestados con lo que supongo que el gas no cambia, solo se obtiene informacion de el. Se introduce el termino "informacion" que no se sabe muy bien que pinta aqui y tambien el termino "microestado" que tampoco esta claro que significado hay que darle.

                Lo unico que estoy preguntando es: "¿Depende la entropia del observador. Si o no?"
                Y la respuesta es directa: "NO, ya que se trata de una funcion de estado del sistema y no del observador"

                Lo unico que estoy tratando de indicar es que en las explicaciones que se han dado aqui, por ejemplo la de la habitacion ordenada/desordenada, se infiere que si depende del observador lo que claramente no es cierto. La entropia no es una propiedad que dependa del observador.

                Comentario


                • #9
                  Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

                  Escrito por reti Ver mensaje
                  Lo que quiere decir que yo puedo tener esa informacion ya sea de forma parcial o no y tu puedes no tener esa informacion, luego la entropia depende de lo que yo o tu podamos o no podamos "saber".
                  Insisto en lo mismo, no es una contradicción:

                  Si por ejemplo estás estudiando el trabajo, que un gas mono-atómico confinado en un cilindro, hace sobre un émbolo en reposo al expandirse el gas, con el vacío fuera y sin gravedad.

                  Puedes hacer una simulación de colisiones elásticas newtoneanas, recreando todas las partículas, el émbolo lo tratas como cuerpo rígido que absorbe energía de las colisiones y el cinindro que solo "refleje" las partículas del gas. Si observas lo que pasa en la simulación, ves que la velocidad inicial media de las partículas es muy alta y la del émbolo es cero, pero a medida que el émbolo absorbe energía, se acelera y aumenta el volumen dónde está confinado el gas, cada vez menos partículas colisionan contra el émbolo hasta que el émbolo prácticamente va a la velocidad de las partículas. También ocurre que muchas partículas no van en la dirección del émbolo para transferirle su energía. Al final, de la energía inicial de las partículas hay una parte transferida al émbolo, otra parte se queda en las partículas y no se llega a transferir.

                  Si repites el experimento con las mismas condiciones, pero a distintas energías iniciales, descubres que a mayor energía inicial, mayor porcentaje de energía se transfiere al émbolo y a menor energía inicial, se transfiere menor porcentaje.

                  Si repites de nuevo a una misma energía para el gas, pero con las partículas en distintas posiciones y direcciones iniciales, ves que de todas las posibilidades, la mayoría lleva al mismo porcentaje de transferencia de energía hacia el émbolo y muy pocas dan un resultado distinto. Cuando se habla de un microestado ordenado, se refiere a esos pocos estados que permiten una mayor transferencia de energía. Si además añades más y más partículas en la simulación, cada vez es menos probable que se dé, de forma espontánea, un microestado ordenado.

                  O sea que el rendimiento de la máquina depende no sólo de la energía inicial del gas, sino también del microestado inicial, Pero para una máquina "normal", las cantidades de partículas son tan ingentes, que es mejor usar un modelo estadístico y aseverar que lo muchísimo más probable que el estado inicial del gas sea "desordenado".

                  La entropía sale de aquí, no solo del rendimiento, sino también de la generalización estadística del sistema por no tener conocimiento del estado real y se relaciona con la incertidumbre por eso mismo. La información es aquello que reduce la incertidumbre sobre un sistema.

                  En el experimento de colisiones se puede hablar de rendimiento, pero no de entropía, porqué tú controlas las condiciones, puedes iniciar como quieras y buscar el mejor "orden" para mejorar el rendimiento.

                  Escrito por reti Ver mensaje
                  No queda nada claro que es la entropia y de que depende. Se dice que se genera entropia al obtener informacion de un gas o de sus microestados con lo que supongo que el gas no cambia, solo se obtiene informacion de el. Se introduce el termino "informacion" que no se sabe muy bien que pinta aqui y tambien el termino "microestado" que tampoco esta claro que significado hay que darle.
                  Esto lo he expresado mal, lo que genera entropía es el obtener la información para poder seleccionar los microestados ordenados en detrimento de los desordenados, es decir todo el orden que consigas será desordenando igual o más.

                  Reconozco que es un tema peliagudo, no tanto en Termodinámica como en Teoría de la Información y yo no soy ningún experto, esto es lo que yo razono y puede que me equivoque, pero hay mucha información disponible acerca de esto, Ya en 1948 C. E. Shannon, publicó "A Mathematical Theory of Communication" en donde introduce el concepto de entropía de la información y lo relaciona con la entropía termodinámica. La información no es para nada ni trivial y queda perfectamente definida, además de contribuir enormemente tanto en la física cuántica como en la astrofísica, por no decir que es la base matemática de la Teoría de la Información y Teoría de la Comunicación.

                  A lo mejor convendría abrir un hilo para discutirlo, que en este ya no cabe. Aunque yo poco puedo aportar más que en mis propias dudas.

                  Saludos

                  Comentario


                  • #10
                    Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

                    Bueno señores, creo que ya entendí porque no estudié física. No sé si no es mi día, pero entiendo poco de lo que dicen. De todas formas muchas gracias por responder. Un saludo

                    Comentario


                    • #11
                      Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

                      Escrito por Armandonadando Ver mensaje
                      Bueno señores, creo que ya entendí porque no estudié física. No sé si no es mi día, pero entiendo poco de lo que dicen. De todas formas muchas gracias por responder. Un saludo
                      [FONT=Calibri]Estas entendiendo poco porque lo estamos explicando mal.Si lo piensas un poco veras que aquí no tenemos mucha mas idea de la que tu tienes sobre la entropía.[/FONT]

                      [FONT=Calibri]Tu idea de la entropia es correcta cuando dices que es la primera ley por la que se rige el universo pero creo que te equivocas, aunqueno del todo, cuando comentas que debe de haber una ley complementaria que tu llamas“atracion” y que es algo asi como su opuesta. De hecho esa “atracción existe y se llama gravedad. Sin la gravedad, que es otra de la leyes que rige, no existirá el universo tal y como lo conocemos además de ser una fuerza que se opone a la entropía llevando el suficiente “orden” para crear galaxias, soles y planetas. Lo que se sabe o se piensa es que será incapaz de oponerse de manera indefinida a esa muerte térmica que pregona con mal agüero la entropia.[/FONT]

                      [FONT=Calibri]A mi no me suena tan absurda tu idea como te comento. Lo que si esta claro es la distinta naturaleza que tienen la entropia y la atracción gravitatoria y es eso lo que un poco discutimos. Sin quererlo y por desconocimiento se asocia la entropia al orden/desorden y la informacion/desinformación utilizando estaspalabras con un significado contrario al que en realidad se le da en fisica. En el ejemplo de la habitación se distingue entre una “habitación ordenada” y una”habitación desordenada” cuando no hay ninguna diferencia objetiva entre esas dos situaciones desde el punto de vista físico excepto la puramente subjetiva:[/FONT]

                      [FONT=Calibri] “se señala una situacion como especial, cuando lo único de especial que tiene es que la has señalado como especial, como ordenada, sin que haya nada objetivo para proceder asi, para señalarla”.[/FONT]


                      [FONT=Calibri]La comparación de la entropia con la “información” encierra también claramente una idea equivocada en la misma dirección que la comparacion con el orden porque se esta entendiendo la información de una manera contaria a como la definio en 1948 C. E. Shannon, en "A Mathematical Theory of Communication". Asi:[/FONT]

                      [FONT=Calibri]La entropía sale deaquí, no solo del rendimiento, sino también de la generalización estadística del sistema por no tener conocimiento del estado real [/FONT]
                      [FONT=Calibri]y se relaciona con la incertidumbre por eso mismo. La información es aquello que [/FONT]
                      [FONT=Calibri]reduce la incertidumbre sobre un sistema.[/FONT]
                      [FONT=Calibri]Es el error que repites una y otra vez: “haces depender la entropia del conocimiento del estado real” y la asocias a la incertidumbre condenado a esta ultima, “la incertidumbre”, a ser una propiedad subjetiva ya que lo mismo que no se tiene conocimiento del estado tampoco se tiene conocimiento de su incertidumbre.[/FONT]

                      [FONT=Calibri]" La informacion no es aquello que reduce la incertidumbre sobre un sistema"[/FONT]


                      [FONT=Calibri]El error es ese (esto es contrario a la definicion de shannon). El conocimiento no es conocimiento sino desconocimiento. Existe un desconocimiento objetivo del sistema que no depende de lo que sepa odeje de saber el observador:[/FONT]

                      [FONT=Calibri]“El sistema tiene un desconocimiento fundamental, básico e interno de si mismo y eso es lo que se llama o mide la entropía”[/FONT]

                      [FONT=Calibri]Ahora la entropía si que es una ley fundamental de la naturaleza que no depende de lo que yo o tu sepamos del sistema y tampoco de lo que tu o yo pensemos que es una “habitación ordenada” o una “habitación desordenada”.La pregunta se reduce entonces a definir o determinar el origen o la causa de esa desinformación que el propio sistema tiene de si mismo y para eso, po rsuerte, tenemos la cuántica.[/FONT]

                      [FONT=Calibri]¡!Apasionante esto de la entropía cuando se entiende!![/FONT]

                      Comentario


                      • #12
                        Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

                        Escrito por reti Ver mensaje
                        El error es ese (esto es contrario a la definicion de shannon). El conocimiento no es conocimiento sino desconocimiento. Existe un desconocimiento objetivo del sistema que no depende de lo que sepa odeje de saber el observador:[/FONT][/SIZE]
                        Llámame zopenco, ¿pero cómo se puede definir el conocimiento como desconocimiento?

                        No se puede afirmar que una cosa es precisamente su opuesto sin cargarte su significado.

                        Y ya dije que no depende de lo que se sabe, ni del observador, sinó del modelo que se usa. La entropía aparece en los modelos estadísticos y es una ley fundamental, porqué también lo es la estadística.

                        Creo que en mi ejemplo queda bastante claro que la entropía se puede medir desde un sistema newtoneano y te dará lo mismo que si lo mides por termodinámica. Solo que en el primer caso no aparece como ley, sinó como un resultado que se dará en la mayoría de casos, pero no en todos. Y en el segundo caso es una ley estadística que mide el caso más probable.

                        Escrito por reti Ver mensaje
                        [FONT=Calibri]“El sistema tiene un desconocimiento fundamental, básico e interno de si mismo y eso es lo que se llama o mide la entropía”[/FONT]
                        ¿No es acaso lo que dije? ¿Acaso el "desconocimiento fundamental" no es "incertidumbre"? No veo la diferencia entre esto y lo que dije.

                        Aún así, no quiero enzarzarme yo solo en esta discusión, ya que el tema está en el límite de mi conocimiento, espero que alguien más preparado pueda clarificarlo para todos.

                        Saludos.

                        Comentario


                        • #13
                          Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

                          Escrito por guibix Ver mensaje
                          ¿pero cómo se puede definir el conocimiento como desconocimiento?

                          No se puede afirmar que una cosa es precisamente su opuesto sin cargarte su significado.
                          No es tan difícil cuando se ve que las dos cosas son complementarias y la definición de una implica necesariamente la definición de la otra. Si has estudiado algo de la "teoría de la información" o has leído la referencia bibliográfica que tu mismo mencionas te habrá sorprendido un poco la definición de "fuente de información" en la que se basa la teoría. A mi desde luego me sorprendió en su momento y mas o menos es esta:

                          "... como aquel sistema capaz de generar una secuencia de símbolos pertenecientes a un alfabeto S = { s1, s2, ..., sq }, finito y fijo y emitidos de acuerdo a una determinada ley de probabilidad ..."

                          Observa que habla de probabilidad, de que no se sabe que símbolo va ha ser emitido. Observa que la teoría se basa en la definición de algo cuyo resultado nadie puede predecir. Observa que es el desconocimiento interno que tiene la propia "fuente de información" la que permite definir "la información". Observa que si alguien tuviera acceso privilegiado a la fuente no podría definirse una "información" independiente del observador.

                          Con la entropía sucede igual. Es el desconocimiento interno que tiene el propio sistema de si mismo quien permite definirla desde una perspectiva no fenomenológica como sucede en la termodinámica clásica. Si no se acepta un desconocimiento básico o fundamental es imposible definir la entropía de una manera objetiva. Por ello el "diablillo de Maxwell" no puede existir porque su existencia es contraria a la propia definición estadística de la entropía.

                          La estadística se basa en la probabilidad y no puede haber probabilidad sin desconocimiento. Y este desconocimiento es fundamental, básico no dependiente del observador. Por ello el ejemplo de la habitación desordenada, al que suele recurrirse para explicar la entropía, es seguramente la peor elección posible porque no hay nada de desconocimiento o probabilidad en el:

                          "una habitación ordenada es hecho subjetivo imposible de definir de manera objetiva haciéndola depender del desconocimiento o probabilidad de un hecho"

                          Eso si, tiene la cualidad de crear la sensación a la persona que la escucha de que se entiende la explicación y de que se entiende lo que es entropía, pero se trata de una cualidad, de una sensación , como el propio ejemplo, subjetiva.

                          Comentario


                          • #14
                            Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

                            Escrito por reti Ver mensaje
                            No es tan difícil cuando se ve que las dos cosas son complementarias y la definición de una implica necesariamente la definición de la otra. Si has estudiado algo de la "teoría de la información" o has leído la referencia bibliográfica que tu mismo mencionas te habrá sorprendido un poco la definición de "fuente de información" en la que se basa la teoría. A mi desde luego me sorprendió en su momento y mas o menos es esta:
                            Una cosa es la definición de "fuente de información", que es el elemento que transmite mensajes y que está sujeta a la incertidumbre (no sabemos que mensajes transmitirá), y otra muy distinta es la información en si. La cantidad de información contenida en un mensaje está definida como la medida en que un mensaje disminuye la incertidumbre (aumenta el conocimiento) y esa medida es igual a la disminución de la entropía de la información. Eso no lo digo yo, lo dice Shannon.

                            Evidentemente todas las escalas de gradiente tienen dos extremos que son "inseparables": conocimiento y desconocimiento son dos caras de la misma moneda y un extremo no se puede comprender sin el otro, pero esto no quiere decir que la una tenga el mismo significado que la otra, son significados diametralmente opuestos, complementarios, pero opuestos en definitiva.

                            Escrito por reti Ver mensaje
                            "una habitación ordenada es hecho subjetivo imposible de definir de manera objetiva haciéndola depender del desconocimiento o probabilidad de un hecho"

                            Eso si, tiene la cualidad de crear la sensación a la persona que la escucha de que se entiende la explicación y de que se entiende lo que es entropía, pero se trata de una cualidad, de una sensación , como el propio ejemplo, subjetiva.
                            Orden y desorden es algo perfectamente definido en física y para nada subjetivo. Quizás no sea buen ejemplo (eso va para Pod, que es quién lo puso), pero en mi ejemplo del gas queda perfectamente definido lo que es ordenado de lo que no.

                            Aún así, el tema del hilo ya está agotado y convendría abrir otro para hablar de esto. No es que quiera "evitar" tus respuestas, al contrario, me interesa mucho este tema, pero creo que ya no cabe aquí.

                            Saludos!!

                            Comentario


                            • #15
                              Re: ¿Entropía y atracción, tiempo y inexistencia de tiempo son la misma cosa?

                              Escrito por guibix Ver mensaje
                              Una cosa es la definición de "fuente de información", que es el elemento que transmite mensajes y que está sujeta a la incertidumbre (no sabemos que mensajes transmitirá), y otra muy distinta es la información en si. La cantidad de información contenida en un mensaje está definida como la medida en que un mensaje disminuye la incertidumbre (aumenta el conocimiento) y esa medida es igual a la disminución de la entropía de la información. Eso no lo digo yo, lo dice Shannon.
                              Tienes que tener cuidado con estas afirmaciones como de "tragalenguas". Tiene uno que leerlas al menos 3 o 4 veces para comprender lo que dicen, y pese a todo no se queda uno del todo tranquilo con que se haya entendido realmente.

                              Fijate:

                              - Empiezas distinguiendo entre "fuente de informacion" e "informacion".
                              - Defines luego "informacion" como la disminucion de la "incertidumbre".
                              - Luego dices que su medida es igual a la disminucion de la "entropia de la informacion".

                              Pero Shannon define la "entropia de la informacion" como algo perteneciente a la "fuente de informacion" pero no al mensaje, y el cambio en la "entropia de la fuente" como un cambio en la propia fuente pero no en el mensaje. Todo esto lleva a que lo que tu llamas "informacion" es algo que pertenece a la fuente y no al mensaje.

                              La entropia, o desconocimiento es algo que pertenece a la fuente y no al mensaje. !Ya se que es dificil de entender pero es asi!!
                              Evidentemente todas las escalas de gradiente tienen dos extremos que son "inseparables": conocimiento y desconocimiento son dos caras de la misma moneda y un extremo no se puede comprender sin el otro, pero esto no quiere decir que la una tenga el mismo significado que la otra, son significados diametralmente opuestos, complementarios, pero opuestos en definitiva.
                              Creo que lo has entendido perfectamente. Lo curioso en el caso que nos ocupa y la razon por lo que lo menciono, es que lo que Shannon llama informacion debe de entenderse como "desconocimiento" o si lo prefieres como "desinformacion". !Esto es lo realmente curioso! que lo que define no es "la informacion" es el "desconocimiento". Lee a Shannon y te daras cuenta que es asi.


                              Orden y desorden es algo perfectamente definido en física y para nada subjetivo. Quizás no sea buen ejemplo (eso va para Pod, que es quién lo puso), pero en mi ejemplo del gas queda perfectamente definido lo que es ordenado de lo que no.
                              Yo me he enterado de que existe una definicion de desorden distinta de la que se puede hayar en un diccionario gracias a "pod", y por ello le agradeceria que expusiera una de esas multiples definiciones que hay:
                              Escrito por pod
                              Aceptando todas las posibles definiciones de "orden" que tengan cierta lógica, sin duda siempre habrá más estados de desorden. Sin duda, hay infinitos estados "ordenados"; pero la cantidad de estados desordenados es un infinito de orden muy superior.
                              De verdad que no conozco ninguna definicion de orden, razonable o no, fuera de la que da el diccionario.

                              Aún así, el tema del hilo ya está agotado y convendría abrir otro para hablar de esto. No es que quiera "evitar" tus respuestas, al contrario, me interesa mucho este tema, pero creo que ya no cabe aquí.

                              Saludos!!
                              De acuerdo. !!Saludos""

                              Comentario

                              Contenido relacionado

                              Colapsar

                              Trabajando...
                              X