Buenas a todos.
Usualmente las cuentas para saber a qué distancia podremos ver un objeto se hacen tomando la distancia al horizonte. Si consideramos que ambos objetos tienen alturas y , la distancia máxima a la que ambos se pueden ver antes de ocultarse por el horizonte sería:
donde las alturas se introducen en metros y obtenemos la distancia en kilómetros.
Si se tuviera en cuenta refracción en la atmósfera esto aumentaría un poquito más, con el factor pasando de 3.572 a 3.86 según cómo se haga el cálculo.
Pero despreciando refracción, incluso quitando la atmósfera (pues creo que su distorsión sería el principal factor limitante), ¿realmente a esta distancia se pueden ver dos objetos?
Estaba preparando una entrada al respecto, y creo que además se debería tener en cuenta el criterio de Rayleigh. Es decir, decimos que somos capaces de resolver dos puntos cuando la distancia entre estos permite que el máximo central de sus patrones de difracción (disco de Airy pues es difracción en abertura circular, nuestra pupila) cae uno sobre el primer mínimo del otro. Así podríamos decir que somos capaces de diferenciar dos puntos dados. Realmente investigando al respecto no hay una teoría precisa sobre ello, pues hay que tener en cuenta que caigan en conos/bastones distintos etc. Pero en resumidas cuentas, y si tenemos en cuenta que en nuestro ojo tenemos un índice de refracción que hay que incluir en la expresión, quedaría que es necesario que los puntos a resolver muestren una separación angular:
con el diámetro de nuestra pupila.
Desde luego, si la fuente que queremos ver tiene luz propia no creo que haga falta entrar en estas consideraciones. Por ejemplo, somos capaces de ver el Sol cuando se pone, y no es necesario distinguirlo del "punto" horizonte puesto que la intensidad de su patrón de difracción es enormemente mayor. Pero si por ejemplo quisiéramos ver la Torre Eiffel a suficiente distancia, el cálculo con horizontes nos arroja unos 60 km, pero para ver su punta. Creo que esto no es lógico, pues nadie distinguiría la punta de la Torre Eiffel del horizonte. Lo que habría que imponer es que asome suficiente altura para que el ángulo que subtienda respecto al horizonte sea mayor que el que el criterio de Rayleigh nos dice.
¿Qué opináis?
Un saludo.
pd: me gustaría aclarar que he googleado y no encuentro un tratamiento del estilo. Encontré una página donde decían que los terraplanistas argumentaban que, por ejemplo, si no ves la Torre Eiffel a 80 km no es por la curvatura sino por el criterio de Rayleigh (vaya terraplanistas más "leídos"). El caso es que la distancia necesaria para no poder resolver la Torre Eiffel en una tierra plana son 1200 kilómetros, así que salvando todas las complicaciones por la dinámica atmosférica, diría que no es excusa.
Usualmente las cuentas para saber a qué distancia podremos ver un objeto se hacen tomando la distancia al horizonte. Si consideramos que ambos objetos tienen alturas y , la distancia máxima a la que ambos se pueden ver antes de ocultarse por el horizonte sería:
Si se tuviera en cuenta refracción en la atmósfera esto aumentaría un poquito más, con el factor pasando de 3.572 a 3.86 según cómo se haga el cálculo.
Pero despreciando refracción, incluso quitando la atmósfera (pues creo que su distorsión sería el principal factor limitante), ¿realmente a esta distancia se pueden ver dos objetos?
Estaba preparando una entrada al respecto, y creo que además se debería tener en cuenta el criterio de Rayleigh. Es decir, decimos que somos capaces de resolver dos puntos cuando la distancia entre estos permite que el máximo central de sus patrones de difracción (disco de Airy pues es difracción en abertura circular, nuestra pupila) cae uno sobre el primer mínimo del otro. Así podríamos decir que somos capaces de diferenciar dos puntos dados. Realmente investigando al respecto no hay una teoría precisa sobre ello, pues hay que tener en cuenta que caigan en conos/bastones distintos etc. Pero en resumidas cuentas, y si tenemos en cuenta que en nuestro ojo tenemos un índice de refracción que hay que incluir en la expresión, quedaría que es necesario que los puntos a resolver muestren una separación angular:
Desde luego, si la fuente que queremos ver tiene luz propia no creo que haga falta entrar en estas consideraciones. Por ejemplo, somos capaces de ver el Sol cuando se pone, y no es necesario distinguirlo del "punto" horizonte puesto que la intensidad de su patrón de difracción es enormemente mayor. Pero si por ejemplo quisiéramos ver la Torre Eiffel a suficiente distancia, el cálculo con horizontes nos arroja unos 60 km, pero para ver su punta. Creo que esto no es lógico, pues nadie distinguiría la punta de la Torre Eiffel del horizonte. Lo que habría que imponer es que asome suficiente altura para que el ángulo que subtienda respecto al horizonte sea mayor que el que el criterio de Rayleigh nos dice.
¿Qué opináis?
Un saludo.
pd: me gustaría aclarar que he googleado y no encuentro un tratamiento del estilo. Encontré una página donde decían que los terraplanistas argumentaban que, por ejemplo, si no ves la Torre Eiffel a 80 km no es por la curvatura sino por el criterio de Rayleigh (vaya terraplanistas más "leídos"). El caso es que la distancia necesaria para no poder resolver la Torre Eiffel en una tierra plana son 1200 kilómetros, así que salvando todas las complicaciones por la dinámica atmosférica, diría que no es excusa.
Comentario