"De esto, parece evidente que si un problema A se puede reducir a otro problema B, entonces B es igual o más complicado que A. Dicho de otra manera, la reducción de un problema en otro no puede hacerlo más facil."
A eso voy, conociendo eso y que:
" la entropía, también llamada entropía de la información y entropía de Shannon mide la incertidumbre de una fuente de información."
Siendo dichas fuentes los mismos problemas P y NP ¿ no sería un valor de entropía de Shanon lo que estaría aumentando al reducir el problema ?
A eso voy, conociendo eso y que:
" la entropía, también llamada entropía de la información y entropía de Shannon mide la incertidumbre de una fuente de información."
Siendo dichas fuentes los mismos problemas P y NP ¿ no sería un valor de entropía de Shanon lo que estaría aumentando al reducir el problema ?
Comentario