He leído que la definición de entropía de una variable aleatoria discreta , con función de probabilidad es:
Se dice que esta cantidad representa el desorden, pero no veo por qué. Tampoco sabría como se extiende esta definición al caso continuo.
Resulta que en la asignatura de estadística (del grado de matemáticas), estamos interesados en dada una variable aleatoria (que supondré discreta para los cálculos que siguen), y dada una muestra , cuál es la probabilidad de que produzca . Por independencia (teórica) de los valores de la muestra se ve que esta probabilidad es:
Por comodidad (a la hora de buscar máximos cuando el modelo depende de un parámetro , , por ejemplo), se suele tomar el logaritmo, para intercambiar sumas y productos:
Había pensado en agrupar términos idénticos, así tendríamos:
Donde es el número de veces que se repite el valor en la muestra. Si dividimos entre , es la frecuencia relativa del valor en la muestra. Así:
Mi intuición es que, si la muestra está producida por , entonces cuando es muy grande, y entonces:
Es decir, que intuitivamente veo que, cuando grande y está producida por . Sea la probabilidad de haber producido esa muestra, este valor es:
Interpreto por tanto que la entropía es una medida que ayuda a reconocer que una muestra generada por esté generada por . ¿Es así?
Gracias, saludos
Resulta que en la asignatura de estadística (del grado de matemáticas), estamos interesados en dada una variable aleatoria (que supondré discreta para los cálculos que siguen), y dada una muestra , cuál es la probabilidad de que produzca . Por independencia (teórica) de los valores de la muestra se ve que esta probabilidad es:
Había pensado en agrupar términos idénticos, así tendríamos:
Es decir, que intuitivamente veo que, cuando grande y está producida por . Sea la probabilidad de haber producido esa muestra, este valor es:
Interpreto por tanto que la entropía es una medida que ayuda a reconocer que una muestra generada por esté generada por . ¿Es así?
Gracias, saludos
Comentario