Máxima verosimilitud para niños
En estadística, la estimación por máxima verosimilitud (también conocida como EMV) es un método muy usado para ajustar un modelo matemático y encontrar los mejores valores para sus partes, llamados parámetros. Imagina que tienes un conjunto de datos y quieres encontrar la regla matemática que mejor los describe. La EMV te ayuda a encontrar esa regla, eligiendo los valores que hacen que tus datos observados sean lo más probables posible.
Contenido
Historia de la Estimación por Máxima Verosimilitud
Este método fue impulsado y estudiado a fondo por el científico Ronald Fisher entre 1912 y 1922. Sin embargo, otros matemáticos famosos como Carl Friedrich Gauss y Pierre-Simon Laplace ya lo habían usado antes en sus trabajos. Fisher fue quien lo popularizó y demostró lo útil que era.
¿Cómo funciona la Estimación por Máxima Verosimilitud?
Imagina que tienes una colección de datos, por ejemplo, las alturas de varios estudiantes en tu clase. Queremos encontrar un modelo que explique estas alturas.
1. Tus datos: Tienes una serie de observaciones, como las alturas de cada estudiante. Llamamos a esto una "muestra". 2. El modelo: Suponemos que estas alturas siguen un patrón o "distribución" que podemos describir con una fórmula matemática. Esta fórmula tiene partes desconocidas, que llamamos "parámetros". Por ejemplo, en un modelo de alturas, un parámetro podría ser la altura promedio de los estudiantes. 3. La función de verosimilitud: Esta es la parte clave. Es una función que nos dice cuán probable es que hayamos obtenido los datos que observamos, si nuestro modelo tuviera ciertos valores para sus parámetros. Piensa que es como un "medidor de probabilidad" para tu modelo, dado lo que ya sabes (tus datos). * Si tus observaciones son independientes (una no afecta a la otra), la probabilidad total de ver todos tus datos juntos es el resultado de multiplicar las probabilidades de cada dato por separado. 4. Encontrar el mejor valor: El método de máxima verosimilitud busca los valores de los parámetros que hacen que esta "función de verosimilitud" sea lo más grande posible. Es decir, busca los valores que hacen que tus datos observados sean los más probables bajo tu modelo. * A menudo, en lugar de trabajar directamente con la función de verosimilitud, se usa su logaritmo (una operación matemática). Esto simplifica los cálculos sin cambiar el resultado final, ya que el logaritmo de un número es más grande si el número original es más grande. * El valor de los parámetros que maximiza esta función es lo que llamamos el estimador de máxima verosimilitud (EMV).
A veces, encontrar este valor es sencillo con fórmulas, pero otras veces se necesitan programas de computadora para hacer los cálculos. También puede pasar que no haya un único valor que sea el "mejor" o que no exista un máximo claro.
Este método es muy flexible. Aunque es más fácil si los datos son independientes, también se puede usar si están relacionados, como en el estudio de cómo cambian las cosas con el tiempo (series temporales).
Propiedades del Estimador de Máxima Verosimilitud
El estimador de máxima verosimilitud tiene varias características importantes que lo hacen muy útil en estadística:
Consistencia
Una propiedad muy buena del EMV es la consistencia. Esto significa que, si tienes una cantidad muy grande de datos, el valor que obtienes con el EMV se acercará mucho al verdadero valor del parámetro que estás tratando de estimar. Cuantos más datos tengas, más preciso será tu resultado.
Invariancia Funcional
Esta propiedad es muy práctica. Si ya encontraste el mejor valor para un parámetro (digamos, el promedio de algo), y luego quieres saber el mejor valor para una función de ese parámetro (por ejemplo, el doble del promedio), simplemente aplicas esa función al valor que ya encontraste. No necesitas hacer cálculos nuevos y complicados.
Ejemplos de Estimación por Máxima Verosimilitud
Ejemplo de Bolas Numeradas
Imagina que tienes una urna con varias bolas, numeradas del 1 al n. No sabes cuántas bolas hay en total (no sabes el valor de n). Sacas una bola al azar y ves que tiene el número 10. ¿Cuál es el valor más probable de n?
- Si n fuera 5, no podrías haber sacado una bola con el 10. La probabilidad sería 0.
- Si n fuera 10, la probabilidad de sacar el 10 sería 1/10.
- Si n fuera 20, la probabilidad de sacar el 10 sería 1/20.
La función de verosimilitud (la probabilidad de haber sacado el 10) es más alta cuando n es igual a 10. Por lo tanto, el EMV para n es 10.
Ejemplo de Lanzamiento de Moneda
Supongamos que lanzas una moneda 80 veces y obtienes 49 caras y 31 cruces. Quieres saber si la moneda está "cargada" (es decir, si la probabilidad de que salga cara, que llamamos p, es diferente de 0.5).
1. Monedas con probabilidades conocidas: Imagina que tienes tres monedas en una caja, con probabilidades de cara de 1/3, 1/2 y 2/3. No sabes cuál es cuál. * Calculamos la probabilidad de obtener 49 caras en 80 lanzamientos para cada moneda: * Si p = 1/3: la probabilidad es muy baja (casi 0). * Si p = 1/2: la probabilidad es de aproximadamente 0.012. * Si p = 2/3: la probabilidad es de aproximadamente 0.054. * La probabilidad más alta se da cuando p = 2/3. Así que, el EMV para p en este caso es 2/3.
2. Moneda con probabilidad desconocida: Ahora, supón que solo tienes una moneda, pero su probabilidad p puede ser cualquier valor entre 0 y 1. * La función de verosimilitud nos dice la probabilidad de obtener 49 caras y 31 cruces para cualquier valor de p. * Para encontrar el p que hace esta probabilidad máxima, usamos cálculo (derivadas). Al hacer esto, encontramos que el valor de p que maximiza la probabilidad es 49/80. * Esto significa que, según tus datos, el valor más probable para la probabilidad de cara de esa moneda es 49/80.
Ejemplo de Alturas (Distribución Normal)
Imagina que mides las alturas de un grupo de personas. Las alturas suelen seguir un patrón llamado "distribución normal", que se describe con dos parámetros:
- La media (μ): el promedio de las alturas.
- La varianza (σ²): qué tan dispersas están las alturas alrededor del promedio.
Queremos encontrar los mejores valores para μ y σ² que expliquen las alturas que medimos.
- La EMV para la media (μ) resulta ser el promedio de todas las alturas que mediste. Esto tiene sentido, ¿verdad? El promedio de tus datos es la mejor estimación del promedio real.
- La EMV para la varianza (σ²) es la suma de las diferencias al cuadrado entre cada altura y el promedio, dividida por el número total de alturas.
En este caso, el estimador de la media es "sin sesgo", lo que significa que, en promedio, dará el valor correcto. El estimador de la varianza tiene un pequeño "sesgo" (tiende a ser un poco más bajo que el valor real), pero se vuelve muy preciso con muchos datos.
Variables Relacionadas
A veces, las observaciones no son independientes. Por ejemplo, la altura de un hermano puede estar relacionada con la altura de otro. Incluso en estos casos, donde las variables están correlacionadas, el método de máxima verosimilitud se puede usar. Se necesita una función que describa la probabilidad conjunta de todas las observaciones, considerando cómo se relacionan entre sí.
Aplicaciones de la Estimación por Máxima Verosimilitud
El EMV es una herramienta muy poderosa y se utiliza en muchos campos de la estadística y la ciencia para:
- Crear modelos que predicen resultados.
- Analizar factores que influyen en ciertos fenómenos.
- Realizar pruebas estadísticas para tomar decisiones basadas en datos.
Ver también
- Función de verosimilitud
- Información de Fisher
- Algoritmo esperanza-maximización
Véase también
En inglés: Maximum likelihood estimation Facts for Kids