Probabilidad bayesiana para niños
La probabilidad bayesiana es una forma especial de entender y usar la probabilidad. Imagina que tienes una idea o una hipótesis sobre algo, pero no estás completamente seguro de si es verdad o no. La probabilidad bayesiana te ayuda a razonar sobre esa idea, incluso cuando hay incertidumbre.
Esta manera de ver la probabilidad es como una extensión de la lógica que usamos para pensar. Nos permite trabajar con ideas que no son ni completamente ciertas ni completamente falsas.
Para calcular la probabilidad de una idea usando este método, primero se establece una "probabilidad inicial" (llamada a priori). Esta es una estimación de cuán probable crees que es la idea antes de tener nueva información. Luego, a medida que obtienes nuevos datos o pruebas, esa probabilidad inicial se actualiza. La probabilidad bayesiana te da un conjunto de reglas y fórmulas para hacer estos cálculos.
A diferencia de otras formas de entender la probabilidad, que se basan en cuántas veces ocurre algo (como la "frecuencia"), la probabilidad bayesiana se trata de representar lo que sabemos o creemos sobre algo. En este enfoque, le asignamos una probabilidad a una idea. En cambio, en el enfoque de "frecuencia", una idea se prueba sin que se le asigne una probabilidad directamente.
El nombre "bayesiano" viene del matemático y pensador del siglo XVIII Thomas Bayes. Él fue el primero en desarrollar una forma matemática para resolver un problema importante de cómo aprendemos de la información. Otro matemático, Pierre-Simon Laplace, continuó y popularizó lo que hoy conocemos como probabilidad bayesiana.
En general, hay dos maneras principales de interpretar la probabilidad bayesiana. Una es la visión objetivista, que dice que las reglas de la estadística bayesiana se basan en la lógica y la razón. La otra es la visión subjetivista, que considera que la probabilidad mide una "opinión personal". Muchos métodos modernos de aprendizaje automático (como los que usan las computadoras para aprender) se basan en los principios bayesianos objetivistas.
Contenido
¿Cómo funciona la Probabilidad Bayesiana?
Los métodos bayesianos tienen algunas características y pasos importantes:
- Se usan cantidades que pueden cambiar para representar todo lo que no sabemos con certeza en los modelos matemáticos. Esto incluye la falta de información.
- Es necesario decidir cuál es la distribución de probabilidad inicial (la "probabilidad previa"). Esto se hace considerando la información que ya tenemos.
- Se usa el teorema de Bayes de forma continua. Cuando aparecen nuevos datos, se calcula una nueva probabilidad (la "distribución posterior") usando la fórmula de Bayes. Esta nueva probabilidad se convierte en la "probabilidad previa" para el siguiente cálculo, si llegan más datos.
- Para quienes usan el enfoque de "frecuencia", una idea es o verdadera o falsa, por lo que su probabilidad es 1 o 0. En la estadística bayesiana, una probabilidad asignada a una idea puede ser diferente de 0 o 1 si no estamos seguros de si es cierta.
Dos formas de entender la Probabilidad Bayesiana
Como mencionamos, hay dos interpretaciones principales de la probabilidad bayesiana:
- Para los objetivistas, la probabilidad es una extensión de la lógica. Ellos creen que la probabilidad mide lo que cualquier persona (o incluso una computadora) que tenga la misma información debería esperar, siguiendo las reglas de la estadística bayesiana.
- Para los subjetivistas, la probabilidad es una creencia personal. Aunque hay reglas de lógica y coherencia, estas permiten cierta variación en las creencias de cada persona.
La principal diferencia entre estas dos visiones está en cómo interpretan y construyen la probabilidad inicial (la "probabilidad previa").
La historia de la Probabilidad Bayesiana
El término "bayesiano" se refiere a Thomas Bayes (1702-1761). Él presentó un caso especial de lo que hoy conocemos como el Teorema de Bayes en un escrito. En ese trabajo, las probabilidades iniciales y finales seguían ciertos patrones, y los datos venían de experimentos sencillos.
Fue Pierre-Simon Laplace (1749-1827) quien presentó una versión más general del teorema. Él lo usó para resolver problemas en áreas como el movimiento de los planetas, la medicina, la confiabilidad de sistemas y el derecho. Los primeros usos de la inferencia bayesiana, que usaban probabilidades iniciales uniformes, se llamaban "probabilidad inversa". Se les llamaba así porque calculaban "hacia atrás", desde lo que se observaba hasta las causas.
Después de la década de 1920, la "probabilidad inversa" fue reemplazada en gran parte por un conjunto de métodos que se conocieron como estadísticas frecuentistas.
Véase también
En inglés: Bayesian probability Facts for Kids
- Estadística bayesiana