robot de la enciclopedia para niños

Historia de la estadística para niños

Enciclopedia para niños

La Historia de la estadística es un viaje fascinante que nos muestra cómo esta herramienta ha evolucionado para ayudarnos a entender el mundo. Aunque la idea de usar datos para tomar decisiones es muy antigua, el estudio formal de la estadística como la conocemos hoy comenzó alrededor de 1750. Al principio, la palabra "estadística" se refería solo a la información importante sobre los países o "estados". Con el tiempo, su significado creció para incluir cualquier tipo de colección de datos y, más tarde, también el análisis y la interpretación de esa información.

Hoy en día, "estadística" puede significar tanto los grupos de datos que se recogen (como los registros de temperatura o la información sobre la economía de un país) como el trabajo de análisis que se hace con esos datos para sacar conclusiones.

Historia de la estadística
Archivo:Pierre-Simon Laplace
Pierre-Simon, marqués de Laplace, uno de los principales desarrolladores de la estadística bayesiana.
Campo Estadística
Subcampo Estadística matemática
Periodo Siglo XVIII - Actualidad
Principales ideas Teoría de la probabilidad, Inferencia estadística, Mínimos cuadrados, Distribución normal, Estadística bayesiana
Principales contribuyentes Thomas Bayes, Ronald Fisher, Carl Friedrich Gauss, Pierre-Simon Laplace, Karl Pearson, Charles S. Peirce

¿Qué es la Estadística y cómo ha cambiado?

En el siglo XVIII, la palabra "estadística" se usaba para hablar de la recolección organizada de datos sobre la población y la economía que hacían los gobiernos. A principios del siglo XIX, el significado se amplió para incluir la disciplina que se encarga de recolectar, resumir y analizar datos.

Hoy, la estadística se usa muchísimo en el gobierno, en los negocios y en todas las ciencias. Las computadoras modernas han hecho que la estadística sea mucho más rápida y han permitido a los expertos desarrollar métodos que usan mucha capacidad de cálculo.

La Estadística y las Matemáticas

La "estadística matemática" se refiere a las teorías matemáticas de la probabilidad y la inferencia estadística. Estas teorías se usan en la "estadística aplicada", que es cuando usamos la estadística para resolver problemas reales.

La relación entre la estadística y la probabilidad ha crecido con el tiempo. En el siglo XIX, la estadística empezó a usar la Teoría de la probabilidad, que había surgido en los siglos XVII y XVIII, especialmente al analizar los juegos de azar. Para el año 1800, la astronomía ya usaba modelos de probabilidad y teorías estadísticas, como el método de los mínimos cuadrados, creado por Legendre y Gauss.

Laplace organizó y amplió las primeras ideas de probabilidad y estadística. Después de él, estas áreas han seguido creciendo. En el siglo XIX, el razonamiento estadístico y los modelos de probabilidad se usaron en las ciencias sociales para desarrollar la psicología experimental y la sociología. También se usaron en las ciencias físicas para estudiar la termodinámica y la física estadística. El desarrollo del razonamiento estadístico estuvo muy ligado al desarrollo de la lógica inductiva y el método científico.

La estadística no es solo una parte de las matemáticas, sino que se considera una ciencia matemática propia, como las ciencias de la computación. A diferencia de las matemáticas, la estadística nació de la necesidad de la administración pública. Se usó en el estudio de la población (demografía) y la economía. Como se enfoca en aprender de los datos y hacer predicciones precisas, la estadística se ha unido a la teoría de la decisión y la microeconomía. También se ha relacionado con la ciencia de la información y las ciencias de la computación.

¿De dónde viene la palabra "Estadística"?

La palabra "estadística" viene del latín statisticum collegium (que significa "consejo de estado") y de la palabra italiana statista (que significa "hombre de estado" o político). La palabra alemana statistik, usada por primera vez por Godofredo Achenwall en 1749, se refería originalmente al análisis de datos sobre el estado, es decir, la "ciencia del estado".

A principios del siglo XIX, la palabra adquirió el significado de recolectar y clasificar datos. Fue introducida en Inglaterra en 1792 por sir John Sinclair.

Así, el objetivo principal de la statistik era usar los datos para el gobierno y las administraciones. La recolección de datos sobre estados y lugares sigue haciéndose hoy en día, principalmente a través de servicios de estadística nacionales e internacionales. Por ejemplo, los censos nos dan información actualizada sobre la población.

El primer libro con "estadísticas" en su título fue "Contributions to Vital Statistics" de Francis GP Neison, publicado en 1845.

Los orígenes de la Estadística en la Probabilidad

El uso de métodos estadísticos es muy antiguo, al menos desde el siglo V antes de Cristo. El historiador Tucídides, en su libro Historia de la Guerra del Peloponeso, cuenta cómo los atenienses calcularon la altura de la muralla de Platea. Contaron el número de ladrillos en una parte de la muralla que estaba lo suficientemente cerca. Repitieron el conteo varias veces con diferentes soldados. El número que más se repetía (la moda) se tomó como el valor más probable. Multiplicando este valor por la altura de los ladrillos, pudieron saber qué tan altas debían ser las escaleras para escalar las murallas.

En un antiguo poema épico de la India llamado Majabhárata, el rey Ritupama estimó el número de frutas y hojas en un árbol contando las de una sola rama y multiplicando por el número de ramas. Su estimación fue muy cercana a la realidad.

El primer escrito conocido sobre estadística se encontró en un libro del siglo IX llamado Manuscrito sobre el descifrado de mensajes criptográficos, escrito por Al-Kindi (801-873). En su libro, Al-Kindi explica cómo usar la estadística y el análisis de frecuencias para descifrar mensajes secretos. Esto marcó el inicio de la estadística y del criptoanálisis.

La Prueba del Pyx es una prueba de pureza de las monedas de la Casa de la Moneda Real en Inglaterra, que se ha hecho regularmente desde el siglo XII. Esta prueba se basa en métodos de muestreo estadístico. Después de acuñar monedas, se guarda una moneda de cada lote en una caja especial (el Pyx). Después de un tiempo, se sacan las monedas y se pesan. Luego, se analiza una muestra de esas monedas para verificar su pureza.

La Nuova Crónica, una historia de Florencia del siglo XIV escrita por Giovanni Villani, incluye mucha información estadística sobre la población, el comercio, la educación y los edificios religiosos.

Aunque los griegos ya conocían la idea, la media aritmética (el promedio) no se usó para más de dos valores hasta el siglo XVI. La invención del sistema decimal por Simon Stevin en 1585 facilitó estos cálculos. Este método fue adoptado por primera vez en la astronomía por Tycho Brahe, quien quería reducir errores en sus cálculos de la posición de los cuerpos celestes.

La idea de la mediana (el valor central en un conjunto de datos ordenados) apareció en un libro de navegación de Edward Wright en 1599. Wright pensó que este valor era el más probable en una serie de observaciones.

John Graunt, en su libro de 1662, estimó la población de Londres usando registros de funerales. Sabía que había unos 13,000 funerales al año y que en cada once familias, tres personas morían al año. Estimó que el tamaño promedio de las familias era de 8 personas y calculó que la población de Londres era de unas 384,000 personas. Laplace usó un método similar en 1802 para estimar la población de Francia.

Los métodos matemáticos de la estadística surgieron de la Teoría de la probabilidad, que tiene sus raíces en la correspondencia entre Pierre de Fermat y Blaise Pascal en 1654. Christiaan Huygens (1657) hizo el primer estudio científico conocido sobre el tema. Los libros de Jakob Bernoulli (1713) y Abraham de Moivre (1718) trataron el tema como una rama de las matemáticas. Bernoulli introdujo la idea de que la certeza completa se representa con el número 1 y la probabilidad con un número entre cero y uno.

Galileo se enfrentó al problema de los errores en las observaciones y sugirió que los valores más probables de cantidades desconocidas serían aquellos que hicieran los errores más pequeños. El estudio formal de la teoría de errores comenzó con el libro de Roger Cotes (1750). Tobias Mayer, en su estudio de los movimientos de la Luna (1750), inventó el primer método formal para estimar cantidades desconocidas.

Un ejemplo temprano de lo que luego se conocería como la distribución normal fue estudiado por Abraham de Moivre, quien la dibujó en 1733. De Moivre estudiaba cuántas veces salía "cara" al lanzar una moneda.

Thomas Simpson en 1755 aplicó por primera vez la teoría de la probabilidad a la discusión de errores en las observaciones. Él dijo que los errores positivos y negativos son igual de probables y que hay límites para los errores.

Ruder Boškovic en 1755 propuso que el valor verdadero de una serie de observaciones sería aquel que minimizara la suma de los errores absolutos. En términos modernos, este valor es la media.

Johann Heinrich Lamber en 1765 propuso el semicírculo como una forma de distribución de errores.

Pierre-Simon Laplace (1774) intentó por primera vez deducir una regla para combinar observaciones usando la teoría de la probabilidad. En 1774, Laplace notó que la frecuencia de un error podía expresarse como una función exponencial de su tamaño. Esta distribución se conoce ahora como distribución de Laplace.

Lagrange propuso una distribución parabólica de errores en 1776.

Laplace en 1778 publicó su segunda ley de errores, donde notó que la frecuencia de un error era proporcional a la función exponencial del cuadrado de su tamaño. Esto fue descubierto después por Gauss (posiblemente en 1797) y ahora se conoce como distribución normal, que es muy importante en la estadística. Esta distribución fue llamada "normal" por primera vez por Pierce en 1873.

Lagrange también sugirió en 1781 otras dos distribuciones para errores: una distribución coseno y una distribución logarítmica.

Laplace, en una investigación sobre el movimiento de Saturno y Júpiter en 1787, generalizó el método de Mayer.

En 1802, Laplace estimó la población de Francia en 28,328,612 personas. Calculó este número usando la cantidad de nacimientos del año anterior y datos de censos de tres comunidades.

El método de los mínimos cuadrados, que se usa para minimizar errores en la medición de datos, fue publicado de forma independiente por Adrien-Marie Legendre (1805), Robert Adrain (1808) y Carl Friedrich Gauss (1809). Gauss había usado este método en su famosa predicción en 1801 de la ubicación del planeta enano Ceres.

El término "error probable" (la desviación media) fue introducido en 1815 por el astrónomo alemán Frederik Wilhelm Bessel.

Antoine Augustin Cournot en 1843 fue el primero en usar el término "mediana" para el valor que divide una distribución de probabilidad en dos mitades iguales.

Otros que contribuyeron a la teoría de errores fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875).

En el siglo XIX, los autores de la teoría estadística incluyeron a Laplace, S. Lacroix (1816), Littrow (1833), Dedekind (1860), Helmert (1872), Laurant (1873), Liagre, Didion, De Morgan, Boole, Edgeworth y K. Pearson.

Gustav Theodor Fechner usó la mediana en estudios de la sociedad. Antes, solo se había usado en astronomía.

Las primeras pruebas de la distribución normal fueron creadas por el estadístico alemán Wilhelm Lexis en 1870.

Francis Galton estudió varias características humanas (altura, edad, peso, etc.) y encontró que muchas de ellas se ajustaban a una distribución normal.

Francis Galton en 1907 escribió sobre la utilidad de la mediana. Examinó la precisión de 787 intentos de adivinar el peso de un buey en una feria. El peso real era de 1208 libras; la mediana de todas las estimaciones fue 1198 libras.

El noruego Anders Nicolai Kiær introdujo el concepto de muestreo estratificado en 1895. Arthur Lyon Bowley introdujo el muestreo aleatorio en 1906. Jerzy Neyman en 1934 demostró que el muestreo aleatorio estratificado era generalmente mejor que el muestreo intencional.

El nivel de significación del 5% parece haber sido introducido por Fisher en 1925. Fisher dijo que las desviaciones que superaban dos veces la desviación estándar eran importantes.

Inferencia Estadística

Charles S. Peirce (1839-1914) formuló teorías sobre cómo estimar y probar hipótesis (1877-1878 y 1883), introduciendo la idea de "confianza". Pierce también introdujo experimentos controlados y a ciegas con medidas repetidas.

Estadística Bayesiana

El término "bayesiano" se refiere a Thomas Bayes (1702-1761), quien demostró un caso especial de lo que hoy se conoce como Teorema de Bayes. Sin embargo, fue Pierre-Simon Laplace (1749-1827) quien presentó una visión más general del teorema y lo aplicó a la mecánica celeste, la medicina, la confiabilidad y el derecho.

Después de la década de 1920, la probabilidad inversa fue reemplazada en su mayoría por métodos desarrollados por Ronald A. Fisher, Jerzy Neyman y Egon Pearson. Sus métodos se llamaron estadística frecuentista. Fisher no estaba de acuerdo con el enfoque bayesiano.

La palabra "bayesiano" apareció en 1930 y para 1960 se convirtió en el término preferido por quienes no estaban satisfechos con las limitaciones de las estadísticas frecuentistas.

En el siglo XX, las ideas de Laplace se desarrollaron en dos direcciones: las corrientes "objetivas" y "subjetivas" en la práctica bayesiana. En la corriente objetiva, el análisis estadístico solo depende del modelo y los datos. En contraste, los estadísticos "subjetivos" creen que no siempre es posible un análisis completamente objetivo.

La inferencia bayesiana objetiva fue desarrollada por Harold Jeffreys, cuyo libro "Theory of probability" apareció en 1939. En 1957, Edwin Thompson Jaynes promovió el concepto de entropía máxima para construir "priores" (información inicial), lo cual es importante para métodos objetivos. En 1965, Dennis Lindley popularizó los métodos bayesianos. En 1979, José-Miguel Bernardo introdujo el análisis referencial. Otros defensores del bayesianismo incluyen a I. J. Good, B. O. Koopman, Howard Raiffa, Robert Schlaifer y Alan Turing.

En la década de 1980, hubo un gran aumento en la investigación y aplicación de métodos bayesianos, principalmente gracias al descubrimiento de los métodos Markov chain Monte Carlo, que resolvieron muchos problemas. A pesar de este crecimiento, la mayoría de la enseñanza universitaria se basa en estadísticas frecuentistas. Sin embargo, los métodos bayesianos son muy aceptados y usados, por ejemplo, en el campo del aprendizaje de máquinas.

La Estadística en la actualidad

Durante el siglo XX, la necesidad de herramientas precisas para la investigación en agricultura, problemas de salud pública (epidemiología, bioestadística), control de calidad industrial y propósitos económicos y sociales (como la tasa de desempleo o la econometría) impulsó avances importantes en la práctica de la estadística.

Hoy, el uso de la estadística se ha extendido mucho más allá de sus orígenes. Personas y organizaciones usan la estadística para entender los datos y tomar decisiones informadas en las ciencias naturales y sociales, la medicina, los negocios y muchas otras áreas.

La estadística generalmente no se considera una rama de las matemáticas, sino un campo distinto e independiente. Muchas universidades tienen departamentos separados de matemáticas y estadística. La estadística también se enseña en departamentos tan diversos como psicología, pedagogía y salud pública.

Contribuyentes importantes a la Estadística

Galería de imágenes

kids search engine
Historia de la estadística para Niños. Enciclopedia Kiddle.