Personajes más influyentes en la historia de la estadística
Jacob Bernoulli (1654-1705)
Fue
un matemático suizo, considerado el iniciador de la teoría de la
probabilidad, que hasta entonces sólo se había ocupado de fenómenos
experimentales con resultados equiprobables, motivados, aparte de los juegos de
azar, por problemas de las ciencias sociales, intereses Financieros, seguros,
meteorología y medicina.
Abraham De Moivre (1667-1754)
Fue un matemático francés que vivía en Londres,
publicó tres obras de contenidos sobre el tema de la probabilidad, entre 1718 y
1730. Contribuyó efectuando estudios sobre la ley de probabilidad binomial, y
formuló una aproximación para muestras grandes, que es considerada por
estadísticos de este siglo, como Karl Pearson, como la primera formulación de
la ley de probabilidad normal.
Thomas Bayes (1702-1761)
Ordenado ministro, pero
con interés en la matemática, no público un sólo trabajo matemático durante su
vida. Su obra "Ensayo sobre la Resolución de un Problema en la Doctrina
del Azar", publicada póstumamente en 1764, fue ignorada por sus
contemporáneos, y parece haber tenido poca influencia sobre el desarrollo
temprano de la Estadística. Irónicamente, sus contenidos, estudios de la
inversión de la probabilidad, sirvieron, dos siglos después, para grabar su
nombre en toda una corriente estadística, la moderna inferencia bayesiana.
Pierre-Simón Laplace (1749-1827)
Un físico, matemático y
astrónomo francés, hizo contribuciones importantes a la aplicación de la
probabilidad a la inferencia estadística, contenidas fundamentalmente en dos
obras "Memoria sobre la Probabilidad de las Causas de Eventos", de
1774, y "Memoria sobre Probabilidades", de 1781. Se preocupó de la
inversión de la probabilidad, como Bayes, pero sin conocer los resultados
obtenidos por este último, llegando a formular un caso particular del teorema
de Bayes, con la adopción tácita de probabilidades a priori iguales, con
posterioridad a la publicación póstuma de la obra de Bayes. Contribuyó en
muchos temas estadísticos, entre ellos en la obtención de una "curva de
errores", llegando a la formulación de la ley de probabilidad normal.
Karl Friedrich Gauss (1777-1855)
Un matemático nacido en
Alemania en 1777, contribuyó al método de los mínimos cuadrados, desembocando,
independientemente de Laplace, en la ley de probabilidad normal, o curva de
Gauss, como descripción probabilística del error, pero Gauss encontró su
asociación con el método de mínimos cuadrados.
Simeon Poisson (1781-1840)
Su ocupación fue estudiar la teoría de la
probabilidad y el análisis complejo. Su contribución al estudio de la teoría de
probabilidades se fundamenta en los resultados de Laplace. En 1837, publicó en
Rerecherchés sur la "Probabilite des Jugements", el desarrollo de una
fórmula para el cálculo de la probabilidad de ocurrencia en sucesos cuando ésta
es muy pequeña, que tiene gran aplicación práctica. A partir de esta fórmula
obtuvo una distribución que lleva su nombre, y que, más tarde se demostraría
corno un caso aproximado de la distribución Binomial. Durante toda su vida
publicó entre 300 y 400 trabajos matemáticos incluyendo aplicaciones a la
electricidad, el magnetismo y la astronomía.
Adolphe Quetelet (1796-1874)
Belga nacido en Gantes,
interesado en las bellas artes. Tuvo una inclinación a las matemáticas, que lo
llevó a interesarse por el estudio de la teoría de la probabilidad y su
aplicación a los fenómenos sociales. Es así como contribuyó a impulsar la
realización del primer censo nacional en Bélgica y Holanda, e hizo esfuerzos
por que se uniformizaran los métodos y la tecnología utilizada en la
recolección y presentación de datos, en Europa. Tuvo un liderazgo importante en
la creación de organizaciones ligadas a la Estadística, como la Statistical
Society of London, ahora Royal Statistical Society.
A Quetelet se le ha
llamado el "padre de la Estadística moderna", por una publicación
suya, de 1835, en que observa la extraordinaria regularidad con que se
reproducían ciertos fenómenos sociales, como crímenes o suicidios, y argumenta
que esas regularidades sólo pueden ser encontradas mediante el uso de técnicas
estadísticas, las que incluso pueden llevar a conocer sus causas. Quetelet
pensaba que casi todos los fenómenos pueden ser representados
probabilísticamente mediante la ley normal, siempre que el número de casos
estudiados fuese suficientemente grande.
Pafnuti Chebyshov (1821-1894)
Este reconocido matemático ruso defendió su tesis "Un Intento de Análisis Elemental de la Teoría Probabilística" en 1846 y, en 1847 ingreso como profesor a la Universidad de San Petersburgo. Es conocido por su trabajo en el área de la probabilidad y estadística, como la desigualdad de Chebyshev dice que la probabilidad de que una variable aleatoria esté distanciada de su media en más de a veces la desviación típica es menor o igual que 1/a^2.
Karl Pearson (1857-1936)
Este científico muy reconocido propuso una
familia de distribuciones probabilísticas, a las que hoy se les conoce como Gama. Su
"Gramática de las Ciencias", de 1892, ilustra su convicción de que la
estadística analítica yace en los fundamentos de todo el conocimiento además,
en su trabajo, dio más importancia a la cuantificación de la correlación entre
dos variables, en la forma de un coeficiente, que la que le había dado Galton.
Él y otros investigadores desarrollaron varios coeficientes de correlación,
para el estudio de diferentes problemas en genética, biología, y otras
disciplinas. El más común y conocido de ellos, hoy en día, lleva su nombre. A
Karl Pearson se debe, también, el estadístico ji-cuadrado, introducido en 1900.
Este estadístico, es utilizado como medida de comparación entre dos tablas de
frecuencia, y una de sus aplicaciones es el probar el ajuste de una ley
probabilística a un conjunto de datos empíricos.
Ronald Aylmer Fisher (1890-1962)
Fue un importante biólogo y estadístico de su época, entregó una importante cantidad de conocimiento relacionado con el diseño de experimentos, contribuyendo a desarrollar técnicas que son consideradas claves para en la experimentación comparativa: El diseño experimental en bloques, la aleatorización, el diseño factorial, el análisis de varianza. Estas técnicas, a excepción de la aleatorización, eran conocidas antes de Fisher, pero fue el quien logró una clara comprensión de ellas, e inició su uso en forma masiva. Además dio conocer sus resultados en sucesivas publicaciones a partir de 1925, y hasta después de 1940, sobre métodos de experimentación agrícola.
Fisher desarrolló una teoría de estimación, aun en uso hoy día, basada en resumir los datos de un modo eficiente, que preserve la mayor cantidad de información contenida en ellos. Si se conoce la forma funcional de la ley de probabilidad que gobierna la población de donde provienen los datos, Fisher observó que la Función de Verosimilitud, la probabilidad de obtener la muestra dada, es un resumen de la información contenida en los datos. El método de maximizar la verosimilitud, provee entonces, el estimador más eficiente, que no puede ser mejorado, según su teoría.
Tags : Estadística
Luis Iván
ACESORÍA EN MATEMÁTICAS Y ESTADÍSTICA
Somos una ayuda para los estudiantes en matemáticas, estadísticas, manejo de programas estadísticos, entre otros. Acesoramos en tus trabajos, brindamos tutorias y te garantizamos resultados.
- Luis Iván
- Bogotá - Colombia
- normalestandar7@gmail.com
- +57 3207389449
Publicar un comentario