jueves, 9 de febrero de 2023

Personajes más influyentes en la historia de la estadística

 

Jacob Bernoulli (1654-1705)



Fue un matemático suizo, considerado el iniciador de la teoría de la probabilidad, que hasta entonces sólo se había ocupado de fenómenos experimentales con resultados equiprobables, motivados, aparte de los juegos de azar, por problemas de las ciencias sociales, intereses Financieros, seguros, meteorología y medicina.

 

Abraham De Moivre (1667-1754) 



Fue un matemático francés que vivía en Londres, publicó tres obras de contenidos sobre el tema de la probabilidad, entre 1718 y 1730. Contribuyó efectuando estudios sobre la ley de probabilidad binomial, y formuló una aproximación para muestras grandes, que es considerada por estadísticos de este siglo, como Karl Pearson, como la primera formulación de la ley de probabilidad normal.

 

Thomas Bayes (1702-1761)



Ordenado ministro, pero con interés en la matemática, no público un sólo trabajo matemático durante su vida. Su obra "Ensayo sobre la Resolución de un Problema en la Doctrina del Azar", publicada póstumamente en 1764, fue ignorada por sus contemporáneos, y parece haber tenido poca influencia sobre el desarrollo temprano de la Estadística. Irónicamente, sus contenidos, estudios de la inversión de la probabilidad, sirvieron, dos siglos después, para grabar su nombre en toda una corriente estadística, la moderna inferencia bayesiana.

 

Pierre-Simón Laplace (1749-1827)



Un físico, matemático y astrónomo francés, hizo contribuciones importantes a la aplicación de la probabilidad a la inferencia estadística, contenidas fundamentalmente en dos obras "Memoria sobre la Probabilidad de las Causas de Eventos", de 1774, y "Memoria sobre Probabilidades", de 1781. Se preocupó de la inversión de la probabilidad, como Bayes, pero sin conocer los resultados obtenidos por este último, llegando a formular un caso particular del teorema de Bayes, con la adopción tácita de probabilidades a priori iguales, con posterioridad a la publicación póstuma de la obra de Bayes. Contribuyó en muchos temas estadísticos, entre ellos en la obtención de una "curva de errores", llegando a la formulación de la ley de probabilidad normal.

 

Karl Friedrich Gauss (1777-1855)



Un matemático nacido en Alemania en 1777, contribuyó al método de los mínimos cuadrados, desembocando, independientemente de Laplace, en la ley de probabilidad normal, o curva de Gauss, como descripción probabilística del error, pero Gauss encontró su asociación con el método de mínimos cuadrados.

 
Simeon Poisson (1781-1840)



Su ocupación fue estudiar la teoría de la probabilidad y el análisis complejo. Su contribución al estudio de la teoría de probabilidades se fundamenta en los resultados de Laplace. En 1837, publicó en Rerecherchés sur la "Probabilite des Jugements", el desarrollo de una fórmula para el cálculo de la probabilidad de ocurrencia en sucesos cuando ésta es muy pequeña, que tiene gran aplicación práctica. A partir de esta fórmula obtuvo una distribución que lleva su nombre, y que, más tarde se demostraría corno un caso aproximado de la distribución Binomial. Durante toda su vida publicó entre 300 y 400 trabajos matemáticos incluyendo aplicaciones a la electricidad, el magnetismo y la astronomía.

 

Adolphe Quetelet (1796-1874)



Belga nacido en Gantes, interesado en las bellas artes. Tuvo una inclinación a las matemáticas, que lo llevó a interesarse por el estudio de la teoría de la probabilidad y su aplicación a los fenómenos sociales. Es así como contribuyó a impulsar la realización del primer censo nacional en Bélgica y Holanda, e hizo esfuerzos por que se uniformizaran los métodos y la tecnología utilizada en la recolección y presentación de datos, en Europa. Tuvo un liderazgo importante en la creación de organizaciones ligadas a la Estadística, como la Statistical Society of London, ahora Royal Statistical Society.

A Quetelet se le ha llamado el "padre de la Estadística moderna", por una publicación suya, de 1835, en que observa la extraordinaria regularidad con que se reproducían ciertos fenómenos sociales, como crímenes o suicidios, y argumenta que esas regularidades sólo pueden ser encontradas mediante el uso de técnicas estadísticas, las que incluso pueden llevar a conocer sus causas. Quetelet pensaba que casi todos los fenómenos pueden ser representados probabilísticamente mediante la ley normal, siempre que el número de casos estudiados fuese suficientemente grande.

 

Pafnuti Chebyshov (1821-1894)




Este reconocido matemático ruso defendió su tesis "Un Intento de Análisis Elemental de la Teoría Probabilística" en 1846 y, en 1847 ingreso como profesor a la Universidad de San Petersburgo. Es conocido por su trabajo en el área de la probabilidad y estadística, como la desigualdad de Chebyshev dice que la probabilidad de que una variable aleatoria esté distanciada de su media en más de a veces la desviación típica es menor o igual que 1/a^2.

 

Karl Pearson (1857-1936)



Este científico muy reconocido propuso una familia de distribuciones probabilísticas, a las que hoy se les conoce  como Gama. Su "Gramática de las Ciencias", de 1892, ilustra su convicción de que la estadística analítica yace en los fundamentos de todo el conocimiento además, en su trabajo, dio más importancia a la cuantificación de la correlación entre dos variables, en la forma de un coeficiente, que la que le había dado Galton. Él y otros investigadores desarrollaron varios coeficientes de correlación, para el estudio de diferentes problemas en genética, biología, y otras disciplinas. El más común y conocido de ellos, hoy en día, lleva su nombre. A Karl Pearson se debe, también, el estadístico ji-cuadrado, introducido en 1900. Este estadístico, es utilizado como medida de comparación entre dos tablas de frecuencia, y una de sus aplicaciones es el probar el ajuste de una ley probabilística a un conjunto de datos empíricos.



Ronald Aylmer Fisher (1890-1962)




Fue un importante biólogo y estadístico de su época, entregó una importante cantidad de conocimiento relacionado con el diseño de experimentos, contribuyendo a desarrollar técnicas que son consideradas claves para en la experimentación comparativa: El diseño experimental en bloques, la aleatorización, el diseño factorial, el análisis de varianza. Estas técnicas, a excepción de la aleatorización, eran conocidas antes de Fisher, pero fue el quien logró una clara comprensión de ellas, e inició su uso en forma masiva. Además dio conocer sus resultados en sucesivas publicaciones a partir de 1925, y hasta después de 1940, sobre métodos de experimentación agrícola.

Fisher desarrolló una teoría de estimación, aun en uso hoy día, basada en resumir los datos de un modo eficiente, que preserve la mayor cantidad de información contenida en ellos. Si se conoce la forma funcional de la ley de probabilidad que gobierna la población de donde provienen los datos, Fisher observó que la Función de Verosimilitud, la probabilidad de obtener la muestra dada, es un resumen de la información contenida en los datos. El método de maximizar la verosimilitud, provee entonces, el estimador más eficiente, que no puede ser mejorado, según su teoría.

Tags :

bm

Luis Iván

ACESORÍA EN MATEMÁTICAS Y ESTADÍSTICA

Somos una ayuda para los estudiantes en matemáticas, estadísticas, manejo de programas estadísticos, entre otros. Acesoramos en tus trabajos, brindamos tutorias y te garantizamos resultados.

  • Luis Iván
  • Bogotá - Colombia
  • normalestandar7@gmail.com
  • +57 3207389449

Publicar un comentario