REVISTA INVESTIGACIÓN OPERACIONAL Vol., 28 No 3, 215-239., 2007 UNA REVISIÓN DE LOS MÉTODOS DE REMUESTREO Y SU ROBUSTEZ Carlos N. Bouza 1 Universidad de La Habana RESUMEN: En este trabajo se trata de establecer como se engarzan las teorías que sustentan los modelos teóricos de la . estadística robusta, con los métodos intensivos de computación. Para ello se discute como el enfoque . funcional permite discernir sobre la convergencia de estimadores y predictores al parámetro, expresado como un funcional de la función de distribución desconocida. Esto permite establecer las condiciones generales que nos permiten usar Jacknife y Boostrap para estimar intervalos confidenciales, hacer pruebas de hipótesis etc, utilizando solo la información brindada por la muestra observada. Se hace hincapié en algunos métodos derivados del principio Boostrap. ABSTRACT: This paper looks for establishing how robust statistics theoretical models and intensive computation methods interact. The functional approach is discussed for establishing the convergence of estimators and predictors to the parameter, expressed as a functional of the unknown distribution function. It allows the establishment of general conditions that sustain the use of Jacknife and Boostrap for estimating confidence intervals, hypothesis testing etc., using only sampling information. Some Boostrap derived methods are rekamarked . Key Words: Functional, differentiability, almost sure convergence, probability convergence, Edgerworth Series. MSC 62G35 1 INTRODUCCIÓN Las leyes científicas no avanzan mediante un principio dictatorial o pueden justificarse mediante fe o filosofía medieval. La Estadística es el único tribunal hacia el nuevo conocimiento.” (P.C. Mahalanobis). Las ciencias tratan de conocer los fenómenos naturales y usar el nuevo conocimiento en mejorar la vida de la humanidad. Para ello se establece un proceso de abstracción que trata de establecer leyes y teorías que permitan establecer el comportamiento de los fenómenos con cierta exactitud. Actualmente las hipótesis se apoyan en hechos observables los que permiten determinar leyes. Estos hechos pueden ser caracterizados por conjuntos de datos los que reflejan patrones, relaciones o interdependencias que permiten construir modelos que expliquen las fluctuaciones aleatorias y errores observan en la información obtenida. Los programas estadísticos actualmente son muy interactivos y permiten analizar los datos, usando un software. Es muy sencillo su uso por lo que cualquier profesional puede explorar sus datos sí mismo, pero para el uso adecuado de la información se requiere de conocimientos de la teoría Estadística. La estadística es un instrumento de uso casi ineludible para tratar de estudiar y cuantificar la incertidumbre lo que hace que su uso sea inevitable. En nuestra era las actividades humanas están basadas en predicciones, y es se predice bajo incertidumbre. La incertidumbre está presente en nuestra realidad generada por diversas causas como el desconocimiento de parte de la información necesaria, los errores producidos por mediciones defectuosas etc. Es importante reflexionar sobre cómo cuantificar la vaguedad formulando estrategias para reducir, controlar y modelar la incertidumbre. En esta búsqueda podemos considerar que la Estadística puede permitir 1 bouza@matcom.uh.cu 215