lunes, 22 de noviembre de 2010

ENSAYO TÉCNICAS DE ANÁLISIS ESTADÍSTICO DE DATOS SIMULADOS

Hoy por hoy se registra el valor de la estadística aplicada en el desarrollo de investigaciones en  diversos campos sea acrecentado los expertos de diferentes aéreas que requieren de métodos estadísticos como muestreo, simulación, diseño de experimentos, moldeamiento estadístico e inferencia, para llevar a cabo recolección, compendio y análisis de datos y para su posterior interpretación.

De igual modo la simulación, pensada como un método de experimentación controlada, es el proceso de imitación de aspectos significativos del comportamiento de un sistema, por razón de la construcción de un modelo implementado en un computador de tal forma que permita generar observaciones dadas ciertas entradas. Con el análisis estadístico de tales observaciones se valoran medidas del comportamiento del sistema de interés.

Sin embargo, de esta manera no es posible encontrar resultados óptimos, no obstante los resultados satisfactorios a problemas de difícil, costosa o imposible resolución mediante otros métodos.

Como ya se ha mencionado antes, la simulación tiene como objetivo determinar el valor de una cantidad relacionada con un modelo estocástico particular. Una simulación produce datos de salida (X), cuyo valor esperado es la cantidad de interés. Un numero n de repeticiones de la simulación produce X1, . ,Xn resultados, los cuales conforman la muestra; el promedio o media muestral de todos estos resultados proporciona una estimación del valor de interés. La media es un estimador insesgado, ya que su valor esperado es igual al valor del parámetro. Para determinar la bondad de la media como estimación del parámetro, se calcula la varianza de la media muestral si esta es pequeña, se dice que la media es un buen estimador del parámetro. Esto es justificado por la desigualdad de Tchebychev, ya que para una muestra suficientemente grande, la probabilidad que una variable aleatoria quede a muchas desviaciones estándar de la media es muy pequeña.

La simulación es una técnica de muestreo estadístico controlado (experimentación) que se emplea conjuntamente con un modelo, para obtener respuestas aproximadas a problemas probabilísticos complejos; debe seguir las normas del diseño de experimentos para que los resultados obtenidos puedan conducir a interpretaciones significativas de las relaciones de interés.


La admisión del modelo de simulación se logra llevar a cabo siguiendo las técnicas estándares de los depuradores; una de ellas puede ser depuración por módulos o subrutinas, es decir, descomponer el programa en partes pequeñas y controlables, donde cada una tenga una secuencia lógica, verificando por separado cada parte. Otra técnica útil es el seguimiento o rastreo, en la cual las salidas se imprimen después de la ocurrencia de cada evento, esto permite un seguimiento para determinar si la simulación está funcionando como se esperaba.

Los problemas que pueden resolverse mediante simulación se clasifican en probabilísticos y determinísticos. Algunas aplicaciones de la simulación estadística son:

ü  Técnicas de remuestreo como el Bootstrap y Jackknife permiten comparar las estimaciones usando diferentes tamaños de muestras y poco análisis, pero requieren un gran esfuerzo computacional, por lo cual son más eficientes si se llevan a cabo mediante simulación.

ü  En Inferencia bayesiana se requieren métodos eficientes de integración, y cuando los problemas son de alta dimensión, los métodos más eficientes de integración son los basados en simulación.

ü  Un algoritmo probabilístico es un algoritmo que recibe entre los datos de entrada números aleatorios; así puede producir diferentes resultados con distintos tiempos de ejecución. La simulación permite, por una lado la implementación de algoritmos probabilísticos, y por otro lado el análisis probabilístico de algoritmos.

ü  Muchos de los problemas tratados con inteligencia artificial son de inferencia y decisión. Por ejemplo la simulación en sistemas expertos probabilísticos en el cual el conocimiento se representa sobre un dominio en el que hay incertidumbre, mediante una red probabilística cuyos nodos se asocian a variables aleatorias y cuyos arcos sugieren influencia, asociando a cada nodo una tabla de probabilidades condicionadas, o la inferencia y predicción en redes neuronales, mediante métodos Monte carló basados en cadenas de Markov modelos de caja negra que permiten modelar rasgos no lineales en problemas de aproximación, regresión, suavizado, predicción y clasificación.

Si bien los comienzos de la simulación científica se remontan a los trabajos de Student para determinar la distribución de la variable t que lleva su nombre, esta disciplina apareció mas tarde como una técnica numérica llamada métodos de Monte Carlo. La característica esencial de Monte Carlo es el uso de técnicas de toma de muestras aleatorias para llegar a una solución del problema físico, mientras una solución numérica convencional inicia con un modelo matemático del sistema físico, discretizando las ecuaciones diferenciales para luego resolver un grupo de ecuaciones algebraicas.




Los métodos de simulación Monte Carlo son aplicados  dependiendo de la manera como pasan de un estado a otro se clasifican en:

1. Métodos basados en cadenas de Markov (el algoritmo Hastings–Metropolis, el muestreador de Gibbs, temple simulado, muestreo con remuestreo de importancia y Monte Carlo hibrido)

 2. Métodos independientes (muestreo de importancia y muestreo de rechazo) Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediatamente anterior, es decir son cadenas con memoria lo cual condiciona las probabilidades de los eventos futuros (probabilidad de transición).

No hay comentarios:

Publicar un comentario