Las empresas actuales requieren de gran cantidad de información para su toma de decisiones. El estudio de la viabilidad de las empresas y sus proyecciones futuras se basan en multitud de variables, siendo una de ellas los resultados de sus estudios estadísticos. Los análisis estadísticos están a la orden del día, ya que son la fuente de estudio de las grandes empresas a la hora de evaluar diferentes aspectos relacionados con las ventas o el estudio de mercado. Por eso, nuestro Máster en Estadística Aplicada le permitirá recibir la formación adecuada que le permita analizar datos, tendencias sociales, políticas y económicas y aplicarlo al mundo empresarial, convirtiéndose en una pieza fundamenta en la dirección de las sociedades.
La formación y el contenido de nuestro Máster en Estadística Aplicada está dirigido principalmente a todos aquellos recién titulados en estadística que quieran ampliar sus conocimientos. Los fines de investigación y comerciales que pueden tener los análisis estadísticos lo hacen también interesante para cualquier empresa que desea conocer su evolución y futuro.
Objetivos
– Conocer el software especializado en estadísticas y las bases de datos.
– Analizar los modelos econométricos
– Aprender a elaborar y analizar encuestas
– Descifrar la estadística no paramétrica.
– Describir los elementos que influyen en la elección del consumidor.
Salidas Profesionales
La aplicación de la estadística es muy amplia y se extiende a todo tipo de sectores. Tras finalizar el master, tendrás las competencias profesionales para desarrollar tu actividad profesional por cuenta ajena o por cuenta propia en área de empresa, pero también en psicología, investigador social, experto en investigación mediante encuestas, trabajo de campo, estadística, etc.
Distribuciones relacionadas con las integrales eulerianas
Distribuciones relacionadas con la distribución normal
Convergencias en distribución
Distribución para la media de una muestra normal
Distribución para la varianza y cuasivarianza de una muestra normal
Distribuciones de probabilidad para la diferencia de medias de dos muestras independientes normales
Distribución para el cociente de varianzas
Distribución para la proporción muestral
Método de máxima verosimilitud
Método de los momentos
Relación entre el método de máxima verosimilitud y el de los momentos
Propiedades deseables para un estimador paramétrico
Intervalos de confianza para la media de una distribución normal
Intervalo de confianza para una proporción
Intervalo de confianza para la diferencia de medias de dos poblaciones normales
Intervalo de confianza para la diferencia de proporciones
Intervalo de confianza para la varianza de una población normal
Intervalo de confianza para la razón de varianzas
Construcción de regiones de confianza
Formulación de un contraste de hipótesis
Contraste de hipótesis para la media de una población normal
Contraste para la diferencia de medias
Contraste para la diferencia de proporciones
Contraste para la varianza
Contraste para la razón de varianzas
Análisis de razón de verosimilitudes
Introducción a los modelos econométricos
Especificación y estimación del modelo lineal simple
Estimación de la varianza de la perturbación aleatoria
Conceptualización
Obtención de los estimadores mínimo-cuadráticos
Propiedades descriptivas en la regresión lineal simple
Medidas de la bondad del ajuste. El coeficiente de determinación
Hipótesis estadísticas del modelo
Propiedades probabilísticas del modelo
Análisis de la varianza en la regresión
Ejercicio tipo del MLS
Introducción
Especificación del modelo de regresión lineal múltiple
Inferencia estadística del MRLM I
- El modelo de estimación por mínimos cuadrados ordinarios (MCO)
- Propiedades del estimado mínimo cuadrático ordinario
- Distribución muestral del vector de residuos, e
- El estimador de la varianza del término de perturbación
Inferencia estadística del MRLM II
- Contraste de hipótesis sobre un parámetro. Intervalo de confianza
- Contraste de significación del modelo
Sumas de cuadrados, análisis de la varianza y R2
El proceso de predicción
Estimación restringida
- Introducción al método de mínimos cuadrados restringidos (MCR).Contrastes de hipótesis
Contrastes de cambio estructural, linealidad y normalidad
Errores de especificación
Introducción
Influencia potencial
Influencia real
Observaciones atípicas
Multicolinealidad: definición, grados y consecuencias
Principales criterios de detección para la multicolinealidad
- El factor de inflación de la varianza (FIV)
- El número de condición
- Contradicción entre los tests individuales de la t y el test conjunto de la F
- Descomposición de la varianza del estimador
Posibles soluciones a la multicolinealidad
- Incorporación de nueva información
- Especificación de un nuevo modelo
- Métodos alternativos de estimación
Introducción
El modelo de regresión con variables ficticias
Una nueva versión del contraste de cambio estructural
Introducción
Consecuencias en la estimación por MCO
Estimador Mínimo Cuadrático Generalizado (MCG)
Comparación entre el estimador MCO y MCG
Heteroscedasticidad
- La naturaleza de la relación entre las variables
- La transformación de variables
- La omisión de variables relevantes
Métodos de estimación en presencia de heteroscedasticidad
- Matriz de varianzas y covarianzas de la perturbación conocida
- Matriz de varianzas y covarianzas de la perturbación desconocida 154
Contrastes de heteroscedasticidad
- El contraste de Goldfeld-Quandt
- El contraste de Breusch-Pagan
- El contraste de White
Autocorrelación
- La existencia de ciclos y/o tendencias
- Relaciones no lineales
- La omisión de variables relevantes
Esquemas lineales con comportamiento autocorrelacionado
Métodos de estimación en presencia de autocorrelación
- El método de Cochrane-Orcutt
- El método de Prais-Winsten
- El método de Durbin
Contrastes de autocorrelación
- El contraste de Durban-Watson
- El contraste de Godfrey
- Las funciones de autocorrelación simple (FAS) y parcial (FAP) de los residuos
- Contrastes de Box-Pierce y Ljung-Box
Introducción
Modelos de elección discreta (variable dependiente dicotómica)
- Modelo lineal de probabilidad
Especificación e inferencia de los modelos Probit y Logit
- Método de estimación por máxima verosimilitud
- Residuos generalizados
- Bondad de Ajuste
- Efectos parciales de la variable explicativas sobre la probabilidad P(y = 1)
Contrastes de hipótesis (Test de razón de verosimilitud), Test de Wald y de Multiplicadores de Lagrange)
- El Contraste de Razón de Verosimilitud
- El Contraste de Wald
- Contraste de los multiplicadores de Lagrange o Test de “Score”
- Comparación entre los Tests de RV, W, ML
Modelos de respuesta múltiple: Modelos Logit Condicional (MLC) y Multinomial (MLM)
- La hipótesis de la utilidad aleatoria
- Modelo Logit Condicional (MLC)
- Modelo mixto
- El modelo Logit multinomial
- Hipótesis de independencia de las alternativas irrelevantes
Especificación e inferencia de Modelo de Regresión Censurado (Modelo Tobit)
- Métodos de estimación en dos etapas y de la máxima verosimilitud
- Errores de especificación. Residuos generalizados. Normalidad y Heteroscedasticidad
Variaciones del Modelo Tobit Standard
Generalización del Modelo Tobit: Modelos bivariantes
- Modelo de “dos partes”
- El modelo de “doble valla” (Cragg, 1791)
- El Modelo de Selectividad (Heckman, 1979)
- Modelos de Infrecuencia de compra
Introducción a los modelos de recuento.
Introducción
Tipología de modelos con datos de panel
Métodos de estimación para modelos en niveles o estáticos
- Estimador MCO (Modelo sin efectos)
- Estimadores entre-grupos
- Estimador de covarianza (CV) o intragrupos para los efectos individuales
- Estimación MCG para los efectos individuales
- Estimador de covarianza o intragrupos (CV2) para los efectos individuales y temporales
- Estimación de MCG para los efectos individuales y temporales
Contrastes de especificación en el modelo estático
- Contraste de homogeneidad del panel
- Contraste de significación de los coeficientes en el modelo de efectos fijos
- Estimación robusta
- Contraste de nulidad de los efectos aleatorios
- Contraste entre efectos fijos o aleatorios
El modelo dinámico
Contrastes de especificación en el modelo dinámico
- Contraste para la autocorrelación de la perturbación
- Contraste para la sobreidentificación de instrumentos
Introducción, concepto y funciones de la estadística
Estadística descriptiva
Estadística inferencial
Medición y escalas de medida
Variables: clasificación y notación
Distribución de frecuencias
Representaciones gráficas
Propiedades de la distribución de frecuencias
Medidas de posición
Medidas de dispersión
Medidas de forma
Curva de Lorenz, coeficiente de Gini e índice de Theil
Medidas de tendencia central
Medidas de posición
Medidas de variabilidad
Índice de asimetría de Pearson
Puntuaciones típicas
Introducción al análisis conjunto de variables
Asociación entre dos variables cualitativas
Correlación entre dos variables cuantitativas
Regresión lineal
Conceptos previos de probabilidad
Variables discretas de probabilidad
Distribuciones discretas de probabilidad
Distribución normal
Distribuciones asociadas a la distribución normal
Conceptos previos
Métodos de muestreo
Principales indicadores
Introducción a las hipótesis estadísticas
Contraste de hipótesis
Contraste de hipótesis paramétrico
Tipologías de error
Contrastes no paramétricos
Introducción a los modelos de regresión
Modelos de regresión: aplicabilidad
Variables a introducir en el modelo de regresión
Construcción del modelo de regresión
Modelo de regresión lineal
Modelo de regresión logística
Factores de confusión
Interpretación de los resultados de los modelos de regresión
Modelos de medidas repetidas
Estadística no paramétrica. Conceptos básicos
Características de las pruebas
Ventajas y desventajas del uso de métodos no paramétricos
Identificación de las diferentes pruebas no paramétricas
Métodos de obtención de información secundaria
Motores de búsqueda y criterios de selección de fuentes de información secundaria
Métodos y técnicas de recogida de información primaria
Técnicas de investigación cualitativa
Tecnologías de información y comunicación aplicadas a la investigación de mercados CAPI, CATI, y CAWI
El papel de las nuevas tecnologías: calidad y rapidez en los datos
Normas ESOMAR y otros criterios normalizados y de buenas practicas en las investigaciones de mercados y estudios de opinión
Simulación del proceso de recogida de información primaria. Caso práctico
Objetivos del cuestionario y cuaderno de trabajo
Elementos y estructura del cuestionario
Elaboración de cuestionarios
Pretest de los cuestionarios
El argumentario
Tipología y clasificación de los cuestionarios según distintos criterios
Codificación de preguntas: Pre codificación y Post codificación
Características de cuestionarios-tipos según los medios y tiempo disponible
Aplicaciones informáticas de diseño y ejecución de encuestas
Definición de serie temporal
Objetivos y componentes de las series temporales
Clasificación
Métodos clásicos de análisis
Proceso estocástico
Procesos de Estado Discreto
Procesos estacionarios
Funciones de autocovarianza y autocorrelación
Proceso de ruido blanco
Teorema de Descomposición de Wold
Modelos de media móvil: concepto de invertibilidad
Modelos autorregresivos
Modelos mixtos
Modelos estacionales: estacionales puros estacionales multiplicativos y estacionales no estacionarios
Ideas básicas para la construcción de modelos
- Identificación
- Estimación
- Diagnosis
- Predicción
Introducción a análisis de intervención y valores atípicos
Efectos cualitativos: variables impulso y escalón
Construcción de modelos de intervención
Atípicos aditivos e innovativos
- Métodos para la detección de atípicos
Conceptos básicos en el desarrollo de modelos ARCH
Modelo de heterocedasticidad condicional autorregresiva (ARCH)
Modelo de heterocedasticidad condicional autorregresiva generalizados (GARCH)
Otros modelos de heterocedasticidad
Volatilidad estocástica
Formulación de un modelo de función de transferencia
Funciones de covarianzas y correlaciones cruzadas y modelos de función de transferencia
- Relación entre correlación cruzada y función de transferencia
Concepto de preblanqueado
- Identificación del modelo del proceso ruido
Estadística no paramétrica. Conceptos básicos
- Tipos de datos: cualitativos y cuantitativos
Características de las pruebas
- Características de las pruebas paramétricas
- Características de las pruebas no paramétricas
Ventajas y desventajas del uso de métodos no paramétricos
- Ventajas del uso de métodos no paramétricos
- Desventajas del uso de métodos no paramétricos
Identificación de las diferentes pruebas no paramétricas
- Principales pruebas no paramétricas
- Clasificación de las pruebas no paramétricas
Pruebas no paramétricas para una muestra
Chi-cuadrado o ji-cuadrado
Prueba de Kolmogorov-Smirnov para una muestra
Prueba binomial
Prueba de rachas
Prueba de los signos
Prueba del rango con signo de Wilcoxon
Prueba de McNemar
Pruebas para k muestras relacionadas
Prueba de Cochran
Prueba de Friedman
Coeficiente de concordancia de W de Kendall
Pruebas para dos muestras independientes
Prueba U de Mann Whitney
Prueba de Wald-Wolfowitz
Prueba de reacciones extremas de Moses
Prueba de Kolmogorov-Smirnov para dos muestras
Pruebas no paramétricas para K muestras independientes
Prueba de la mediana
Prueba H de Kruskal-Wallis
Prueba de Jonckheere-Terpstra
Titulación
Titulación de Máster de Formación Permanente en Estadística Aplicada con 1500 horas y 60 ECTS expedida por UTAMED – Universidad Tecnológica Atlántico Mediterráneo.