0% encontró este documento útil (0 votos)
14 vistas2 páginas

Resumen R

Cargado por

Javi Canela
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
14 vistas2 páginas

Resumen R

Cargado por

Javi Canela
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

FILTRAR DATOS: Datos/Conjunto de datos activos/Filtrar el conjunto de datos activos ⇒ seleccionar todas o las

variables que queremos que aparezcan en el nuevo conjunto de datos; expresión de selección: indicamos cómo
queremos filtrar (comparativos y lógicos, los nombre entre comillas “nombre”), nombre del nuevo conjunto de
datos.
CONVERTIR EN FACTOR: Datos/Modificar variable del conjunto de datos activos/Convertir variable numérica en
factor ⇒ seleccionar variable a convertir, seleccionar Utiliza números y nombrar la nueva variable
Ojo! Pueden que queden variables sin frecuencia, para eliminar: Datos/Modificar variable del conjunto de datos activos/Descartar niveles sin uso ⇒
seleccionar Factor
CALCULAR NUEVA VARIABLE: Datos/Modificar variables del conjunto de datos activos/Calcular una nueva variable
NUBES DE PUNTOS:: Gráficas/Diagrama de dispersión ó Gráficas/Gráfica XY
GRÁFICAS: Gráficas/Gráficas de barra ó Gráficas/Gráficas de sectores
HISTOGRAMA: Gráficas/Histograma y seleccionar variable ó cambiar en el comando del histograma breaks=”Sturges” por breaks=c(intervalos)

MEDIDAS DESCRIPTIVAS: Estadística/Resúmenes/Conjunto de datos activos ⇒ cuadro de todas las variables con media, mediana, cuartiles…
De una sola variable: Estadísticos/resúmenes/resúmenes numéricos. En Datos seleccionar la variable y en Estadísticos lo necesario (mean=media;
cv=coef. variación; sd=desviación típica; skewness=simetría [ g=0 simétrica, g>0 sesgada por la derecha, g<0 sesgada por la izq];
kurtosis=apuntamiento [ g=0 mesocúrtica, normal; g>0 leptocúrtica, más apuntada; g<0 platicúrtica, más achatada]

COEF. CORRELACIÓN LINEAL O DE PEARSON R: Estadísticos/Resúmenes/Matriz de correlaciones ⇒ Seleccionar variables a comparar y


[Link] [r=0 no hay correlación; r=-1 hay correlación e inversa; r=1 hay correlación y directa]

VARIABLES DISCRETAS: Distribuciones/Distribuciones Discretas

⇒ Cuantiles: 0<= k <=1 (cola izq.): P (X <= C) >= K


⇒ Probabilidades acumuladas: (cola izq.): P (X<=x);( cola derecha) P(X>x)
GEOMÉTRICA en R: P(T+1>K) == P (T>K-1) (Para el valor de la variable hay que restar 1)

VARIABLES CONTINUAS: Distribuciones/Distribuciones Continuas

⇒ Cuantiles: 0<= k <=1 (cola izq.): P (X <= C) >= K


⇒ Probabilidades acumuladas: (cola izq.): P (X<=x)=P(X<x); ( cola derecha) P(X>=x)=P(X>x)=1-P(X<x)
Dibujar curva NORMAL: curve(dnorm(x,mean=1,sd=1/sqrt([valor_desviación])),add=TRUE,col=”red”)
OPTIMIZACIÓN: instalar paquete: [Link]("lpSolve") || cargar paquete: library(lpSolve) || tareas binarias (0,1): [Link]=TRUE (al final del
argumento lp) resultado=lp(“min/max”,funcion_variables_opt, matriz_coef_tecno,vector_restricciones,vector_recursos) ||
matriz_coef_tecno: A=matrix(c(coeficientes),nrow=[n_filas],byrow=TRUE)
Ejemplo: f=c(2000,2000) A=matrix(c(1,2,3,2,5,2),nrow=3,byrow=TRUE) dir=c(">=",">=",">=") b=c(80,160,200) resultado=lp("min",f,A,dir,b)
resultado$objval resultado$solution
Ejemplo: f=c(2,3,1,1,3,5,3,4,2) A=matrix(c(1,1,1,0,0,0,0,0,0,0,0,0,1,1,1,0,0,0,0,0,0,0,0,0,1,1,1,1,0,0,1,0,0,1,0,0,0,1,0,0,1,0,0,1,0,0,0,1,0,0,1,0,0,1),nrow=6,byrow=TRUE)
dir=c("=","=","=","=","=","=") b=c(1,1,1,1,1,1) resultado=lp("min",f,A,dir,b,[Link]=TRUE) resultado$objval resultado$solution
Ejemplo: f=c(120,150) A=matrix(c(1,-1,1,-2,0,1,1,0),nrow=4,byrow=TRUE) dir=c(">=","<=","<=","<=") b=c(0,0,30,20) resultado=lp("max",f,A,dir,b)
resultado$objval resultado$solution
INTERVALOS DE CONFIANZA Y CONTRASTE DE HIPÓTESIS: “Se rechaza H0 si p-valor es menor o igual que alpha” (primero introducir
datos)
+Una ÚNICA muestra normal
- C.H para media de una población normal: Estadisticos/Medias/Test t para una muestra ⇒ elegir variable, hipótesis alternativa, H0, nivel confianza. [p-valor]
- I.C para media de una población normal: igual que C.H, pero nos fijamos en el intervalo dado.
- I.C para varianza de una población normal: Estadisticos/Varianza/Test de varianza para una muestra ⇒ elegir variable, hipótesis alternativa, nivel de
conf.
ESTUDIO DE LA ALEATORIEDAD: Estadísticos/Test no paramétricos/Test de aleatoriedad para variable numérica ⇒ Elegir variable y mirar p-valor sobre H0=muestra
aleatoria
ESTUDIO SOBRE LA NORMALIDAD: Estadísticos/Resúmenes/Test de normalidad ⇒ Elegir variable y Shapiro-Wilk. Mirar p-valor sobre H0=variable normal
+Muestras RELACIONADAS: Ej: T1<T2 ⇒ Cambio de “variable”, despejando ⇒ T1-T2<0 ⇒ T1-T2 = D ⇒ D<0 (Hipótesis alternativa) ⇒ D=0 (H0)
-C.H para diferencia de medias: Estadisticos/Medias/Test t para datos relacionados ⇒ Datos: elegir variable; Opciones: H .alternativa y nivel de confianza [p-valor]
-I.C para diferencia de medias: igual que C.H, pero nos fijamos en el intervalo dado. Cuidado si nos pide bilateral o de otro tipo.
+Muestras INDEPENDIENTES (no relacionadas) C.H para diferencia de medias y cociente de varianzas (cuando las varianzas son desconocidas)
Primero saber si las varianzas son iguales o distintas: Estadísticos/Varianzas/Test F para dos varianzas ⇒ elegir Grupo y Variable, en opciones Hip.
alternativa y nivel de confianza. Mirar p-valor para H0 cocientes de varianzas iguales (=1); Hip. alternativa: cocientes de varianza distintas (!=1). Ahora
se hace el contraste sobre diferencia de medias: Estadísticos/Medias/Test t para muestras independientes ⇒ elegir Grupo y Variable, en opciones
[Link] (ojo!! ver cómo está seleccionada la DIFERENCIA), nivel de confianza e indicar cómo son las varianzas (según el estudio anterior).
Mirar p-valor para H0 elegida y la Hip. Alternativa correspondiente (menor, mayor o bilateral, según requerido)
+ANOVA Estadístico/Medias/ANOVA de un
factor ⇒ Elegir Grupos y Variable;
Seleccionamos: Comparaciones dos a dos
de las medias; Elegimos el NC. Miramos
p-valor [Pr(>F)] y comparamos con alpha.
Podemos ver el test de Tukey
(comparación dos a dos) y analizar sus
p-valores ahora Pr(>F)

REGRESIÓN LINEAL: Estadísticos/Ajuste de Modelo/Regresión lineal ⇒ Elegir una variable explicada (Y) y variable/s explicativa/s (X)
-Dibujar recta de regresión: (en la misma gráfica de nubes de puntos) curve(beta0+beta1*variable1+beta2*variable2,add=TRUE,col=”red”)
-Coeficiente determinación R^2: Multiple R-squared
-Coeficiente determinación corregido: R^2 corregido: Adjusted R-squared ⇒ Comparar modelos. El que tenga mayor valor es el mejor modelo.
-Relación lineal entre variables regresoras/independientes (X) y variable dependiente (Y). Mirar el último p-valor de abajo derecho [p-value] y
compararlo con el nivel de significancia sobre el contraste ⇒ H0: beta1=...=betaN=0; H1: betaN!=0 Si se rechaza H0, indica que hay al menos algún
beta distinto de cero, por lo que hay correlación lineal, es decir, las variables regresoras y la variable dependiente se relacionan linealmente.
-¿Nulo algún beta? ⇒ Contraste H0: betaN=0; H1: betaN!=0. Mirar en la tabla de coeficientes los p-valores de cada variable [Pr(>F)]. Si hay alguno
inferior al nivel de significancia, podemos rechazar H0, por lo que esos betas son distintos de cero. Si el p-valor es mayor al nivel significancia, no se
rechaza H0, por lo que hay evidencias suficientes para indicar que esos betas son iguales a cero o nulos.
-Modelo de regresión lineal simple de varias variables: valores de beta en la tabla de Coefficients, columna Estimate. y=beta0(Intercept) +
beta1*variable1...+betaN*variableN ojo!! las variables están en la tabla en orden alfabético, puede que no coincida cómo se pida en el enunciado!!
-Modelo de regresión lineal cuadrático: ⇒ crear nueva variable (x^2) ⇒ Se calcula la regresión lineal teniendo en
cuenta como variable explicada (y) y variables explicativas (x, x2)
-Intervalos de confianza: Modelos/Seleccionar el modelo activo || Modelos/Intervalos de confianza: seleccionamos el nivel de confianza.

REGRESIÓN NO LINEAL: [Link]. cuando algún beta está en el exp ⇒ linealizarlo ⇒ cambio de variable. Ejemplo: y=alpha * x^beta (tomando ln y prop.)
ln(y)=ln(alpha*x^beta)=ln(alpha) + beta*ln(x) ⇒CALCULAR NUEVAS VARIABLE⇒ y’=ln(y); alpha’=ln(alpha); x’=ln(x) ⇒ y’=alpha’ + beta*x’ (trabajar
como lineal)
Una vez calculado el modelo de regresión lineal, observamos el valor de alpha’ y beta’ del modelo lineal. Para pasar al exp ⇒ alpha = exp(alpha’)
y = alpha*x^beta’ ya que en el cambio de variable beta’=beta ⇒ ESTOS SON LOS PARÁMETROS PARA iterar Gauss-Newton (lo hace R con el
comando):
nls(y∼alfa*x^beta,data=[nombre_datos],start=list(alfa=[valor_alpha_calculado],beta=[valor_beta_calculado])) ojo!! ∼ en R: altgr+4 y espacio
-Cálculo de la bondad R^2: según la definición R^2 = 1 - (Suma cuadrado residuales / Suma cuadrados medios):
-Suma de cuadrado residuales (lo da R) como residual sum-of-squares
-Suma cuadrados medios ⇒ hay que calcularlos como (n-1)*Scy^2 ⇒ Cálculo de la desviación típica (Sd) sobre y:
Estadísticos/Resúmenes/Resúmenes Numéricos (Sd ==Scy)

También podría gustarte