miércoles, 29 de marzo de 2017

VÍDEO DE AGRUPACIÓN DE DATOS EN SPSS

VÍDEO DE AGRUPACIÓN DE DATOS EN SPSS

En el siguiente vídeo se realiza la agrupación de datos en spss.


INVESTIGACIÓN DE: TABLAS DE CONTINGENCIA O DOBLE ENTRADA, CHI-CUADRADO, CORRELACION Y COEFICIENTE DE INCERTIDUMBRE

INVESTIGACIÓN


TABLAS DE CONTINGENCIA O DOBLE ENTRADA:


La tabla de contingencia es una tabla de doble entrada, donde en cada casilla figurará el número de casos o individuos que poseen un nivel de uno de los factores o características analizadas y otro nivel del otro factor analizado. 



donde 
nij = número de observaciones que tienen el atributo i y j 
ni. = número de individuos que tienen el atributo i (marginal i) 
n.j = número de individuos que tienen el atributo j (marginal j) 

La tabla de contingencia se define por el número de atributos o variables que se analizan conjuntamente y el número de modalidades o niveles de los mismos. El ejemplo propuesto es una tabla de contingencia 2x2, ya que tiene dos atributos (FUMA Y SEXO) y cada uno de ellos tiene dos niveles. Si quisiéramos analizar conjuntamente tres variables nominales, como por ejemplo, Fumar, Sexo y Edad, y esta última variable tuviera tres niveles (<20 años, de 20 a 40 años, >40 años), obtendríamos tres tablas como la anterior, una para cada modalidad de edad y la tabla de contingencia tendría una dimensión 3´2´2

Las tablas de contingencia tienen dos objetivos fundamentales: 

1) Organizar la información contenida en un experimento cuando ésta es de carácter bidimensional, es decir, cuando está referida a dos factores (variables cualitativas).

En esta tabla se puede observar en primer lugar que de los 233 individuos de los que se tiene información 108 son hombres y 125 son mujeres. Asimismo se sabe que 123 de ellos fuman y 110 no. La tabla de contingencia nos permite tener información cruzada sobre ambas variables: de los 108 hombres, 65 fuman y 43 no, mientras que en el caso de las mujeres, 58 fuman y 67 no.

2) A partir de la tabla de contingencia se puede además analizar si existe alguna relación de dependencia o independencia entre los niveles de las variables cualitativas objeto de estudio. El hecho de que dos variables sean independiente significa que los valores de una de ellas no están influidos por la modalidad o nivel que adopte la otra. 


Chi-cuadrado


• Es una prueba no paramétrica de comparación de proporciones para dos y más de dos muestras independientes, debe cumplir las siguientes características: 
  1.  Los datos se ajustan a la distribución de chi cuadrada
  2. Nivel nominal de la variable dependiente


• Su función es comparar dos o más de dos distribuciones de proporciones y determinar que la diferencia no se deba al azar (que las diferencia sea estadísticamente significativa).

• Parte de la distribución de frecuencias de dos variables cruzadas, representadas en las llamadas tablas cruzadas. 

• Se pueden comparar 2 tipos de distribuciones de frecuencias o proporciones: 
  1. Cuando las dos variables tienen cada una dos valores (2 X 2).
  2. Cuando alguna o las dos variables tiene más de dos valores.








Para las tablas con dos filas y dos columnas, seleccione Chi-cuadrado para calcular el chi-cuadrado de Pearson, el chi-cuadrado de la razón de verosimilitud, la prueba exacta de Fisher y el chi-cuadrado corregido de Yates (corrección por continuidad). Para las tablas 2x2, se calcula la prueba exacta de Fisher cuando una tabla (que no resulte de perder columnas o filas en una tabla mayor) presente una casilla con una frecuencia esperada menor que 5. Para las restantes tablas 2x2 se calcula el chi-cuadrado corregido de Yates. Para las tablas con cualquier número de filas y columnas, seleccione Chi-cuadrado para calcular el chi-cuadrado de Pearson y el chi-cuadrado de la razón de verosimilitud. Cuando ambas variables de tabla son cuantitativas, Chi-cuadrado da como resultado la prueba de asociación lineal por lineal.


Correlaciones

El concepto de relación o correlación entre dos variables se refiere al grado de parecido o variación conjunta existente entre las mismas. En este apartado vamos a estudiar un tipo particular de relación llamada lineal y se limita a considerar únicamente el caso de dos variables cuantitativas (correlación simple). 

Una relación lineal positiva entre dos variables X e Y significa que los valores de las dos variables varían de forma parecida: los sujetos que puntúan alto en X tienden a puntuar alto en Y y los que puntúan bajo en X tienden a puntuar bajo en Y. Una relación lineal negativa significa que los valores de ambas variables varían justamente el revés. 

La forma más directa de formarse una primera idea sobre el tipo de relación existente entre dos variables cuantitativas es a través de un Diagrama de dispersión. Este tipo de diagramas puede obtenerse mediante: Gráficos, en las diferentes opciones que tiene: Generador de Gráficos, Cuadros de diálogo antiguos o en Gráficos interactivos.

Para poder cuantificar el grado de relación lineal existente entre dos variables cuantitativas, así como medir el grado de ajuste de la nube de puntos a una recta, vamos a estudiar coeficientes de correlación. 

En el procedimiento de Tablas de Contingencia ya se puede obtener el coeficiente de correlación de Pearson, en este apartado estudiaremos el procedimiento Correlaciones que incluye tres opciones (1) Bivariadas, para el estudio de la relación entre dos variables cuantitativas, (2) Parciales, para el estudio de la relación entre dos variables cuantitativas cuando se controla o elimina el efecto de terceras variables y (3) Distancias, para el estudio de la relación entre dos variables cualesquiera que sea su nivel de medida.

2.- CORRELACIONES BIVARIADAS 

El procedimiento Correlaciones divariadas ofrece tres tipos de coeficientes: rxy de Pearson, tau-b de Kendall y rho de Spearman. 

Para acceder a este procedimiento, elegir: 
  1.  Analizar 
  2.  Correlaciones 
  3.  Divariadas…


La lista de variables sólo muestra las variables que poseen formato numérico. Es necesario trasladar al menos dos variables.

Coeficientes de Correlación. Pueden seleccionarse uno o más de los tres siguientes coeficientes:

- Peason: Es una medida de la asociación lineal entre dos variables. Los valores del coeficiente de correlación van de -1 a 1. El signo del coeficiente indica la dirección de la relación y su valor absoluto indica la fuerza. Los valores mayores indican que la relación es más estrecha.

- Tau-b de Kendall: Es una medida no paramétrica de asociación para variables ordinales o de rangos que tiene en consideración los empates. El signo del coeficiente indica la dirección de la relación y su valor absoluto indica la magnitud de la misma, de tal modo que los mayores valores absolutos indican relaciones más fuertes. Los valores posibles van de -1 a 1, pero un valor de -1 o +1 sólo se puede obtener a partir de tablas cuadradas.

- Spearman: Versión no paramétrica del coeficiente de correlación de Pearson, que se basa en los rangos de los datos en lugar de hacerlo en los valores reales. Resulta apropiada para datos ordinales, o los de intervalo que no satisfagan el supuesto de normalidad. Los valores del coeficiente van de -1 a +1. El signo del coeficiente indica la dirección de la relación y el valor absoluto del coeficiente de correlación indica la fuerza de la relación entre las variables. Los valores absolutos mayores indican que la relación es mayor.

Prueba de significación. Junto con cada coeficiente de correlación, el Visor ofrece la información necesaria para contrastar la hipótesis nula de que el valor poblacional del coeficiente es cero. El SPSS permite seleccionar el nivel crítico deseado:

- Bilateral: Probabilidad de obtener resultados tan extremos como el obtenido, y en cualquier dirección, cuando la hipótesis nula es cierta. Un nivel de significación bilateral (de dos colas) contrasta una hipótesis nula en la que la dirección del efecto no se especifica de antemano.

- Unilateral: Probabilidad de obtener un resultado tan extremo como el observado, y en la misma dirección, cuando la hipótesis nula es cierta. Contrasta la hipótesis nula en la que se especifica con antelación la dirección del efecto.

Marcar las correlaciones significativas. Esta opción, que se encuentra activa por defecto, Marca con un asterisco los coeficientes de correlación significativos al nivel 0,05 y, con dos asteriscos, los significativos al nivel 0,01.

OPCIONES
El subcuadro Opciones permite solicitar estadísticos adicionales y determinar el tratamiento de los valores perdidos.


3.-CORRELACIONES PARCIALES

El procedimiento de Correlaciones parciales permite estudiar la relación existente entre dos variables cuantitativas controlando el posible efecto de una o más variables cuantitativas extrañas. Un coeficiente de correlación parcial es una técnica de control estadístico que expresa el grado de relación lineal entre dos variables tras eliminar de ambas el efecto atribuible a terceras variables.

Para acceder al procedimiento:
  1. Analizar
  2. Correlaciones
  3. Parciales…




En Variables se trasladan las variables numéricas que se quieren correlacionar y en Controlando para se trasladan las variables cuyo efecto se desea controlar.
Se habla de correlación de primer orden (r12.3), para indicar que se está controlando el efecto de una variable; de segundo orden (r12.34 ), para indicar que se está controlando el efecto de dos variables; etc.

Prueba de significación. Es exactamente como en Bivariadas pero para los coeficientes parciales, dando opción a elegir el tipo de nivel crítico deseado.

Mostrar el nivel de significación real. Se muestran la probabilidad y los grados de libertad para cada coeficiente. Es una opción activa por defecto, cuando se desactiva el Visor muestra un asterisco al lado de los coeficientes de correlación significativos al nivel 0,05 y, con dos asteriscos, los significativos al nivel 0,01.

OPCIONES

El subcuadro Opciones permite solicitar estadísticos adicionales y determinar el tratamiento de los valores perdidos.



4.- DISTANCIAS

Los coeficientes de correlación vistos son formas de cuantificar la distancia entre dos variables, pero existen otras muchas formas de hacerlo. El procedimiento Distancias incluye un gran número de medidas que se diferencian, básicamente, por el tipo de datos para el que han sido diseñadas. Estas medidas pueden utilizarse tanto para obtener distancias entre variables como entre casos. Llamaremos elemento tanto a los casos como a las variables.

Para acceder al procedimiento:

  1. Analizar
  2. Correlaciones
  3. Distancias…


 En Variables se trasladan las variables cuya distancia se desea calcular (o las variables en las que debe basarse la distancia entre casos).

En Etiquetar los casos mediante: Por defecto, en los resultados los casos se identifican mediante el número de caso. De manera opcional, puede utilizar los valores de una variable de cadena para identificar los casos.

Calcular distancias. El procedimiento permite calcular distancias entre casos y entre variables, en ambos opciones las distancias se calculan a partir de las puntuaciones de los casos en el conjunto de variables seleccionadas.

Medida. Las medidas de distancias están agrupadas en dos bloques: Disimilaridad y Similaridad. El botón Medidas... de este recuadro conduce a un subcuadro de diálogo que permite elegir la media de distancia que se desea utilizar, tiene dos versiones (que se diferencian por el tipo de medida que ofrecen) dependiendo de la opción marcada en el recuadro:

- Disimilaridades: Medidas de diferencias o lejanía. Los valores más altos indican que los elementos son muy distintos o que se encuentran muy alejados.

- Similaridades: Medidas de parecido o cercanía. Los valores más altos indican que los elementos son muy parecidos o que se encuentran muypróximos.

Coeficiente de incertidumbre

COEFICIENTE DE INCERTIDUMBRE (THEIL, 1970): Es una medida semejante a lambda y tau en Cuanto  a su concepción de la asociación de las variables, en relación a la capacidad predictiva y la disminución del error de dicha predicción. La diferencia estriba en su cálculo ya que en este caso la expresión de estos coeficientes depende de toda la distribución y no sólo de los valores modales, por lo que sólo toma el valor 0 en casos de total independencia. Ésta es su ventaja respecto a lambda, pero es más difícil de interpretar. Oscila entre 0 y 1.

Posee dos versiones asimétricas (dependiendo de cuál de las dos variables se considera independiente) y una simétrica (cuando no se hace distinción entre variable dependiente e independiente).



Es la medida de asociación que refleja la reducción proporcional en el error cuando se utilizan los valores de una variable para pronosticar los valores de la otra variable. Por ejemplo, un valor de 0,83 indica que el conocimiento de una variable reduce en un 83% el error al pronosticar los valores de la otra variable. El programa calcula tanto la versión simétrica como la asimétrica del coeficiente de incertidumbre.

REFERENCIA BIBLIOGRAFICAS

Escuela Superior de Informática. (s/f). Prácticas de Estadística: Correlaciones con SPSS. 

Eva Medina Moral & José Vicéns Otero.(2005).  Análisis de datos cualitativos 

Juárez, Villatoro & López, (2011). Chi cuadrada (X2). Consulta realizada el 28 de Marzo de 2017 en http://www.rincondepaco.com.mx/rincon/Inicio/Apuntes/Proyecto/archivos/Documentos/Chi.pdf

Santiago de la Fuente Fernandez. (2011). Análisis de Variables Categóricas: Tablas de Contingencia. Universidad Autónoma de Madrid.


martes, 28 de febrero de 2017

ANÁLISIS DE DATOS CUANTITATIVOS EN SPSS

Análisis de Datos Cuantitativos en SPSS






CONCLUSION

SPSS es una herramienta estadística informática fácil y practica. En el ámbito educativo es una herramienta que posibilita la recabación y análisis de datos para elaborar conclusiones que expliquen la situación estudiada. Para adentrarnos al uso del programa nos dimos a la tarea de realizar una mini-encuesta a 23 alumnos del 7° B de la licenciatura en pedagogía de la UNACH.
Las preguntas ejes fueron:
  1. ¿Usas el celular en Clase?😀
  2. ¿Cuantos Colectivos tomas para ir a clase?😁
Con base a los resultados obtenidos y a los cuadros que se muestran anteriormente podemos decir que mas del 80% de los alumnos usa el celular en clase, esta situación nos lleva a suponer que el uso del celular puede ser el principal distractor en el salón de clases y puede originar que los alumnos no presten atención a cuestiones que son relevantes para su formación pedagógica.

El análisis de la segunda pregunta nos lleva a decir que un 45% de los alumnos no toma ningún colectivo para venir a clases, eso se debe posiblemente a que para los alumnos es mas cómodo vivir en un lugar cercano a la institución educativa, ademas de que eso facilita el tiempo de llegada a la institución y las facilidades para ir en el momento en que se desee. Ademas un 40% de los alumnos toma un colectivo y son muy pocos los que toman 2 colectivos.

Finalmente reconocemos la importancia de usar programas como spss para el análisis de datos cuantitativos por las grades ventajas que proporciona y gracias a dicho programa pudimos elaborar este análisis de Datos.



martes, 7 de febrero de 2017

Elaboracion del Digrama de Gantt-Cronograma de Actividades

 Diagrama de Gantt-Cronograma de Actividades

El diagrama de Gantt es una herramienta que nos permite planificar nuestras las actividades a realizar en un proyecto de investigación. Brinda la facilidad de llevar el control, la administración y el la distribución del tiempo. Sin duda es una Herramienta con muchas utilidades y grandes beneficios organizativos.

A continuación se muestra el cronograma de actividades, mismas que orientaran las acciones del proyecto de investigación.

El diagrama que se presenta está sujeto a cambios dependiendo del avance del proyecto y las observaciones de nuestro asesor de proyecto.


martes, 31 de enero de 2017

ENCUESTA KINKERT

ENCUESTA LINKERT

ESTADÍSTICA DESCRIPTIVA

ESTADÍSTICA DESCRIPTIVA


La aplicación del tratamiento estadístico tiene dos fases fundamentales:

1. Organización y análisis inicial de los datos recogidos.
2. Extracción de conclusiones válidas y toma de decisiones razonables a partir de ellos.

Los objetivos de la Estad´ıstica Descriptiva son los que se abordan en la primera de estas fases. Es decir, su misión es ordenar, describir y sintetizar la información recogida. En este proceso ser´a necesario establecer medidas cuantitativas que reduzcan a un número manejable de parámetros el conjunto (en general grande) de datos obtenidos. 
La realizaci´on de gr´aficas (visualización de los datos en diagramas) también forma parte de la Estadística Descriptiva dado que proporciona una manera visual directa de organizar la información. 

La finalidad de la Estad´ıstica Descriptiva no es, entonces, extraer conclusiones generales sobre el fenómeno que ha producido los datos bajo estudio, sino solamente su descripci´on (de ah´ı el nombre).

“La Estadística Descriptiva es el estudio que incluye la obtención, organización, presentación y descripción de información numérica”.

Bajo el término “Estadística Descriptiva” se engloban las técnicas que nos permitirán realizar un análisis elemental de las observaciones experimentales observadas.  

Se subdivide en dos bloques :  
1º Estadística primaria : Obtenido un grupo de observaciones experimentales, este apartado nos enseña a ordenarlas adecuadamente, de modo que se ofrezca una información lo más clara posible. 
2º Estadística derivada o secundaria : Con los datos observados realizaremos ciertos cálculos, obteniendo así unas medidas. Este bloque temático nos enseña a interpretarlas.  

PROCEDIMIENTO A SEGUIR EN UN ESTUDIO ESTADÍSTICO

El proceso seguido en el estudio estadístico de una cierta característica o variable, puede subdividirse en tres pasos sucesivos :  

A RECOGIDA DE DATOS :  Planteado el test o encuesta oportuno y recogidos los datos que correspondan, el primer análisis que realizaremos es el del tipo de variable que pretendemos estudiar (Cualitativa o Cuantitativa ; Discreta o Continua). Esto condicionará en gran medida su posterior tratamiento. 
B ORGANIZACIÓN DE LOS DATOS :  Determinado el modo de agrupamiento de las observaciones, procedemos a su recuento, construyendo la tabla de frecuencias. Posteriormente podremos visualizar tales frecuencias de forma gráfica con el diagrama estadístico apropiado.  
C ANÁLISIS FINAL :  La obtención de muy diversas conclusiones respecto de la variable estudiada, se podrá realizar con auxilio de los diferentes parámetros estadísticos (de centralización , posición , dispersión , etc.) 
VARIABLES ESTADÍSTICAS. CLASIFICACIÓN
El aspecto que deseamos estudiar (edad, sexo, peso, ...) recibe el nombre de VARIABLE ESTADÍSTICA. A lo largo de esta unidad observaremos, que las técnicas estadísticas a seguir serán diferentes según el tipo de variable objeto de estudio. 
 La clasificación más tradicional de las variables estadísticas es la siguiente : 

CUALITATIVAS  
Los valores de las observaciones quedan expresados por características o atributos. 
Por ejemplo : Estado civil ; Color preferido ; Nivel de estudios ; Raza ; ...  
Dentro de ellas podremos subdividirlas en función de que puedan ser ordenadas (Nivel de estudios) o no tenga sentido una determinada ordenación que se establezca (Color preferido, Razas, ...).  

CUANTITATIVAS  
Los valores de las observaciones son numéricos (cuantificables) y, en consecuencia, ordenables. 
A su vez las variables cuantitativas se subdividen en dos tipos :   

DISCRETAS :   Toman valores concretos (Nº de hijos : 0, 1, 2, ...)  
CONTINUAS :   Pueden tomar cualquier valor de un cierto intervalo (Peso ; Estatura ; ...). 

GRÁFICOS ESTADÍSTICOS

La norma que hemos de seguir en la construcción de un gráfico estadístico es siempre : "La zona que identifica a cada valor será proporcional a su frecuencia"  

Los diagramas usuales son los que se describen a continuación. 

A) Diagramas de barras: Para variables cualitativas o cuantitativas no agrupadas en intervalos. 

FUNDAMENTO : Sobre un eje (normalmente el horizontal) marcamos los valores de la variable, dibujando sobre cada uno de ellos una barra cuya longitud sea proporcional a la frecuencia que se esté visualizando. Si la variable representada es cuantitativa, enlazando los extremos de las barras obtendremos el POLÍGONO DE FRECUENCIAS, denominado PERFIL ORTOGONAL para cualitativas ordenables .  

B) Histogramas: Representativo de las variables agrupadas en intervalos.  

FUNDAMENTO : Sobre el eje horizontal marcamos los distintos intervalos, dibujando sobre cada uno de ellos un rectángulo cuya área sea proporcional a la frecuencia que se esté visualizando (Si todos los intervalos tienen la misma amplitud, nos bastará con que la altura de los rectángulos sea proporcional a las frecuencias). 
POLÍGONOS DE FRECUENCIAS : Si la frecuencia representada no es acumulada, enlazamos los puntos medios de los extremos superiores de los rectángulos. Para frecuencias acumuladas, el polígono de frecuencias se obtiene de la forma indicada en el gráfico.

C) Diagramas de sectores: Utilizable en cualquier tipo de variable.  

FUNDAMENTO : Dividimos el círculo en sectores circulares, de modo que la amplitud de cada sector, sea proporcional a la frecuencia. Junto a cada sector, se suele indicar el valor representado. Es aconsejable la expresión de las amplitudes de los sectores en % (porcentajes p ).

D) Pictogramas: Utilizable en todo tipo de variables, especialmente con las cualitativas. 

FUNDAMENTO : Es el mismo que se sigue para la construcción de los diagramas de barras y histogramas. La diferencia estriba en que, en lugar de dibujar una barra o un rectángulo, se dibuja una figura que hace referencia al problema objeto de estudio. 

E) Diagramas de áreas: Independiente de los polígonos de frecuencias (descritos en los diagramas de barras y histogramas).  

FUNDAMENTO : Indica la evolución de los valores de la variable, consistiendo en la visualización del área encerrada bajo el polígono de frecuencias. Para ello, se conecta dicho polígono con el eje de la variable (el horizontal en el gráfico), tanto a la izquierda del primer valor como a la derecha del último.   

Componentes o Medidas características de una distribución

Se definen entonces diversas medidas que serán capaces de resumir toda la información recogida a un pequen˜o nu´mero de valores. Estas medidas resumen van a permitir comparar nuestra muestra con otras y dar una idea rápida de cómo se distribuyen los datos. Es evidente que todas estas medidas solo pueden definirse para variables cuantitativas.

  • Medidas de Centralización:
Entre las medidas características de una distribución destacan las llamadas medidas de centralización, que nos indicarán el valor promedio de los datos, o en torno a qu´e valor se distribuyen estos.
  1. MEDIA ARITMÉTICA : Es el resultado de dividir la suma de todas las observaciones entre el número de ellas. La media representa entonces una especie de centro de gravedad, o centro geométrico, del conjunto de medidas. Una caracter´ıstica importante de la media como medida de tendencia central es que es muy poco robusta, es decir depende mucho de valores particulares de los datos. La media aritm´etica es por tanto muy dependiente de observaciones extremas.
  2. MEDIA GEOMÉTRICA, ARITMÉTICA Y CUADRÁTICA
  3. MEDIANA: Una medida de centralización importante es la mediana Me. Se define ´esta como una medida central tal que, con los datos ordenados de menor a mayor, el 50% de los datos son inferiores a su valor y el 50% de los datos tienen valores superiores. Es decir, la mediana divide en dos partes iguales la distribución de frecuencias o, gr´aficamente, divide el histograma en dos partes de áreas iguales. Vamos a distinguir diversos casos para su cálculo.
  4. MODA: Se define la moda Mo de una muestra como aquel valor de la variable que tiene una frecuencia máxima. En otras palabras, es el valor que más se repite. Hay que indicar que puede suceder que la moda no sea única, es decir que aparezcan varios máximos en la distribución de frecuencias. 
  5. CUARTILES, DECILES Y PERCENTILES: Definimos ahora los cuartiles como los tres valores que dividen la muestra en cuatro partes iguales. As´ı el primer cuartil Q1/4 ser´a la medida tal que el 25% de los datos sean inferiores a su valor y el 75% de los datos sean superiores.  Los deciles como aquellos valores de la variable que dividen la muestra, ordenada, en 10 partes iguales.  De la misma manera se definen los percentiles, también llamados centiles, como aquellos valores Pk (con k =1 ,2,...,99) que dividen la muestra en 100 partes iguales. 
  • Medidas de Dispersión
Estas nos indicarán la variabilidad de los datos en torno a su valor promedio, es decir si se encuentran muy o poco esparcidos en torno a su centro. Se pueden definir entonces, diversas medidas de desviación o dispersión, siendo ´estas fundamentales para la descripci´on estad´ıstica de la muestra.
  1. RECORRIDOS: Una evaluación rápida de la dispersión de los datos se puede realizar calculando el recorrido (también llamado rango), o diferencia entre el valor máximo y míınimo que toma la variable estadística. 
  2. AMPLITUD SEMI-INTERCUARTÍLICA : Esta medida de dispersión se basa en medidas de posición (Cuartiles),.Su empleo tendrá sentido en el supuesto de imposibilidad de cálculo de la media.  El no tomar en consideración a la totalidad de las observaciones, hace pensar que esta medida es poco representativa. Por ello se intenta definir las medidas de dispersión, de modo que sean el promedio de las separaciones de cada valor respecto de uno tomado como referencia (la MEDIA). 
  3. DESVIACIÓN MEDIA: Es la media de las desviaciones o separaciones de cada una de las observaciones, respecto a la media aritmética, consideradas en valor absoluto. Sustituyendo la media por la moda o la mediana, definiremos las desviaciones medias respecto de la moda y de la mediana. 
  4. VARIANZA : Es la media de los cuadrados de las desviaciones o separaciones de cada una de las observaciones, respecto a la media aritmética. 
  5. DESVIACIÓN TÍPICA : Es la raíz cuadrada de la varianza. Con ello corregimos el haber tomado cuadrados de separaciones en el cálculo de la varianza. Esta medida de dispersión es la más característica.  
  6. COEFICIENTE DE VARIACIÓN : Mide la representatividad de la media. Valores extremos del mismo nos llevarán a concluir que la media no es representativa, es decir, existirán valores entre las observaciones que se separan significativamente de las demás. Sólo puede ser utilizado cuando los valores de la variable toman valores "normales". Es decir, no son muy elevados ni muy pequeños, ya que una media próxima a cero o muy alta darían valores nulos o infinitos al coeficiente. Si la media es representativa de las observaciones (no existen valores extremos exageradamente distanciados de la mayoría), el coeficiente de variación permite comparar la dispersión de dos series estadísticas : mayor coeficiente indica menor homogeneidad, o lo que es lo mismo, mayor dispersión o variabilidad.
  • Asimetría y curtosis
La descripci´on estad´ıstica de una muestra de datos no concluye con el c´alculo de su tendencia central y su dispersi´on. Para dar una descripci´on completa es necesario estudiar también el grado de simetría de los datos respecto a su medida central y la concentraci´on de los datos alrededor de dicho valor.

1. COEFICIENTE DE ASIMETRÍA:Se dice que una distribuci´on de medidas es sim´etrica cuando valores de la variable equidistantes, a uno y otro lado, del valor central tienen la misma frecuencia.
Con el fin de cuantificar el grado de asimetría de una distribuci´on se pueden definir los coeficientes de simetría. Aunque no son los únicos, existen dos coeficientes principales:
  • Coeficiente de asimetría de Fisher:Se define como el cociente entre el momento de orden 3 respecto a la media y el cubo de la desviación típica
  • Coeficiente de asimetría de Pearson. :Su interpretación es similar a la del coeficiente de Fisher, siendo nulo para una distribuci´on sim´etrica (en ese caso media y moda coinciden) y tanto más positivo, o negativo, cuando más sesgada esté distribución hacia la derecha, o hacia la izquierda.
2. COEFICIENTE DE CURTOSIS: Recibe también el nombre de coeficiente de concentración central, midiendo el grado de aplastamiento o apuntamiento de la gráfica de la distribución de la variable estadística. Una mayor concentración de datos en torno al promedio harán que la forma sea alargado, siendo tanto más plana (o aplastada) cuanto mayor sea la dispersión de los mismos. Determina la forma de la distribución, en relación con su grado de aplastamiento. 


REFERENCIA BIBLIOGRÁFICA:

Álvarez González, F. Estadística Descriptiva:Métodos Estadísticos Aplicados a las Auditorías Sociolaborales. Consulta realizada el 31 de enero de 2017 en http://www.uco.es/zootecniaygestion/img/pictorex/27_12_49_7.pdf

Gorgas Garcia, J. (2011). Estadistica Basica para estudiantes de ciencia. Departamento de Astrofísica y Ciencias de la Atmósfera. Facultad de Ciencias Físicas. Universidad Complutense de Madrid.

García Mancilla, H.; Matus Parra Juan (S/F). Estadística descriptiva e Inferencial. COLEGIO DE BACHILLERES.

martes, 24 de enero de 2017

Encuesta:Análisis de datos cuantitativos

Análisis de los Datos Cuantitativos


En la pregunta Numero 1 se realizan las especificaciones de las formulas para poder comprender el procedimiento a realizar para Obtener los diversos resultados como son:
  • Máximo
  • Mínimo
  • Contar Números
  • Promedio
  • Moda
  • Mediana
  • Desviación Típica
Al final se integra una conclusión con base a las respuestas obtenidas por los Alumnos del 7° B de la Licenciatura de Pedagogía.

Pregunta número 1
















Pregunta número 2


Pregunta número 3


Pregunta número 4


Pregunta número 5 

Conclusión Final de la Encuesta Cuantitativa


martes, 17 de enero de 2017

ENSAYO DE LA ANALÍTICA DEL APRENDIZAJE

Video de la Analitica del Aprendizaje 







Ensayo de la Analitica del Aprendizaje 




La analítica del aprendizaje de GabrielaPerezCruz1

También te sugiero que revises los siguientes videos te serán de mucha utilidad para comprender la conceptualización de analitica del aprendizaje y sus implicaciones en el ambito Educativo:


  1.  https://www.youtube.com/watch?v=o9rVfyPVOSk&t=334s
  2. https://www.youtube.com/watch?v=cvW7J6zk_PY
  3. https://www.youtube.com/watch?v=LcEwMuze7cM

FIRMA DE LAS PREGUNTAS CUALITATIVAS Y CUANTITATIVAS