Resumen de kerlingger. Metodologia de investigacion



Descargar 108.37 Kb.
Fecha de conversión14.05.2019
Tamaño108.37 Kb.


RESUMEN DE KERLINGGER. METODOLOGIA DE INVESTIGACION

PARTE UNO

CAPÍTULO UNO. LA CIENCIA Y EL ENFOQUE CIENTÍFICO.

1. Para comprender la compleja conducta humana es necesario entender el lenguaje y enfoque científicos.

2. La ciencia es una extensión sistemática de y controlada del sentido común. Hay cinco diferencias entre el sentido común y la ciencia:

a) La ciencia utiliza esquemas conceptuales y estructuras teóricas.

b) La ciencia prueba de forma sistemática y empírica las teorías e hipótesis.

c) La ciencia intenta controlar posibles causas extrañas.

d) La ciencia busca relaciones de manera consciente y sistemática.

e) La ciencia excluye explicaciones metafísicas (no demostrables).

3. Los cuatro métodos del conocimiento de Peirce son:

a) Método de la tenacidad –influenciado por las creencias pasadas ya establecidas-.

b) Método de la autoridad –determinado por el peso de la tradición o la sanción pública-.

c) Método a priori (método de la intuición) –una natural inclinación hacia la verdad-.

d) Método de la ciencia –autocorrectivo; los conceptos son objetivos y susceptibles de ser probados-.

4. Los estereotipos de la ciencia han limitado la comprensión de esta actividad por parte del público.

5. Visión y función de la ciencia

a) Una visión estática considera a la ciencia como proveedora de información para el mundo; la ciencia aporta el cuerpo de información y al estado actual del conocimiento.

b) La visión dinámica está interesada en la actividad de la ciencia (lo que hacen los científicos). Con ello aparece la visión heurística de la ciencia, que tiene un carácter de autodescubrimiento. La ciencia asume riesgos y resuelve problemas.

6. Los objetivos de la ciencia son:

a) Generar teoría y explicar los fenómenos naturales.

b) Promover la comprensión y desarrollar predicciones.

7. Una teoría tiene tres características:

a) Posee un conjunto de propiedades con base en constructos definidos e interrelacionados.

b) Determina de forma sistemática las interrelaciones entre un grupo de variables.

c) Explica fenómenos.

8. La investigación científica es una búsqueda sistemática, controlada, empírica y crítica de fenómenos naturales. La teoría e hipótesis acerca de relaciones que se presume existen entre tales fenómenos la orienta. Es pública y amoral.

9. El enfoque científico, de acuerdo con Dewey, está integrado por:

a) Problema-obstáculo-idea –formular el problema y pregunta de investigación a resolver-.

b) Hipótesis –formular un enunciado conjetural acerca de la relación entre fenómenos o variables-.

c) Razonamiento-deducción –el científico deduce las consecuencias de la hipótesis, lo cual puede conducir a un problema más significativo y generar ideas sobre cómo las hipótesis pueden ser problemas en términos observables-.

d) Observación-prueba-experimento –constituyen la fase de recolección y análisis de los datos-. Los resultados de la investigación se relacionan una vez más con el problema.


CAPÍTULO DOS: PROBLEMAS E HIPÓTESIS.

1. Formular un problema de investigación no es una tarea fácil. El investigador empieza con una noción general difusa y vaga que gradualmente se refina. Los problemas de investigación varían en gran medida y no existe un único camino correcto para enunciar el problema.

2. Tres criterios de problemas y enunciados adecuados son:

a) El problema debe expresarse como una relación entre dos o más variables.

b) El problema debe ser redactado en forma de pregunta.

c) El enunciado del problema debe implicar la posibilidad de ser sometido a una prueba empírica.

3. Una hipótesis es un enunciado conjetural de la relación entre dos o más variables. Ésta se redacta en forma de un enunciado declarativo. Los criterios para una hipótesis apropiada son los mismos que los usados para los problemas, que se señalan en el punto anterior.

4. La importancia de los problemas e hipótesis es que:

a) Constituyen un instrumento de trabajo de la ciencia y un enunciado de trabajo específico de la teoría.

b) Las hipótesis pueden ser sometidas a prueba y ser predictivas.

c) Contribuyen al avance del conocimiento.

5. Las virtudes de los problemas de y de las hipótesis son:

a) Dirigir la investigación.

b) Permiten al investigador deducir manifestaciones empíricas específicas.

c) Sirven como puente entre teoría e investigación empírica.

6. Los problemas científicos no constituyen preguntas éticas y morales. La ciencia no puede contestar preguntas de valor ó juicio.

7. Para detectar preguntas de valor es necesario buscar palabras tales como mejor que, debería, o habría que.

8. Otro defecto común de los enunciados de problemas es enlistar aspectos metodológicos como subproblemas. La falla consiste en que:

a) No son problemas sustantivos que provengan del problema básico en forma directa.

b) Están relacionados con técnicas o métodos de muestreo, medición o análisis; no se presentan en forma de pregunta.

9. En cuanto a los problemas, es necesario establecer un equilibrio para que no sea ni demasiado general ni demasiado especifico. Esta habilidad se desarrolla con la experiencia.

10. Los problemas e hipótesis deben reflejar la complejidad multivariada de la realidad del ámbito de las ciencias del comportamiento.

11. Las hipótesis representan uno de los más poderosos instrumentos inventados para obtener un conocimiento confiable. Tiene la capacidad de ser predictiva. Un hallazgo negativo para una hipótesis puede servir para eliminar una posible explicación y generar otras hipótesis y líneas de investigación.
CAPÍTULO TRES: CONSTRUCTOS, VARIABLES Y DEFINICIONES.

1. Un concepto es una expresión de una abstracción formada a partir de la generalización de un particular, por ejemplo, peso. Esta expresión se deriva de observaciones de ciertos comportamientos o acciones.

2. Un constructo es un concepto que se ha formulado para ser usado en la ciencia. Se usa en esquemas teóricos y se define de tal manera que sea susceptible de ser observado y medido.

3. Una variable se define como una propiedad que puede tomar diferentes valores; es un símbolo al que se le asignan valores.

4. Los constructos y las palabras pueden ser definidas por

a) otras palabras o conceptos.

b) descripción de una acción o conducta implícita o explícita.

5. Una definición constitutiva se da cuando los constructos están definidos por otros constructos.

6. Una definición operacional se presenta cuando se aporta el significado al especificar las actividades u operaciones necesarias para medir y evaluar el constructo. Las definiciones operacionales sólo pueden dar un significado limitado al constructo. Las definiciones operacionales sólo pueden dar un significado limitado al constructo; no pueden describir completo a un constructo o variable. Hay dos tipos de definiciones operacionales:

a) de medida –nos dice cómo será medida la variable o constructo-.

b) experimental –explica los detalles de cómo el experimentador manipula la variable (constructo)-.

7. Tipos de variables.

a) La independiente varía y es la causa supuesta de otra variable, la dependiente. En un experimento, constituye la variable manipulada, es la que está bajo control del experimentador. En un estudio no experimental, es la variable que tiene un efecto lógico en la variable dependiente.

b) El efecto de la variable dependiente se altera de forma concomitante con los cambios o variaciones en la variable independiente

c) Una variable activa se manipula. Manipulación significa que el experimentador tiene control sobre cómo cambian los valores.

d) Una variable atributiva se mide y no puede ser manipulada, es decir, es aquella donde el experimentador no tiene control sobre los valores de la variable.

e) Una variable continua es capaz de asumir un grupo ordenado de valores dentro de un cierto rango. Entre dos valores hay un número infinito de otros valores. Esta variable refleja por lo menos una categoría ordinal.

f) Las variables categóricas pertenecen a una clase de medición donde los objetos se asignan a subclases o a subgrupos, diferenciados y que no se traslapan. Se considera que todos los elementos de una misma categoría tienen la misma característica o características.

g) Las variables latentes son entidades no observables y se asume que subyacen a las variables observadas.

h) Las variables intervinientes son constructos que dan cuenta de procesos psicológicos internos no observables que explican el comportamiento. No pueden ser vistas pero se infieren a partir del comportamiento.


CAPÍTULO CUATRO: CONJUNTO, RELACIONES Y VARIANZA.

1. Los conjuntos son útiles para entender los métodos de investigación. Son el fundamento del proceso descriptivo, lógico y del pensamiento y procesamiento analítico. Constituyen la base del análisis numérico, categórico y estadístico.

2. Un conjunto es una colección bien definida de objetos o elementos. Dos formas de definir un conjunto son:

a) Enlistar todos los miembros del conjunto.

b) Aportar una regla para determinar si los objetos pertenecen o no al conjunto.

3. Los subconjuntos son parte del conjunto original. Si el conjunto entero constituye la población, entonces los subconjuntos son muestras de dicha población.

4. Las operaciones de conjuntos incluyen la intersección y la unión.

a) La intersección está compuesta por los elementos comunes a dos o más conjuntos o subconjuntos; el símbolo es:

b) La unión es la combinación de los elementos no redundantes de dos o más conjuntos o subconjuntos; el símbolo es

5. El Conjunto universal, U, se define como todos los elementos bajo consideración. Algunas veces se le llama población. El conjunto vació, E, es el conjunto que no contiene elementos o miembros. También se le llama conjunto nulo.

6. El conjunto de negación se simboliza por “˜. Al colocar este símbolo antes de un conjunto se indica que contiene miembros del conjunto universal, U, que no están contenidos en el conjunto.

7. Una partición es la división de U en subconjuntos tales que cuando se combinan, U se restituye. Otra característica indispensable de una partición es que no haya elemento alguno de un subconjunto que se traslape con los elementos de otros conjuntos.

8. Partición cruzada es la combinación de dos o más particiones diferentes. Las tablas de partición cruzada o tablas de contingencia son ejemplos de una partición cruzada que muestra la relación entre dos variables.
CAPÍTULO CINCO: RELACIONES.

1. Las relaciones son la esencia del conocimiento. Casi toda ciencia busca y estudia relaciones.

2. Las relaciones en la ciencia se dan entre clases o conjuntos de objetos.

3. Las relaciones pueden expresarse como conjuntos de pares ordenados.

4. Los pares ordenados son conjuntos de elementos con un orden fijo de aparición.

5. Hay dos conjuntos especiales: dominio e imagen de una relación.

6. La función es un tipo especial de relación que conecta elementos del dominio y de la imagen.

7. Los miembros de un conjunto se mapean en los miembros del otro conjunto por medio de una regla de correspondencia.

8. La regla de correspondencia es una recta o formula que muestra cómo se mapea los objetos.

9. Formas de estudiar relaciones:

a) Gráficas (de dos dimensiones)

b) Tablas

c) Gráficos y correlación (donde la correlación es un valor estadístico/numérico).

10. La regresión múltiple es un método estadístico que relaciona una variable dependiente a una combinación lineal de una o más variables independientes. Este procedimiento incluso puede decirle al investigador en qué medida cada variable independiente explica o se relaciona a la variable dependiente.


CAPÍTULO SEIS: VARIANZA Y COVARIANZA.

1. Las diferencias entre las mediciones son necesarias para estudiar las relaciones entre variables.

2. La varianza es una medida estadística usada para estudiar diferencias.

3. La varianza, junto con la media, se usan para resolver problemas de investigación.

4. Clases de varianza:

a) La variabilidad de una variable o característica en el universo o población es la varianza poblacional.

b) La muestra es un subconjunto del universo y también tiene variabilidad que se denomina varianza muestral.

c) La estadística calculada de una muestra a la otra varía y se llama varianza muestral.

d) La varianza sistemática es la variación de la que se puede dar cuenta. Puede ser explicada. Cualquier influencia de origen natural o humano que cause que se den eventos en alguna manera predecible es varianza sistemática.

e) Un tipo de varianza sistemática es la llamada varianza entre grupos. Cuando hay diferencias entre grupos de sujetos, y se conoce la causa de esa diferencia, se denomina varianza entre grupos.

f) Otro tipo de varianza sistemática es la varianza experimental, que es un poco más específica que la varianza entre grupos e tanto que está asociada con la varianza originada por la manipulación activa de la variable independiente.

g) La varianza del error es la fluctuación o variación de las medidas en la variable dependiente que no puede ser explicada en forma directa por las variables bajo estudio. Una parte de la varianza del error se debe al azar, lo que se conoce como varianza aleatoria. La fuente de esta fluctuación generalmente es desconocida. Otras posibles fuentes de varianza del error incluyen el procedimiento del estudio, el instrumento de medición y las expectativas del investigador.

5. Las varianzas pueden fraccionarse en sus componentes. En este caso, la palabra varianza se refiere como varianza total. La partición de la varianza total en sus componentes de varianza sistemática y varianza del error juegan un papel importante en los análisis estadísticos de los datos de investigación.

6. La varianza es la relación entre dos o más variables:

a) Es un coeficiente de correlación no estandarizado;

b) La covarianza y la varianza son fundamentos estadísticos de las estadísticas multivariadas.

CAPÍTULO SIETE: PROBABILIDAD Y MUESTREO

1. La probabilidad no es fácil de definir.

2. Hay tres definiciones amplias:

a) La a priori, implica la capacidad de la gente para dar un estimado de probabilidad en ausencia de datos empíricos.

b) La a posteriori es la definición más común usada en estadística, basada en frecuencias relativas a largo plazo.

c) El peso de la evidencia de Keynes implica dos números de probabilidad: uno es subjetivo y está basado en la cantidad de información disponible.

3. El espacio muestral es el número total de posibles resultados de un experimento. Cualquier resultado aislado es llamado punto muestral o elemento. Un evento es uno o más elementos dispuestos de tal forma que toman un significado.

4. La probabilidad de un espacio muestral es de 1.00. Los puntos muestrales y eventos son menores de 1.00. La suma de todas las probabilidades de los elementos es 1.00. A cada punto muestral se le puede asignar un peso. La suma de los pesos usados debe ser 1.00.

5. La probabilidad tiene tres propiedades fundamentales:

a) La medida de cualquier conjunto, como se definió antes, es mayor o igual a 0 (cero) y menor o igual 1. En pocas palabras, las probabilidades (medidas de los conjuntos) son 0, 1, o una cifra entre ellos.

b) La medida de un conjunto, m(A) es igual a 0 si y solamente si no hay miembros en A; esto es, que, A esté vacío.

c) Suponga que A y B son conjuntos. Si A y B no están unidos –esto es A intersección B= E- entonces m (A U B) = m(A) + m(B).

6. Un evento compuesto es la co-ocurrencia de dos o más eventos aislados (o compuestos).

7. La exhaustividad se refiere a la partición de un espacio muestral en subconjuntos. Cuando estos subconjuntos se combinan, cubren todo el espacio muestral.

8. Si la intersección de dos o más conjuntos resulta en un conjunto vacío, estos conjuntos son llamados mutuamente excluyentes.

9. Dos eventos se consideran independientes si la probabilidad de que ambos eventos ocurran es igual a la probabilidad de un evento multiplicado por la probabilidad del otro.

10. A veces, se desea calcular la probabilidad de un evento después de recibir información adicional que puede alterar el espacio muestral. Esta probabilidad se llama probabilidad condicional.

11. El teorema de Bayes implica probabilidad condicional. Las probabilidades de Bayes son efectivas para revisar probabilidades usando información adicional o nueva.


CAPÍTULO OCHO: MUESTREO Y ALEATORIDAD.

1. El muestreo se refiere a tomar una porción de una población o universo, que sea representativa de esa población o universo.

2. Los estudios que usan muestras son económicos, manejables y controlables.

3. Uno de los métodos más populares de muestreo es el muestreo aleatorio.

4. En el muestreo aleatorio se toma una porción (o muestra) de una población o universo de manera que cada miembro de la población o universo tiene la misma probabilidad de ser elegido.

5. El investigador define la población o universo. Una muestra es un subconjunto de la población.

6. Nunca se podrá estar totalmente seguro de que el muestreo aleatorio sea representativo de la población.

7. En el muestreo aleatorio, la probabilidad de seleccionar una muestra con una medida cercana a la media poblacional es mayor que la probabilidad de seleccionar una muestra con una media alejada de la media poblacional.

8. El muestreo no aleatorio puede estar sesgado, lo que aumenta las posibilidades de que la media muestral no se acerque a la media poblacional.

9. Se dice que los eventos son aleatorios si no se pueden predecir los resultados.

10. La asignación aleatoria es otro término para aleatorización. Aquí los participantes son asignados aleatoriamente a grupos de investigación. Se usa para controlar variaciones indeseables.

11. Hay dos tipos de muestras: las no probabilísticas y las probabilísticas.

12. Las muestras no probabilísticas no usan la asignación aleatoria, mientras que las probabilísticas usan el muestreo aleatorio.

13. El muestreo aleatorio simple, el muestreo aleatorio estratificado, el muestreo por racimos y el muestreo sistemático, son cuatro tipos de muestreo probabilístico.

14. El muestreo por cuotas, el muestro propositivo y el muestreo accidental son tres tipos de muestreo no probabilístico.
PARTE CUATRO. ANÁLISIS, INTERPRETACIÓN, ESTADÍSTICAS E INFERENCIA.

CAPÍTULO NUEVE: PRINCIPIOS DE ANÁLISIS E INTERPRETACIÓN.

1. El análisis es el proceso de categorizar, ordenar, manipular y resumir datos para responder a las preguntas de investigación.

2. El propósito del análisis es reducir datos a una forma interpretativa, de manera que las relaciones puedan ser estudiadas y probadas.

3. La interpretación toma los resultados del análisis y hace inferencias y discute relaciones.

4. Los datos vienen en forma de frecuencia y medidas continuas.

5. El primer paso en cualquier análisis es la categorización o partición.

6. Los tipos de análisis estadísticos son:

a) gráficos

b) medidas de tendencia central y de variabilidad

c) medidas de relaciones

d) análisis de diferencias

e) análisis de varianza

f) análisis de perfiles y análisis multivariado

7. Los índices se usan para simplificar las comparaciones. Ejemplo de índices son los porcentajes, los cocientes y las tasas o razones.

8. Los datos y la interpretación de los datos de investigación son dos áreas en las que los científicos disienten.

9. Cuando se interpretan los datos de investigación, se debe considerar la adecuación técnica de la metodología de investigación, de los procesos de medición y de la estadística utilizados.

10. Los resultados negativos o no concluyentes son mucho más difíciles de interpretar que los resultados positivos.

11. Al conducir un estudio de investigación, pueden surgir relaciones no hipotetizadas y hallazgos no anticipados.

12. Los hallazgos no predichos e inesperados deben ser tratados con más suspicacia que los hallazgos predichos y esperados.


CAPÍTULO DIEZ: EL ANÁLISIS DE FRECUENCIAS

1. Se introdujo a los fundamentos de cómo realizar el análisis con datos de frecuencia de partición cruzada.

2. La partición cruzada también es llamada tabulación cruzada, análisis de contingencia o análisis de tabla de contingencia.

3. Las variables categóricas también son llamadas variables nominales.

4. La tabulación cruzada es una presentación tabular numérica de lo datos.

5. La tabulación cruzada se usa para determinar la naturaleza de las relaciones entre variables.

6. La forma más simple de una tabulación cruzada es una tabla de 2 por 2 o una tabla de cuatro casillas

7. La regla generalmente aceptada en la construcción de las tablas de tabulación cruzada usa las columnas para los niveles de la variable independiente y los renglones para los resultados de la variable dependiente.

8. Los porcentajes en la tabulación cruzada son calculados de la variable independiente hacia la variable dependiente.

9. El estadístico chi cuadrada (х2) se usa para determinar la significancia estadística en la tabulación cruzada.

10. La significancia estadística se define como un resultado empírico que difiere significativamente de lo esperado por el azar.

11. El nivel de significancia estadístico es elegido arbitrariamente; .05 y .01 son por lo general los niveles aceptados en las ciencias del comportamiento.

12. Si un resultado observado es significativo al nivel .05, se dice que el resultado pudo ocurrir por azar en no más de cinco de cada cien ensayos del mismo experimento.

13. La V de Cramer o el coeficiente phi ( ) son medidas de asociación entre dos variables en una tabulación cruzada. El coeficiente de phi es usado en tablas de 2 por 2 y la V de Cramer es útil para tablas más grandes.

14. Tipos de tabulaciones cruzadas:

a) Unidimensional

b) Bidimensional

c) Tri y k-dimensionales

15. La especificación es el proceso de describir las condiciones bajo las cuales una relación existe o no existe.

16. Una relación es un conjunto de pares ordenados en una tabla de frecuencias.

17. El análisis de tablas multidimensionales es también llamado análisis log-lineal. Estas tablas son más complejas para analizar y requieren cálculos mucho más complejos.
ESTADÍSTICA: PROPÓSITO, ENFOQUE Y MÉTODO.

1. El principio básico que subyace al uso de las pruebas estadísticas de significancia consiste en comparar los resultados obtenidos (observados, empíricos) con lo esperado por el azar.

2. Cuatro propósitos de la estadística son:

a) reducir los datos a formas manejables y entendibles;

b) ayudar en el estudio de poblaciones y muestras;

c) ayudar en la toma de decisiones, y

d) auxiliar para realizar inferencias confiables de muestras a poblaciones.

3. Los datos binominales consisten de dos posibles resultados.

4. Bajo ciertas condiciones, la curva normal puede usarse como una aproximación de la distribución binominal.

5. La ley de los números grandes establece que cuanto más grande sea la muestra, más se acercará el valor de la muestra al valor verdadero (de la población).

6. Los eventos azarosos tienden a distribuirse en formas de curva normal.

7. El uso de la curva normal simplifica la interpretación del análisis de los datos.

8. La curva normal posee ciertas propiedades matemáticas que hacen atractivas su aplicación en el análisis e interpretación estadísticos.

9. Las puntuaciones estándar Z son transformaciones lineales (reexpresiones) de puntuaciones en bruto.

10. El uso de puntuaciones Z incrementa el poder de interpretación de los datos ya que están expresadas en “unidades de desviación estándar”.

11. Las puntuaciones Z de diferentes distribuciones pueden compararse significativamente entre sí.

12. La conversión de puntuaciones en bruto que se encuentran distribuidas normalmente en puntuaciones Z permite el empleo de la tabla de la curva normal para determinar porcentajes, áreas y probabilidades.
COMPROBACIÓN DE HIPÓTESIS Y ERROR ESTÁNDAR.
1. Error estándar es la desviación estándar de la distribución muestral de los estadísticos de la muestra.

2. Los errores estándar sirven para evaluar:

a) diferencias entre medias

b) diferencias entre las correlaciones de la muestra y cero.

3. Diferencias pequeñas pueden resultar estadísticamente significativas si el error estándar es proporcionalmente más pequeño.

4. Los errores estándar sirven como un instrumento de medición contra el que se examina la varianza experimental.

5. Monte Carlo es un método utilizado para crear datos simulados, para numerosas situaciones donde la recolección de datos puede resultar costosa o no factible.

6. El Método Monte Carlo puede ser utilizado para demostrar el comportamiento y significado del error estándar.

7. El teorema del límite central es uno de los teoremas más importantes en la estadística.

8. Con el teorema del límite central, la distribución muestral de las medias muestrales es aproximadamente normal en su forma, aunque la distribución de la cual se extrajeron las muestras no fuera normal.

9. Una hipótesis sustantiva consiste en un enunciado conjetural de la relación entre dos variables.

10. Las hipótesis estadísticas son un nuevo planteamiento de hipótesis sustantivas, en términos estadísticos.

11. Las pruebas de hipótesis involucran a las hipótesis nula y estadística.

12. Existen cinco pasos básicos para la comprobación de hipótesis.

13. El error estándar es una parte importante en la determinación del tamaño de la muestra.
PARTE CINCO CAPÍTULO 13 ANALISIS DE VARIANZA

ANALISIS DE VARIANZA: FUNDAMENTOS

1. La varianza de la variable dependiente puede descomponerse en dos o más componentes.

2. Los componentes se denominan fuentes u origen de la varianza.

3. Las fuentes de la varianza sirven como base para el método estadístico conocido como análisis de varianza o ANOVA.

4. En Un ANOVA de un factor, las fuentes de la varianza son aquellas entre los grupos y dentro de los grupos.

5. Una diferencia estadísticamente significativa se presenta cuando la varianza entre los grupos excede en gran cantidad a la varianza dentro de los grupos. Una tabla de la razón F se utiliza para determinar el valor crítico.

6. Se presenta una demostración con datos ficticios y reales respecto a cómo calcular los valores de un análisis de varianza.

7. La fuerza de la relación entre las variables independientes y dependientes está determinada, ya sea por n2 o por w2. Estas medidas no son sensibles al tamaño de la muestra y se interpretan como r2.

8. Cuando una prueba F es significativa y existen tres o más grupos (o niveles de la variable independiente), se requiere de pruebas de comparación múltiple para determinar qué medias son estadísticamente diferentes entre sí.

9. La prueba de Scheffé es una de las diversas pruebas de comparación múltiple. Cuando no hay un planteamiento determinado con respecto a comparaciones, las pruebas se llaman pruebas post hoc.

10. A las comparaciones determinadas antes de realizar la prueba se les llama comparaciones planeadas.


CAPÍTULO 14: ANÁLISIS FACTORIAL DE VARIANZA.

1. Los diseños factoriales se utilizan con frecuencia en la investigación de las ciencias del comportamiento para analizar dos o más variables independientes simultáneamente. Es posible medir el efecto conjunto de las variables independientes (interacción) sobre la variable dependiente.

2. Todos los niveles de cada variable independiente se cruzan con todos los niveles de las otras variables independientes.

3. Los diseños factoriales son capaces de manejar diseños complejos.

4. Los diseños factoriales están limitados sólo por cuestiones prácticas.

5. Estos diseños pueden manejar los efectos diferenciales de las variables y utilizar enunciados condicionales.

6. La interacción se define como la influencia combinada de dos o más variables independientes sobre una variable dependiente.

7. La interacción puede ocurrir en ausencia de cualquier efecto separado de las variables independientes.

8. Los efectos independientes separados se denominan efectos principales.

9. En el ANOVA para diseños factoriales, la suma de cuadrados total se separa en: efectos principales, efecto (s) de interacción y efecto del error (dentro de grupos). La tabla de resumen del ANOVA muestra una forma conveniente de presentar el análisis de los datos.

10. Existen dos tipos básicos de los efectos de interacción: (i) ordinal, donde una de las variables independientes es significativa junto con el efecto de interacción significativo; y (ii) disordinal, donde hay un patrón de cruce cuando se grafican las medias de las casillas.

11. Los diseños factoriales y el ANOVA para dos variables independientes se anotan como “i por j”, donde i es el número de niveles de la primera variable independiente y j es el número de niveles de la segunda variable independiente.


ANÁLISIS DE VARIANZA: GRUPOS CORRELACIONADOS.

1. Se examina el análisis de varianza para sujetos que no fueron asignados aleatoriamente, es decir, grupos no independientes (correlacionados).

2. Los sujetos o los grupos son apareados o utilizados en una situación de medias repetidas.

3. Se demuestra el ANOVA de un factor con sujetos apareados a lo largo de condiciones de tratamiento. Cuando esto ocurre, una diferencia significativa puede ser enmascarada por la correlación entre las condiciones de tratamiento y los sujetos.

4. Otra fuente sistemática de varianza es la separación de la contribución de los sujetos o bloques (correlación).

5. Con una alta correlación entre sujetos y condiciones, la cantidad de varianza sistemática extraída de la varianza no explicada, o del error, puede ser sustancial.

6. Se presenta un resumen de los tipos de ANOVA: diseño completamente aleatorizado, diseño de bloque aleatorizado, diseño factorial aleatorizado, diseño factorial mezclado y el diseño entre sujetos.

7. El diseño factorial mezclado contiene tanto grupos independientes como correlacionados.

CAPÍTULO 16: ANÁLISIS DE VARIANZA NO PARAMÉTRICOS Y ESTADÍSTICOS RELACIONADOS.

1. En el capítulo se considera el análisis de varianza para datos que provienen de una población desconocida o dudosa.

2. Se analizan las diferencias entre los métodos paramétricos (por ejemplo, prueba t, prueba F) y los métodos no paramétricos (Wilcoxon, Mann-Whitney, Kruskal-Wallis).

3. Hay cuatro supuestos importantes que algunos autores consideran que deben cumplirse para poder utilizar los métodos paramétricos:

a) Supuesto de normalidad

b) Homogeneidad de la varianza

c) Continuidad e intervalos de medición iguales

d) Independencia de las observaciones

4. Los resultados de la investigación respecto a lo que sucede al utilizar los métodos paramétricos cuando dichos supuestos son violados, han sido contradictorios.

5. Aún existe controversia respecto a cuál de los métodos es superior la mayoría de las veces.

6. La cobertura de los métodos no paramétricos del análisis de varianza incluye:

a) ANOVA no paramétrico de un factor de Kruskal-Wallis

b) Prueba de Friedman para un ANOVA de dos factores.

c) Coeficiente de concordancia de Kendall.


PARTE SEIS: DISEÑOS DE INVESTIGACIÓN

CONSIDERACIONES ÉTICAS EN LA REALIZACIÓN DE INVESTIGACIÓN EN CIENCIAS DEL COMPORTAMIENTO.

1. Los estudios Tuskegee usaron una forma de engaño y con frecuencia son citados como razones del porqué la investigación científica con humano y animales necesita ser regulada.

2. El fraude constituye también un asunto de preocupación, puesto que el trabajo de investigadores Burt y Breauning ejerció gran influencia en la legislación y en cómo la gente se percibía a sí misma y a los demás.

3. Organizaciones como la American Psychological Association establecen lineamientos sobre la ética en la investigación. También han establecido consejos de revisión.

4. Los investigadores están obligados a no provocar daño físico ni psicológico a los participantes de la investigación.

5. Los investigadores necesitan investigar de tal manera que se produzca información útil.

6. Las normas éticas establecidas por la American Psychological Association incluyen lineamientos para la planeación de la investigación, protección de los participantes, confidencialidad, desengaño, engaño, consentimiento informado y libertad de coerción.

7. También se proporcionan lineamientos para el empleo de animales en investigación, sobre su cuidado, alimentación y alojamiento, y qué hacer con los animales al finalizar el estudio.
CAPÍTULO 18. DISEÑO DE INVESTIGACIÓN: PROPÓSITO Y PRINCIPIO

1. Los diseños de investigación son planes y estructuras utilizados para responder preguntas de investigación.

2. Los diseños de investigación tienen dos propósitos básicos: (i) proporcionar respuestas a preguntas de investigación, y (ii) controlar la varianza.

3. Los diseños de investigación funcionan en conjunto con las hipótesis de investigación para generar una respuesta confiable y válida.

4. Los diseños de investigación también pueden indicar qué prueba estadística emplear para analizar los datos recolectados a partir de ese diseño.

5. Hablar de controlar la varianza, puede referirse a uno o más de tres cuestiones:

* maximizar la varianza sistemática

* controlar la varianza extraña

* minimizar el error

6. Para maximizar la varianza sistemática debe tenerse una variable independiente, cuyos niveles sean muy distintos entre sí.

7. Para controlar la varianza extraña, el investigador necesita eliminar los efectos de una variable independiente potencial sobre la variable dependiente, lo cual puede hacerse por medio de:

* mantener constante la variable independiente; por ejemplo, si se sabe que el género tiene un efecto potencial, entonces puede mantenerse constante al realizar el estudio incluyendo sólo un género (por ejemplo mujeres).

* la aleatorización, que se refiere a elegir participantes de manera aleatoria y después asignar aleatoriamente a cada grupo de participantes a las condiciones de tratamiento (niveles de la variable independiente).

* incorporar la variable extraña al diseño, convirtiéndola en una variable independiente.

* apareando a los participantes, este método de control puede resultar difícil en ciertas situaciones; un investigador nunca podrá estar muy seguro de que se realizó un apareamiento exitoso en todas las variables importantes.

8. Minimizar la varianza del error incluye la medición de la variable dependiente. Al reducir el error de medición se reduce la varianza del error. El incremento en la confiabilidad de la medición también conlleva una reducción de la varianza del error.


CAPÍTULO 19: DISEÑOS INADECUADOS Y CRITERIOS PARA EL DISEÑO.

1. El estudio de diseños inadecuados ayuda al investigador a diseñar mejores estudios al saber qué dificultades evitar.

2. Los diseños no experimentales son aquellos con variables independientes no manipuladas y con ausencia de asignación o selección aleatorias.

3. Los diseños inadecuados incluyen el diseño de “estudio de caso de un disparo”, el diseño pretest-postest simulado y el diseño de dos grupos sin control.

4. Los diseños inadecuados se analizan en términos de su validez interna.

5. La validez interna implica qué tanto el experimentador puede establecer el efecto de la variable independiente sobre la variable dependiente. A mayor confianza del investigador respecto a la variable independiente manipulada, más fuerte será la validez interna.

6. Los estudios no experimentales son más débiles en cuanto a la validez interna que los estudios experimentales.

7. Existen ocho clases básicas de variables extrañas, las cuales, si no son controladas, pueden confundirse con la variable independiente. Las ocho clases básicas se denominan amenazas a la validez interna.

8. Las amenazas a la validez interna, según Campbell, se enumeran como sigue:

* Historia

* Maduración

* Prueba o medición

* Instrumentación

* Regresión estadística

* Selección

* Mortalidad experimental o abandono

* Interacción selección-maduración

9. La validez externa implica qué tan fuerte es la afirmación que el experimentador puede hacer respecto a la generalización de los resultados del estudio.


CAPÍTULO 20: DISEÑOS GENERALES DE INVESTIGACIÓN

1. El diseño de un estudio es el proyecto o plan para desarrollar la investigación.

2. Un diseño es un subconjunto de un producto cartesiano cruzado de varios niveles de la variable independiente.

3. El diseño experimental es aquel donde se manipula al menos una de las variables independientes utilizadas en el estudio.

4. Los diseños no experimentales son aquellos en los cuales no hay aleatorización para igualar los grupos antes de administrar los tratamientos.

5. Generalmente el método estadístico más apropiado para los diseños experimentales es el análisis de varianza.

6. Los supuestos del análisis de varianza con frecuencia se violan en los diseños no experimentales. La regresión múltiple puede ser un método de análisis de datos más apropiado para diseños no experimentales.

7. El diseño de grupo experimental-grupo control con participantes aleatorizados es el mejor para muchos estudios de investigación experimentales del comportamiento.

8. El diseño de cuatro grupos de Solomon maneja varias de las preocupaciones de la investigación del comportamiento. Sin embargo, utiliza los recursos de dos estudios y quizá no resulte eficiente económicamente.

9. El diseño 20.2 es como el diseño 20.1, excepto que utiliza participantes apareados.

10. El uso de participantes apareados se vuelve útil en situaciones donde la aleatorización no funciona apropiadamente.

11. Existen varias formas de aparear participantes. La más popular es el método de individuo por individuo.

12. El apareamiento tiene problemas en cuanto a que el investigador nunca puede estar seguro de que todas las variables importantes hayan sido utilizadas en el proceso. Además, si se utilizan demasiadas variables en el apareamiento, se vuelve más difícil encontrar participantes con características iguales.

13. El diseño 20.3 utiliza un pretest; cuya aplicación es una forma para determinar si los grupos son iguales o si funcionó la aleatorización. Sin embargo, aplicar un pretest también sensibiliza a los participantes del experimento.

14. Las puntuaciones de diferencia se utilizan con frecuencia en diseños que incluyen un pretest. Sin embargo, las puntuaciones de diferencia pueden no ser confiables.

15. EL diseño 20.4 es un diseño de antes-después simulado que utiliza participantes aleatorizados. El segundo grupo (control) tan sólo se mide en un pretest. El grupo experimental recibe el tratamiento y el postest.



16. El diseño 20.5 es un diseño de tres grupos antes-después. Es como el diseño 20.3, excepto por la introducción de un tercer grupo que recibe tratamiento y porque no se utiliza un pretest.





Compartir con tus amigos:


La base de datos está protegida por derechos de autor ©psicolog.org 2019
enviar mensaje

    Página principal
Universidad nacional
Curriculum vitae
derechos humanos
ciencias sociales
salud mental
buenos aires
datos personales
Datos personales
psicoan lisis
distrito federal
Psicoan lisis
plata facultad
Proyecto educativo
psicol gicos
Corte interamericana
violencia familiar
psicol gicas
letras departamento
caracter sticas
consejo directivo
vitae datos
recursos humanos
general universitario
Programa nacional
diagn stico
educativo institucional
Datos generales
Escuela superior
trabajo social
Diagn stico
poblaciones vulnerables
datos generales
Pontificia universidad
nacional contra
Corte suprema
Universidad autonoma
salvador facultad
culum vitae
Caracter sticas
Amparo directo
Instituto superior
curriculum vitae
Reglamento interno
polit cnica
ciencias humanas
guayaquil facultad
desarrollo humano
desarrollo integral
redes sociales
personales nombre
aires facultad