REPUBLICA BOLIVARIANA DE VENEZUELA.

UNIVERSIDAD YACAMBU. DOCTORADO EN GERENCIA. ASIGNATURA: SEMINARIO AVANZADO DE INVESTIGACION EN GERENCIA I.

MOMENTO 1

Por Pedro Bonillo

 

INTRODUCCION

El propósito de este ensayo es exponer a los participantes del Seminario Avanzado de Investigación en Gerencia I, del Doctorado en Gerencia de la Universidad Yacambú, el primer momento correspondiente al estado del arte de la estadistica y su relación con  la investigación doctoral denominada: METODOLOGÍA DE EVALUACIÓN DE LA GESTION DE LA GERENCIA DE TECNOLOGÍA DE LA INFORMACIÓN Y LA COMUNICACIÓN EN LAS ORGANIZACIONES VENEZOLANAS. Esta investigación se enmarca en la línea de investigación Liderazgo Gerencial para el Cambio Organizacional en Venezuela del CEP-UNY. Para la presentación de este momento, se inicia con una apreciación general sobre los conceptos básicos de la estadistica, tomando en cuenta que para un mayor en especial con lo relacionado a la estadistica como instrumento para la investigación se pueden consultar fuentes ampliamente utilizadas en el area tales como: , seguidemente se presenta un estado del arte sobre la utilización de la estadistica, una postura critica al respecto, la explicación de la aplicación de la estadistica al proyecto de tesis doctoral (en este punto se describe de forma especifica el instrumento a utilizar – cuestionario- y su relacion con la estadistica a través de la noción de confiabilidad, indicando un algoritmo y su expliación) y finalmente la bibliografía. A continuación se inicia con la presentación de los conceptos basicos en estadistica.

CONCEPTOS BASICOS EN ESTADISTICA

Estadística, derivado del latín status, que significa estado, posición o situación. La estadística es comúnmente considerada como una colección de hechos numéricos expresados en términos de una relación sumisa, y que han sido recopilado a partir de otros datos numéricos. Kendall y Buckland (citados por Gini V. Glas / Julian C. Stanley, 1980) definen la estadística como un valor resumido, calculado, como base en una muestra de observaciones que generalmente, aunque no por necesidad, se considera como una estimación de parámetro de determinada población; es decir, una función de valores de muestra. "La estadística es una técnica especial apta para el estudio cuantitativo de los fenómenos de masa o colectivo, cuya mediación requiere una masa de observaciones de otros fenómenos más simples llamados individuales o particulares". (Gini, 1953). Murria R. Spiegel, (1991) dice: "La estadística estudia los métodos científicos para recoger, organizar, resumir y analizar datos, así como para sacar conclusiones válidas y tomar decisiones razonables basadas en tal análisis."La estadística es la ciencia que trata de la recolección, clasificación y presentación de los hechos sujetos a una apreciación numérica como base a la explicación, descripción y comparación de los fenómenos". (Yale y Kendal, 1954). Cualquiera sea el punto de vista, lo fundamental es la importancia científica que tiene la estadística, debido al gran campo de aplicación que posee.

La aplicación de los procedimientos estadísticos se remonta hacia el año 3050 a. C., cuando se efectuó en Egipto un registro de la población y la riqueza con el fin de preparar la construcción de las pirámides. Posteriormente, egipcios, griegos y romanos, efectuaron algunos censos con fines tributarios, sociales y militares, y mucho más tarde, en el siglo XVI, se publicaron en Alemania, Italia y Francia inventarios estadísticos.

      Aunque en un principio la estadística surge a partir de la elaboración de censos, actualmente se extiende su aplicación a numerosos campos gracias a la multidisciplinarida y la transdisciplinaridad. En general se podía decir que la estadística resuelve problemas en tres grandes tipos de situaciones:

a) - Cuando se trata de resumir o describir un conjunto de datos. Estadística descriptiva

b) - Cuando tratamos de "conocer o estimar alguna característica de las poblaciones o situaciones de donde proceden nuestros datos muestrales. Técnicas de Estimación

c) - Finalmente cuando tratamos de decidir entre dos opciones o hipótesis de trabajo. Analizamos la información muestral  mediante técnicas de Contraste de hipótesis (pruebas estadísticas) decidimos que hipótesis es la más compatible con los datos experimentales.

No importa lo complicada que sea la metodología estadística que se emplee, esencialmente estará incluida en una de las categorías anteriores.

El concepto de población en estadística va más allá de lo que comúnmente se conoce como tal. Una población se precisa como un conjunto finito o infinito de personas u objetos que presentan características comunes."Una población es un conjunto de todos los elementos que estamos estudiando, acerca de los cuales intentamos sacar conclusiones". Levin & Rubin (1996). "Una población es un conjunto de elementos que presentan una característica común". Cadenas (1974).

"Se llama muestra a una parte de la población a estudiar que sirve para representarla". Murria R. Spiegel (1991). "Una muestra es una colección de algunos elementos de la población, pero no de todos". Levin & Rubin (1996). "Una muestra debe ser definida en base de la población determinada, y las conclusiones que se obtengan de dicha muestra solo podrán referirse a la población en referencia", Cadenas (1974).

Las variables, también suelen ser llamados caracteres cuantitativos, son aquellos que pueden ser expresados mediante números. Son caracteres susceptibles de medición. Como por ejemplo, la estatura, el peso, el salario, la edad, etc.

Según, Murray R. Spiegel, (1992) "una variable es un símbolo, tal como X, Y, Hx, que puede tomar un valor cualquiera de un conjunto determinado de ellos, llamado dominio de la variable. Si la variable puede tomar solamente un valor, se llama constante." Todos los elementos de la población poseen los mismos tipos de caracteres, pero como estos en general no suelen representarse con la misma intensidad, es obvio que las variables toman distintos valores. Por lo tanto estos distintos números o medidas que toman los caracteres son los "valores de la variable". Todos ellos juntos constituyen una variable. Los atributos también llamados caracteres cualitativos, son aquellos que no son susceptibles de medición, es decir que no se pueden expresar mediante un número.

Formas de Observar la Población. Atendiendo a la fuente se clasifican en directa o indirecta. Observación directa: es aquella donde se tienen un contacto directo con los elementos o caracteres en los cuales se presenta el fenómeno que se pretende investigar, y los resultados obtenidos se consideran datos estadísticos originales. Para Ernesto Rivas González (1997) "Investigación directa, es aquella en que el investigador observa directamente los casos o individuos en los cuales se produce el fenómeno, entrando en contacto con ellos; sus resultados se consideran datos estadísticos originales, por esto se llama también a esta investigación primaria". Observación Indirecta: es aquella donde la persona que investiga hace uso de datos estadísticos ya conocidos en una investigación anterior, o de datos observados por un tercero (persona o entidad). Con el fin de deducir otros hechos o fenómenos.

Atendiendo a la periodicidad, puede ser continua, periódica o circunstancial. Una observación continua; como su nombre lo indica es aquella que se lleva acabo de un modo permanente. Una observación periódica; es aquélla que se lleva a cabo a través de períodos de tiempo constantes. Estos períodos de tiempos pueden ser semanas, trimestres, semestres, años, etc. Lo que debemos destacar es que los períodos de tiempo tomados como unidad deben tomarse constantes en los posible. La observación circunstancial, es aquella que se efectúa en forma ocasional o esporádica, esta observación hecha más por una necesidad momentánea, que de carácter regular o permanente.

Atendiendo a la cobertura; pueden ser exhaustiva, parcial o mixta. Observación Exhaustiva. Cuando la observación es efectuada sobre la totalidad de los elementos de la población se habla de una observación exhaustiva. Observación Parcial. Dados que las poblaciones en general son grandes, la observación de todos sus elementos se ve imposibilitada. La solución para superar este inconveniente es observar una parte de esta población. Observación Mixta. En este tipo de observación se combinan adecuadamente la observación exhaustiva con la observación parcial. Por lo general, este tipo de observaciones se lleva a cabo de tal manera que los caracteres que se consideran básicos se observan exhaustivamente y los otros mediante una muestra; o bien cuando la población es muy grande, parte de ella se observa parcialmente.

Se entiende por censo aquella numeración que se efectúa a todos y cada uno de los caracteres componentes de una población. Para Levin & Rubin (1996) "Algunas veces es posible y práctico examinar a cada persona o elemento de la población que deseamos describir. A esto lo llamamos una numeración completa o censo. Utilizamos el muestre cuando no es posible contar o medir todos los elementos de la población. Si es posible listar (o enumerar) y observar cada elemento de la población, los censos se utilizan rara vez porque a menudo su compilación es bastante difícil, consume mucho tiempo por lo que resulta demasiado costoso.

Se entiende por encuesta las observaciones realizadas por muestreo, es decir son observaciones parciales. El diseño de encuestas es exclusivo de las ciencias sociales y parte de la premisa de que si queremos conocer algo sobre el comportamiento de las personas, lo mejor, más directo y simple es preguntárselo directamente a ellas. (Cadenas, 1974). Según Antonio Napolitano "La encuesta, es un método mediante el cual se quiere averiguar. Se efectúa a través de cuestionarios verbales o escritos que son aplicados a un gran número de personas".

ESTADO DEL ARTE EN ESTADÍSTICA

Como cualquier otra actividad humana, la investigación se apoya en los avances científicos y tecnológicos. Este papel primordial de la investigación en la consecución de la mejora en la cultura estadística es resaltado, entre otros por Watson (2002). Afortunadamente, en los últimos años la investigación en la que la estadística puede apoyarse ha experimentado un fuerte avance. Esta investigación comenzó en forma dispersa, a partir de diversas áreas de conocimiento. Por ejemplo, en psicología dos grupos de trabajo que se han centrado sobre esta temática han sido los de razonamiento sobre toma de decisiones en situación de incertidumbre, y los de desarrollo evolutivo del razonamiento estocástico.

Es indiscutible que el siglo XX ha sido el siglo de la estadística, que ha pasado a considerarse una de las ciencias metodológicas fundamentales y base del método científico experimental. Como sugiere Cox (1997) ha habido un aumento notable del uso de ideas estadísticas en diferentes disciplinas, que se observa en las revistas científicas y en la creciente implicación de los estadísticos en los equipos de trabajo interdisciplinario. Sin embargo, en la conferencia organizada por IASE sobre la formación de investigadores (Batanero, 2001) se puso de manifiesto que la estadística se usa incorrectamente, no se comprenden conceptos aparentemente elementales y no hay una valoración suficiente del trabajo del estadístico, dentro de los equipos de investigación.

POSTURA CRÍTICA

Las técnicas de análisis estadístico, desarrolladas hace tiempo, permiten obtener ciertas informaciones útiles, pero no inducir relaciones cualitativas generales, o leyes, previamente desconocidas; para esto se requieren técnicas de análisis inteligente ( [Frawley et al., 91] ) que todavía no han sido perfectamente establecidas. Por ello, se incrementa de forma continua la diferencia existente entre la cantidad de datos disponibles y el conocimiento extraído de los mismos. Pero cada vez más investigaciones dentro de la inteligencia artificial están enfocadas a la inducción de conocimiento en bases de datos. Consecuencia de esta creciente necesidad ha aparecido un nuevo campo de interés: la minería de datos (data mining), que incluye los nuevos métodos matemáticos y técnicas software para análisis inteligente de datos. La minería de datos surge a partir de sistemas de aprendizaje inductivo en ordenadores, al ser aplicados a bases de datos ( [Holsheimer y Siebes, 94] ), y su importancia crece de tal forma que incluso es posible que, en el futuro, los sistemas de aprendizaje se usen de forma masiva como herramientas para analizar datos a gran escala.

Watson (1997) presenta un modelo que comprende tres componentes de sofisticación progresiva: el conocimiento básico de los conceptos estadísticos y probabilísticos, la comprensión de los razonamientos y argumentos estadísticos cuando se presentan dentro de un contexto más amplio de algún informe en los medios de comunicación o en el trabajo y una actitud crítica que se asume al cuestionar argumentos que estén basados en evidencia estadística no suficiente.

Gal (2002) parte de este modelo y otros para construir el suyo propio en el que incluye elementos de conocimiento estadístico y matemático, habilidades básicas de lectura, conocimiento del contexto y capacidad crítica. Vemos pues que cultura estadística es algo más que capacidad de cálculo y conocimiento de definiciones.

Por otro lado la investigación psicológica sobre el razonamiento humano en situaciones de incertidumbre, y en particular trabajos como los recogidos en Kahneman, Slovic y Tversky (1982) muestran que las intuiciones en el campo de la probabilidad y estadística nos engañan con frecuencia. Al enfrentarnos a las situaciones cotidianas y tareas profesionales en que es preciso tomar decisiones basadas en la evaluación de probabilidades utilizamos heurísticas inconscientes que nos llevan a suprimir una parte de la información y producen decisiones sesgadas. Estas heurísticas explican sesgos tan extendidos como la falacia del jugador (esperar que cuando jugamos con una moneda u otro juego de azar, cada vez que obtenemos una pérdida, aumenta nuestra probabilidad de ganar en la próxima jugada). Un ciudadano estadísticamente culto debe ser capaz de controlar sus intuiciones sobre el azar, diferenciar las que son correctas e incorrectas y aplicar el razonamiento estadístico para controlar sus intuiciones en las situaciones de riesgo y toma de decisión. Sin embargo los alumnos llegan a la universidad con conocimientos casi nulos e intuiciones incorrectas sobre probabilidad, que les dificultarán la comprensión posterior de los conceptos de inferencia (Carrera, 2002).

APLICACIÓN DE LA ESTADISTICA EN EL PROYECTO DE TESIS DOCTORAL

En primer lugar desde la perspectiva de la tesis doctoral el instumento necesario para obtener la información que sera incluida en el modelo que permitira estudiar la gestión de la gerencia de tecnología de la información y la comunicación en las organizaciones venezonalas como reza el titulo de esta investigación doctoral sera un conjunto de cuestionarios a varios stakeholders significativos, tal como lo estipula el marco metodologico de la investigación.

Un cuestionario es una técnica de recopilación de datos que consiste en un conjunto de preguntas respecto a una o más variables a medir. El contenido de las preguntas de un cuestionario puede ser tan variado como los aspectos que se midan a través de éste. [HER at el 91]. Por otra parte, las preguntas de un cuestionario son un factor que incide fuertemente sobre la construcción de éste instrumento de medición. A raíz de esto las preguntas deben presentar una serie de características a la hora de plantearlas, las cuales son:

·        Las preguntas deben ser claras y comprensibles para los encuestados.

·        No deben incomodar al encuestado.

·        Deben referirse preferiblemente a un solo aspecto o relación lógica.

·        No deben inducir a respuestas.

·        No deben apoyarse en instituciones, ideas respaldadas socialmente ni en evidencia comprobada.

·        El lenguaje utilizado y la redacción de las preguntas deben considerar las características del encuestado.

Otro punto a considerar son los tipos de preguntas que existen: cerradas y abiertas. Las preguntas cerradas contienen categorías o posibilidades de respuesta, es decir se presentan a los sujetos posibilidades de respuestas y ellos deben circunscribirse a éstas. Por su parte, las preguntas abiertas no delimitan de antemano las alternativas de respuesta, por lo cual el número de categorías de respuestas es muy elevado. [HER at el 91].

Un factor adicional es el análisis estadístico, factor en el cual se establece la relación entre la estadistica y la investigación doctoral que se pretende realizar en las organizaciones venezolanas que gerencian tecnologia de la información y la comunicación, en este analisis estadistico se mediran las variables; para ello se necesita codificar las respuestas de los sujetos a las preguntas del cuestionario, y asignarle símbolos o valores a dichas respuestas. Las consideraciones presentadas en este punto seran cuidadosamente definidas en el proceso de elaboración de las preguntas para cada stakeholder.

La elaboración de un cuestionario se debe realizar siguiendo un proceso que garantice tanto las características intrínsecas como el cumplimiento de las exigencias impuestas por el estudio. El proceso de construcción que se propone se muestra a través de la figura 1. Este proceso  divide en dos fases:

Figura N°1 Proceso para construir un cuestionario. Fuente: Adaptado de [Her et al 91]

 

1.      Diseño del cuestionario. En esta fase se construye la primera versión del cuestionario, para lo cual es necesario determinar: los antecedentes, estructura, nivel de medición de las variables a observar y tipo, definición y escala de las preguntas.

2.      Validez y confiabilidad del cuestionario: En esta fase se determinan los indicadores de confiabilidad y validez, los cuales ayudaran a modificar, ajustar y mejorar el instrumento de medición preliminar hasta elaborar la versión final del cuestionario.

La construcción de un cuestionario es un proceso que debe considerar tanto la conceptualización de éste como los factores que inciden sobre la estructuración, funcionalidad y entorno del mismo. Según los aspectos descritos a continuación.

Diseño del cuestionario: En primer lugar, la investigación bibliográfica realizada  en el Marco Teórico de la propuesta de tesis doctoral, revelo la existencia de estudios en los cuales en forma general se pueden identificar un conjunto de preguntas que se relacionan con el modelo propuesto, estas preguntas se clasifican por cada uno de los stakeholders de acuerdo a la metodología, se diseña un cuestionario para cada stakeholder, donde se utilizan preguntas cerradas y abiertas, y las preguntas cerradas reciben un peso asociado en el modelo.

Validez y Confiabilidad: La validez es un concepto del cual pueden tenerse diferentes tipos de evidencia: relacionada con el contenido (dominio especifico de contenido de lo que se mide), relacionada al criterio (comparación con un criterio externo), relacionada con el constructo (como se relaciona consistentemente con otras mediciones de acuerdo con hipótesis derivadas teóricamente y que conciernen a los conceptos que están siendo medidos).

El cuestionario desarrollado para esta investigación doctoral será certificado a través de la validez de contenido, la cual se realizará por expertos en el área de sistema con amplias concepciones de la gerencia de tecnología de la información y la comunicación en las empresas venezolanas. Estos expertos serán: dos especialistas con formación de cuarto nivel, especializados en el área de sistemas, que realizan trabajo de campo en la organización interna y trabajo de investigación sobre el comportamiento de la misma. Para la validación del cuestionario, será necesaria la revisión donde cada experto expresara diversas observaciones sobre el instrumento de recopilación. Estas consideraciones seran revisadas, con la finalidad de realizar las modificaciones pertinentes. Se efectuaran varias iteraciones hasta obtener la versión final.

Para determinar la confiabilidad (punto mas importante para este primer momento del seminario de investigación en gerencia I)se propone el uso del método alfa Cronbach, de los métodos disponibles (medida de estabilidad, método de formas alteradas paralelas, método de mitades compartidas, y coeficiente KR-20) tomando en cuenta que la población a ser encuestada es un pequeño porcentaje de la organización con altos conocimientos del negocio con cargo de gerente o especialista dentro de la organización de gerencia de sistemas tecnologicos, además de que el coeficiente de Cronbach requiere de una sola administración para su calculo. Para determinar este indicador se utilizará el siguiente procedimiento:

1.      Obtención de los resultados.

2.      Cálculo de la varianza de datos dicotómico (pq).

3.      Cálculo de la varianza total (σr2).

4.      Aplicación de la formula:  α = N / (N-1) [ (1-∑pq)/ σr2]                                    

      Donde N es el número de ítems.

De esta forma, se obtendra un coeficiente de confiabilidad cuyo valor al ser evaluado y comparado con el tamaño de la muestra debe presentar una consistencia interna razonable.

Finalmente se administrará el instrumento de medición, dadas las características de la muestra y considerando lo expuesto hasta ahora, el cuestionario desarrollado se propone que sea auto-administrado, es decir, se contacte al respondiente, se le entregue un ejemplar del mismo, lo responda y lo devuelva para su análisis. Este cuestionario será aplicado a los stakeholdes

Es importante citar que este instrumento de medición determinara un nivel de complejidad de la organización para luego estudiar la gestión de la gerencia de tecnología de la información y la comunicación en por esto que a continuación,  se establecen las premisas fundamentales que deben ser tomadas en cuenta para la realización del algoritmo. De acuerdo con la estructura del cuestionario, se deben considerar las siguientes premisas:

·        Existen al menos una pregunta por cada factor de medición de complejidad de la Gerencia de TI asociada a un valor de medición.

·        Cada factor de medición posee un porcentaje asociado relativo a el nivel de complejidad general propuesto por [STR 98]. Esto quiere decir que cada factor tiene un grado de influencia sobre el resultado final.

·        Los factores de medición de cada factor son utilizados para determinar si la organización de soporte interna ha desarrollado dicha área.

·        Cada medición posee un indicador para determinar su importancia con respecto a las otras mediciones asociadas al mismo factor y con un nivel especifico de influencia dentro de cada rango de medición.

·        Para determinar el retorno de inversión del modelo sistémico propuesto es necesario determinar el nivel de complejidad de Gerencia de TI.

Establecidas y aclaradas las premisas, a continuación se muestra el algoritmo de análisis del cuestionario:

1.- Análisis del nivel de aplicabilidad del cuestionario: En función de las respuestas obtenidas de la administración del cuestionario, se determina el nivel de aplicabilidad de éste en la organización sujeta a la evaluación. Este análisis esta basado en la frecuencia del tipo de respuesta “N/A” (No aplica) dadas las preguntas. Por factor de complejidad y medición, si para un factor el porcentaje es alto, es decir superior al 10% entonces se debe analizar la aplicabilidad del instrumento.

2.- Análisis del nivel de divulgación de información: El nivel de divulgación entre los empleados de la organización no es más que el análisis de cuán informados están los empleados de las actividades que deben ser realizadas en la organización de soporte interno. Este análisis está basado en la frecuencia del tipo de respuesta “N/S” (no sabe) dada a las preguntas. Por cada factor de complejidad y medición se debe determinar el porcentaje de respuestas “N/S” contestadas por los encuestados; si dicho porcentaje es alto (superior al 15%) esto indicará que existe un alto nivel de desinformación en relación a las actividades asociadas a la organización de soporte interno. Estos resultados preliminares estarán presentes en los resultados que serán presentados como consecuencia de la evaluación.

3. Determinación de la Medición de complejidad de la Gerencia de TI y e Nivel de Complejidad. Está es la base para las conclusiones y recomendaciones finales de la evaluación. En esta parte, se debe analizar la frecuencia de las respuestas de las preguntas que correspondan a los factores de complejidad de las diferentes mediciones. Las estapas del algoritmo para este paso son:

3.1. Análisis de las respuestas  relativas a las preguntas asociadas a el factor de complejidad: se determina el nivel de complejidad por factor de complejidad según el porcentaje de respuestas SI, NO, N/A, y/o N/S a las preguntas asociadas al factor de complejidad. Esto permite esbozar un comportamiento de los posibles valores de cada factor de complejidad.

3.2. Determinación del grado de satisfacción con cada factor de complejidad: Se determina el porcentaje de  respuestas SI, asociadas a un nivel de medición, el cual será satisfecho si la frecuencia calculada es altamente satisfecha, es decir 75% de la muestra.

3.3. Interpretación de resultados y determinación del nivel de complejidad.

Una vez obtenido la medición asociada a cada factor de complejidad se procede a calcular el porcentaje de complejidad a partir de la ecuación de complejidad dada en el Capitulo V (ecuación 11), con este factor se establece una escala del 1 al 9 donde 9 es el mayor nivel de complejidad y se toma el porcentaje calculado y se multiplica por el mayor valor de la escala obteniendo así el nivel de complejidad.

BIBLIOGRAFÍA

-         Batanero, C. (2001). (Ed.), Training researchers in the use of statistics. Granada: International Association for Statistical Education e International Statistical Institute.

-         Batanero, C. (2002). Estadística y didáctica de la matemática: Relaciones, problemas y aportaciones mutuas. En C. Penalva, G. Torregrosa y J. Valls (Eds.), Aportaciones de la didáctica de la matemática a diferentes perfiles profesionales (pp. 95-120). Universidad de Alicante.

-         Carrera, E. (2002). Teaching statistics in secondary school. An overview: From the curriculum to reality. En B. Phillips (Ed.), Proceedings of the Sixth International Conference on Teaching of Statistics. Ciudad del Cabo: IASE. CD ROM.

-         Fraley A. S. (2001). An overview of the teaching of statistics at schools and University in Argentina. Proceedings of the 53rd Session of the International Statistical Institute, Bulletin of ISI (Book 2, pp. 165-167). Seul: International Statistical Institute.

-         Gal, I., Ginsburg, L. y Schau, C. (1997). Monitoring attitudes and beliefs in statistics education. En I. Gal y J. Garfield (Eds.), The assessment chanllenge in statistics education (pp. 37-54). Amsterdam: IOS Press.

-         Gini V. Glas / Julian C. Stanley C. (1980). A semiotic and anthropological approach to research in mathematics education. Philosophy of Mathematics Education Journal 10

-         Hernández S.(1991). Metodología de la Investigación. Segunda edición. Mc Graw Hill. México, 1991.

-         Kahneman, D., Slovic, P. y Tversky, A. (1982). Judgement under uncertainty: heuristics and biases. Cambridge: Cambridge University Press.

-         Strovink, K. (1998). Lowering Support Costs UIT LAN Management Tools. Strategic Analysis Report Garner Group 8 July 1998.

-         Watson, J. (2002). Doing research in statistics education: More just than data. En B. Phillips (Ed.). ICOTS-6 papers for school teachers (pp. 13-18). Cape Town: International Association for Statistics Education.

 

 Última Actualización: 21 Noviembre 2005