Universidad del Zulia - Facultad de Humanidades y Educación
Encuentro Educacional
e-ISSN 2731-2429 ~ Depósito legal ZU2021000152
Vol. 32 (1) enero - junio 2025: 176 - 194
Excelia como Herramienta para la Investigación Científica
en Escala Likert
Edwin Rafael Carrasquero Cabrera
Centro de Estudios Matemáticos y Físicos. Facultad de Humanidades
y Educación. Universidad del Zulia. Maracaibo-Venezuela.
ercaca093@gmail.com
https://orcid.org/0000-0001-6418-9365
Resumen
El software estadístico persigue automatizar las operaciones numéricas necesarias en el
procesamiento y análisis estadístico de datos provenientes de una investigación científica, con un
instrumento en escala Likert, usualmente con cinco alternativas de respuesta. El objetivo del
presente trabajo es describir las diferentes aplicaciones de diseño, programación y construcción
de un recurso digital tecno-didáctico con valores agregados a Excel, del tipo Excelia, para llevar
a cabo el tratamiento estadístico descriptivo e inferencial, sobre la base de datos primarios
generados desde una investigación para la automatización de las operaciones numéricas. La
metodología utilizada fue documental, de tipo descriptiva y aplicada. La construcción de Excelia
se realizó a partir de algunas funciones propias de Excel, con apoyo de funciones lógicas y
artificios matemáticos. Como resultado, se tienen aplicaciones que pueden combinarse y
personalizarse, según el interés de investigadores, docentes y estudiantes, agrupadas en tres
categorías: calculadora estadística, procesador de datos y recurso instruccional. Excelia destaca
como una herramienta de interés debido a sus múltiples beneficios; entre ellos, capacidad para
optimizar el tiempo y facilidad de uso, ya que su diseño intuitivo permite al usuario ingresar los
datos de manera sencilla. Posteriormente, solo queda interpretar los resultados dentro del marco
del contexto teórico, lo que agiliza el análisis y la toma de decisiones. Gracias a su eficiencia y
accesibilidad, se convierte en una opción ideal para quienes buscan una solución práctica y
efectiva.
Palabras clave: Excelia, estadística, recurso tecno-didáctico, calculadora, procesador de
datos
Excelia as a Tool for Scientific Research on a Likert Scale
Abstract
Statistical software aims to automate the numerical operations required for the processing and
statistical analysis of data from scientific research, using a Likert-based instrument, usually with
five response options. The objective of this paper is to describe the different applications for the
design, programming, and construction of a digital techno-educational resource with added
values to Excel, such as Excelia, to carry out descriptive and inferential statistical processing
based on primary data generated from research for the automation of numerical operations. The
methodology used was documentary, descriptive, and applied. Excelia was built using some of
Excel's own functions, supported by logical functions and mathematical devices. The result is
applications that can be combined and customized according to the interests of researchers,
teachers, and students, grouped into three categories: statistical calculator, data processor, and
instructional resource. Excelia stands out as a tool of interest due to its multiple benefits: Among
these are its ability to optimize time and ease of use, as its intuitive design allows the user to
easily enter data. Afterward, all that remains is to interpret the results within the theoretical
context, which streamlines analysis and decision-making. Thanks to its efficiency and
accessibility, it becomes an ideal option for those seeking a practical and effective solution.
Keywords: Excelia, statistics, techno-didactic resource, calculator, data processor
Introducción
La enseñanza de las matemáticas, y el particular la estadística, representa un desafío
constante para los docentes, quienes deben emplear estrategias y recursos innovadores que
motiven a los estudiantes y fomenten un aprendizaje significativo. Más allá de transmitir
conocimientos, el rol del docente implica diseñar metodologías activas que estimulen el
razonamiento, la resolución de problemas y la aplicación práctica de los conceptos matemáticos.
Esto requiere un enfoque dinámico que combine herramientas didácticas, tecnología y
situaciones reales, permitiendo a los alumnos comprender la utilidad de las matemáticas en su
vida cotidiana y fortalecer sus habilidades de pensamiento lógico y crítico (Cáceres et al., 2025).
Para Mena y Restrepo (2018), en Didáctica de la Matemática, la preocupación es siempre
encontrar respuestas y mejoras a los procesos de enseñanza y aprendizaje de la Estadística como
parte de la familia de las Ciencias Matemáticas, brindando así la oportunidad de que docentes y
estudiantes exploren nuevas maneras de abordar esta disciplina y desarrollar enfoques
innovadores que potencien su comprensión y aplicación.
En estos tiempos del auge de la tecnología, donde el software estadístico es un
compañero necesario en la realización de cualquier investigación de enfoque cuantitativo, con el
uso obligado de las estadísticas, se hace necesario desarrollar en los estudiantes y docentes las
competencias tecnológicas para potenciar las habilidades lógicas matemáticas (Albornoz, 2017),
en particular la estadística. En este sentido se dispone de un software editable, del tipo hoja de
cálculo, con el cual se puede crear, diseñar, programar y construir recursos digitales útiles en el
mundo didáctico. Excel es un producto tecnológico al alcance de la gran mayoría de las
personas, sobre todo en los actores de la educación.
Rega Armas et al. (2021) implementaron los métodos numéricos con Excel de Microsoft
para fortalecer el proceso de la enseñanza y el aprendizaje de la Física, particularmente en
problemas de Mecánica. Buzzo Garrao (2007), resalta los beneficios de utilizar conjuntamente
dos herramientas en la enseñanza de ciertos temas de Física: un método numérico, como el
algoritmo de Euler, y un software práctico, como la hoja de lculo Excel. Esta combinación
permite abordar problemas en cursos introductorios que, por la falta de herramientas
matemáticas apropiadas, suelen quedar fuera del temario tradicional. Gracias a esta metodología,
se facilita el acceso a soluciones que permiten visualizar la evolución temporal de los sistemas
estudiados, favoreciendo una comprensión numérica y gráfica más profunda.
El uso de un programa de computación estadístico es importante tanto en la ciencia
básica como en la aplicada, por sus posibilidades de automatización de los complejos cálculos
estadísticos para el análisis de los datos. Las aplicaciones de procesamiento estadístico que se
han establecido en la investigación científica cubana, han sido opciones comerciales (SPSS,
Minitab, Statgraphic, MS Excel, entre otros), con precios bien altos en licencias. Sin embargo, ha
surgido un conjunto de aplicaciones de software libre (R, PSPP) muy potentes para la difícil
tarea del análisis de datos de la investigación (Avello, 2017).
Todo actor universitario, entiéndase profesor y estudiante, debe estar en conocimiento de
las diferentes formas de investigar, recolectar y procesar datos; debe tener conocimiento sobre el
software estadístico, de manera que pueda automatizar el proceso de análisis de los datos. Un
software estadístico es un programa informático cuyo principal objetivo es automatizar y realizar
análisis de datos estadísticos. Este tipo de herramientas suelen proporcionar mecanismos útiles
para la organización, interpretación y presentación de forma fácil y sencilla de los datos
seleccionados para el análisis estadístico. Suelen ser utilizados, generalmente, por especialistas
en el área de estadística. Pero, al ser de fácil acceso y de sencilla usabilidad, cualquier persona
que requiera de estas herramientas para potenciar sus investigaciones, puede emplearlas.
Los programas estadísticos sirven para automatizar y facilitar el procesamiento de datos.
Sea cual sea el análisis de datos que se lleve a cabo, estas herramientas permiten identificar de
forma cil correlaciones, regresiones y variaciones entre las variantes estudiadas. A partir de la
simplificación de estos datos, se posibilita la toma de decisiones en una investigación
determinada. En las investigaciones en las ciencias sociales de los últimos años, cada vez resulta
más común, encontrar el uso de programas computacionales como parte de sus métodos, lo cual
favorece y permite el avance en la mayoría de los casos. No se puede negar la importancia y el
avance que se obtiene en la investigación social con la incorporación del uso de diferentes
programas de cómputo (Aragón, 2016).
La Estadística es una herramienta fundamental para el análisis de datos en las
investigaciones con componentes cuantitativos. En las últimas décadas, en las ciencias sociales
se han utilizado paquetes de software como SPSS (Statistical Package for Social Sciences) para
realizar análisis estadísticos. Sin embargo, hay otras opciones confiables y gratuitas basadas en
lenguaje R (Roque, 2023)
El síndrome TMT (Todo Menos Tesis) es un reconocido indicador sobre la situación de
muchos estudiantes en los diferentes niveles de educación universitaria: pregrado, especialidad,
maestría y doctorado, que cursan todas las materias, reconocido esto como la escolaridad, pero
quedan pendiente con la realización de la investigación, de carácter científico, llámese Trabajo
de Grado, Tesis, Tesina, que deben realizar para optar por el Título que lo valide como
profesional, especialista, magister o doctor (Hacer TFG, 2022).
Uno de los factores que generan esta situación, en el caso de las investigaciones de
enfoque positivista, es la falta de dominio de las herramientas estadísticas para el procesamiento
de los datos primarios generados desde la investigación propiamente dicha a través del
instrumento de investigación. Las herramientas teóricas se abordan mediante la interpretación de
los resultados a la luz del estadístico usado, tal como el promedio o las proporciones, las más
usuales en el medio de las ciencias sociales.
Los cálculos de hoy en día ya no son manuales, los cuales ameritaban un exagerado
tiempo, sin dejar por fuera la posible existencia del error humano de cálculo en el informe
estadístico. Hoy se cuenta, entre otros, con el software SPSS que facilita la tarea investigativa en
la parte estadística. Sin embargo, prevalece el problema de su adquisición y el manejo del mismo
que amerita unas instrucciones iniciales. Por otro lado, está disponible para la gran totalidad de
los usuarios de los PC´s, gracias a Microsoft, la hoja de cálculo Excel y los resultados de
Carrasquero (2023), sobre un recurso del tipo digital tecno-didáctico con valores agregados a
Excel, conocido como Excelia, con las posibilidades de ser construido, diseñado, programado
por el mismo usuario por su nivel medio de complejidad.
Se plantea la tarea de hacer la construcción del recurso digital, del tipo Excelia, para el
análisis estadístico descriptivo e inferencial en las investigaciones con enfoques positivistas. Se
traza la ruta a seguir para el éxito de esta importante meta de investigación, a través del siguiente
objetivo de investigación. Se presenta una vía para desarrollar estas competencias mediante un
enfoque constructivista, donde docentes y estudiantes pueden generar sus recursos con fines
didácticos (Abdala & Palliotto, 2011). Se muestran algunos resultados que sirvan de motivación
para la elaboración de nuevos productos para las tareas de investigación científica.
En tal sentido, el objetivo del presente trabajo es describir las diferentes aplicaciones de
diseño, programación y construcción de un recurso digital tecno-didáctico con valores agregados
a Excel, del tipo Excelia, para llevar a cabo el tratamiento estadístico descriptivo e inferencial,
sobre la base de datos primarios generados desde una investigación para la automatización de las
operaciones numéricas
Fundamentación Teórica
En esta parte se describen los términos utilizados en la construcción del producto de la
investigación como lo es la herramienta para la investigación científica en escala Likert. La
construcción de dicha herramienta se inicia a partir de la matriz de datos primarios generados
desde los ítems del instrumento de investigación, la cual es una tabla de doble entrada: sujetos
por ítems, construida en una hoja de cálculo de Excel. Esta matriz es ampliada con la
incorporación de nuevas columnas, insertadas convenientemente, entre los ítems,
correspondientes a los nuevos valores obtenidos para los indicadores, dimensiones y variables.
Estos valores corresponden a los promedios de los ítems para el indicador que los agrupa, así
mismo para los promedios de estos indicadores para los nuevos valores de las dimensiones y así
de estos ultimos para las dimensiones y variables.
El análisis estadístico descriptivo se lleva a cabo para cada una de las unidades de análisis
mencionadas en el párrafo inmediato anterior. Las medidas estadísticas utilizadas para este
análisis son la desviación estándar y el promedio aritmético. Estas dos medidas se interpretan
según sus respectivos baremos construidos para ello. Entonces se construye un baremo para la
desviación estándar que permita categorizar la representatividad del promedio y un baremo para
categorizar la tendencia del promedio hacia una de las cinco alternativas de respuestas propias de
la escala Likert.
Luego de realizado el análisis descriptivo sobre la muestra, el cual arrojó las tendencias
de las repuestas sobre algunas de las alternativas de la escala Likert, se hace necesario
determinar, mediante la correspondiente prueba estadística, la validez comprobada
estadísticamente de dicha tendencia, mediante el análisis inferencial, particularmente llevado a
cabo con la prueba No Paramétrica Chi Cuadrado. En este análisis se busca rechazar la hipótesis
nula que afirma la igualdad (No Diferencias significativas) entre las proporciones de respuestas
para las cinco alternativas, en contraste con la hipótesis alterna que afirma la existencia de alguna
tendencia, la cual no es otra que la señalada por la tendencia central señalada por el promedio en
el análisis descriptivo.
Toda la teoría anterior sustenta la construcción del producto final que se califica como un
recurso digital tecno-didáctico con valores agregado a Excel (Carrasquero, 2023), el cual se fija
de manera permanente para su utilización inmediata o futura, tal cual software estadístico que
arroja de forma expedita los resultados automatizados provenientes de un instrumento de
investigación en escala de Likert.
El software estadístico
Los profesores y estudiantes universitarios deben estar familiarizados con el uso de
software estadístico, el cual es una herramienta que permite automatizar el análisis de datos,
agilizando procesos y mejorando la interpretación de la información. Estos programas organizan,
estructuran y presentan datos de manera clara, facilitando la identificación de correlaciones,
regresiones y variaciones entre las variables analizadas. Además, ayudan a detectar información
duplicada o datos inusuales durante la curación de la información, lo que contribuye a la
precisión de los resultados. Aunque suelen ser empleados por especialistas, su accesibilidad y
facilidad de uso los hacen valiosos para cualquier investigador. También generan informes
detallados y gráficos comprensibles que permiten visualizar tendencias y patrones de manera
efectiva, favoreciendo la toma de decisiones fundamentadas dentro de una investigación
(TUTFG, 2024).
SPSS
Este software estadístico, adquirido por IBM en 2009, fue desarrollado con el propósito
de facilitar el análisis y la gestión de datos en investigaciones de ciencias sociales. Con el
tiempo, su uso se ha extendido ampliamente en el ámbito académico, convirtiéndose en una
herramienta fundamental en diversas disciplinas. Su interfaz intuitiva permite que los usuarios
realicen análisis complejos sin grandes dificultades, aunque contar con conocimientos básicos
sobre estadística es recomendable para aprovechar al máximo sus funcionalidades. Gracias a su
versatilidad, es ideal para la aplicación de estadísticas descriptivas, análisis de factores y otros
métodos avanzados, proporcionando resultados precisos y fácilmente interpretables que
contribuyen al desarrollo de investigaciones rigurosas (TUTFG, 2024).
Excel
Microsoft Excel es un software de aplicación que permite la gestión y análisis de datos mediante
hojas de cálculo. Según Raffino (2025), Excel es una herramienta que brinda soporte digital a
labores contables, financieras y organizativas, facilitando la automatización de cálculos y la
representación gráfica de información. Su versatilidad lo ha convertido en una de las
aplicaciones más utilizadas en el ámbito académico y profesional.
Python
Es ampliamente reconocido como un lenguaje de programación versátil, pero su utilidad
va mucho más allá del desarrollo de software. En los últimos años, ha ganado popularidad como
una poderosa herramienta para el análisis de datos, destacándose por su capacidad para importar,
exportar, limpiar y transformar conjuntos de datos, funciones esenciales para garantizar la
calidad de la información utilizada en investigaciones. Su flexibilidad y la gran cantidad de
bibliotecas especializadas, lo convierten en una opción preferida en el ámbito académico y
profesional. Sin embargo, a diferencia de otros programas estadísticos más intuitivos, Python
requiere conocimientos básicos de programación para su correcto uso, lo que puede representar
una barrera para quienes no están familiarizados con el código. A pesar de ello, su potencial para
manejar grandes volúmenes de datos y automatizar procesos lo hace una herramienta
indispensable para quienes buscan análisis avanzados y eficientes (TUTFG, 2024).
SAS
Se encuentra entre los mejores softwares estadísticos disponibles en la actualidad. Es el
favorito de las industrias más fuertes del mercado. La innovación que supone este programa es
que incorpora inteligencia artificial para automatizar el análisis de datos. Por lo tanto, esta
herramienta permite el análisis avanzado, el multivariante, el predictivo y la gestión de datos. Al
igual que Python, el usuario de SAS debe tener conocimientos básicos sobre estadística
(TUTFG, 2024).
STATA
Es un software estadístico desarrollado por StataCorp LP, ampliamente utilizado en
disciplinas como economía, sociología, biomedicina y epidemiología debido a su capacidad para
gestionar y analizar grandes volúmenes de datos con precisión. Su interfaz intuitiva y extensa
gama de herramientas permiten realizar análisis de regresión, series de tiempo, modelos
multivariados y estudios de supervivencia, ofreciendo gráficos de alta calidad para visualizar
tendencias. Además, cuenta con su propio lenguaje de programación, que posibilita personalizar
modelos y automatizar procesos, facilitando investigaciones avanzadas. Su integración con otros
programas y su capacidad de manejar bases de datos complejas lo convierten en una opción
esencial en el ámbito académico y profesional (Llamas, 2023).
Metodología
Esta investigación se caracteriza por tener un enfoque cuantitativo, diseño documental,
alcance descriptivo, de tipo aplicada, combinando el desarrollo de un producto útil en el ámbito
científico con el análisis detallado de una realidad específica y la consulta de fuentes
documentales. Según Tamayo y Tamayo (2006), la investigación aplicada busca resolver
problemas concretos y generar soluciones prácticas, como en este caso, la optimización del
procesamiento automatizado de datos. Por su parte, Hernández Sampieri y Mendoza (2018) es
descriptiva, ya que especifica características y propiedades de los conceptos involucrados en el
tema bajo estudio para su análisis y evaluación, en una situación específica. A su vez, Arias
(2016) sostiene que la investigación documental basada en la búsqueda, análisis e interpretación
de información obtenida de fuentes secundarias, lo que se refleja en la revisión bibliográfica,
incluyendo trabajos previos como el de Carrasquero (2023).
Para llevar a cabo la construcción del recurso digital tecno-didáctico Excelia, con valores
agregados a Excel, con el objeto de automatizar, tanto el análisis estadístico descriptivo como el
inferencial, se trabajó en el ambiente del software Microsoft Excel 2010, con funciones de hoja
de cálculo, para la sustitución de las operaciones numéricas manuales. La intención es la
disponibilidad de una hoja de cálculo de Excel, un recurso tecnológico, de manera que sea
permanente y activo, de disposición inmediata para el usuario en las tareas de investigación
científica. A partir de estas construcciones, se pueden generar nuevas funciones o aplicaciones
que Excel no contempla, según el problema de estudio que se presente.
Con respecto al proceso de construcción del producto de investigación, este posee valores
agregados a Excel con fines estadísticos, a partir del Excel 2010. Este nuevo recurso, del tipo
procesador de datos estadísticos, permitirá una nueva manera expedita de llevar a cabo el análisis
de los resultados de una investigación de enfoque cuantitativo con escala Likert. Además, también
se puede considerar un recurso instruccional en la enseñanza de la Estadística.
Resultados y Discusión
A continuación, se describe con detalle el proceso para obtener un diseño de Base de
Datos Ampliados desde los ítems en escala Likert, hasta las variables, pasando por los
indicadores y dimensiones, anexándole los dos análisis estadísticos, tanto el descriptivo como el
inferencial. Así se tienen las siguientes etapas: (1) Matriz de Datos Primarios, (2) Matriz de
Datos Ampliada, (3) Anexión del análisis descriptivo, (4) Anexión del análisis inferencial y (5)
Interpretación estadística de los resultados.
Matriz de Datos Primarios
Luego de recoger los datos mediante instrumentos en escala Likert respondidos por todos
los encuestados se debe construir primeramente la Matriz de Datos Primarios o matriz original,
donde estén todas las repuestas dadas (por ejemplo, 10 sujetos) en todos los ítems (por ejemplo
12 ítems). Esta es una tabla de doble entrada (Sujetos x Ítems) construida en Excel, tal como se
muestra en la Figura 1.
Esta matriz se va llenando línea por línea, o sea sujeto por sujeto: primero la línea 1 del
sujeto 1, luego la línea 2 y así sucesivamente. Seguidamente se insertan columnas nuevas para
los indicadores. Por ejemplo, si el primer indicador está integrado por los ítems 1, 2 y 3, entonces
la columna del indicador 1 se ubica inmediatamente después del ítem 3. Para ello se ubica en
cualquier celda del ítem 3 y con el botón derecho hace clic y selecciona insertar + insertar toda
una columna.
Figura 1
Matriz de Datos Primarios
Nota. Elaboración propia (2025) a partir de Excel 2010
Es importante agregar que, si el investigador utiliza la herramienta informática
denominada Google Forms, con su instrumento de investigación ya validado, esta aplicación
SUJETOS Item1 Item2 Item3 Item4 Item5 Item6 Item7 Item8 Item9 Item10 Item11 Item12
11 3 2 5 4 4 1 2 2 3 3 3
22 4 1 5 5 3 2 3 1 4 5 5
32 2 2 4 5 5 3 2 2 3 4 4
41 3 3 5 4 4 2 1 3 2 3 3
53 3 2 4 3 3 1 2 2 1 2 2
65 4 4 3 2 4 1 3 1 5 1 1
74 5 5 4 1 3 2 2 2 3 3 2
83 1 2 5 3 3 1 1 3 3 3 3
92 2 1 4 4 4 3 4 4 3 2 3
10 1 3 2 5 4 2 2 3 3 2 4 3
devolverá en una hoja de cálculo una tabla similar a esta denominada matriz de datos primarios.
Conjuntamente con dicha hoja de cálculo, la aplicación envía las frecuencias y el grafico
estadístico de diagrama de barras.
Matriz Ampliada
A partir de la matriz de datos primarios anterior, se inserta una columna para cada
indicador, ubicada según sus ítems, para cada dimensión según sus indicadores y para cada
variable con sus dimensiones. Estas nuevas columnas llevan como datos los promedios de sus
elementos integradores: los indicadores con los promedios de sus ítems y así las dimensiones con
los promedios de sus dimensiones y las variables con las medias de sus dimensiones. El resultado
es la matriz mostrada en la Figura 2.
Figura 2
Matriz ampliada
Nota. Elaboración propia (2025) a partir de Excel 2010
Análisis Descriptivo
Luego de obtener la matriz ampliada, se le agregan cuatro filas en la parte inferior para
anexar la desviación estándar (desvest) y su baremo, la media y su baremo. Estos cuatro
elementos son todos automatizados con Excelia (Figura 3). El valor promedio indicará una
tendencia según su baremo automatizado, con una confiabilidad o representatividad baremada
automáticamente por el valor de la desvest. Es necesario construir los baremos automatizados
para la desvest y la media en el análisis descriptivo para categorizar la representatividad medida
en la desvest y la tendencia en la media de manera inmediata.
Figura 3
Excelia y el Análisis Descriptivo
Nota. Elaboración propia (2025) a partir de Excel 2010
Baremo para la desvest
El máximo valor que puede tomar el valor de la desvest es: 𝑆 = 2 cuando hay solo datos
extremos 1 y 5, en la misma cantidad. A continuación, se visualiza esta afirmación (Figura 4)
Figura 4
Máximo valor de la Desviación Estándar (Desvest)
Nota. Elaboración propia (2025) a partir de Excel 2010
Por lo tanto, el rango de valores de la desvest es: [0, 2]. Este rango se divide en 5 partes,
quedando los intervalos como se indican en la Tabla 1.
Tabla 1
Baremo para la Desvest
Intervalo
Descripción
Calificación
0.00 0.40
Muy baja dispersión = Muy Alta Representatividad
MAR
0.41 0.80
Baja dispersión = Alta Representatividad
AR
0.81 1.20
Dispersión media = Mediana Representatividad
MR
1.21 1.60
Alta dispersión = Baja Representatividad
BR
1.61 2.00
Muy alta dispersión = Muy Baja Representatividad
MBR
Nota. Elaboración propia (2025)
Baremo para la Media
De igual manera, se divide el rango de la media aritmética [1 , 5], resultando lo que se
muestra en la Tabla 2.
Tabla 2
Baremo para la Media
Intervalo
Descripción
Calificación
1.00 1.80
Nunca o Totalmente en Desacuerdo
N
1.81 2.60
Casi nunca o En Desacuerdo
CN
2.61 3.40
A veces o Ni Ni
AV
3.41 4.20
Casi siempre o De Acuerdo
CS
4.21 5.00
Siempre o Totalmente De Acuerdo
S
Nota. Elaboración propia (2025)
Análisis Inferencial
La tendencia puede ser falsa debido a la aleatoriedad de la muestra, entonces se hace
necesario validar dicha tendencia mediante un Análisis Inferencial con la prueba de bondad de
ajuste de Chi Cuadrado, tal como se muestra en la Figura 5.
Figura 5
Análisis Inferencial
Nota. Elaboración propia (2025) a partir de Excel 2010
La decisión de tomar la prueba Chi Cuadrado obedece a que es no paramétrica y no exige
la normalidad en la distribución de los datos. Con ella se decide si hay o no diferencias
significativas entre las proporciones o frecuencias de las cinco alternativas de la escala Likert. Si
se acepta la hipótesis nula significa que no hay diferencias y por lo tanto no hay tendencia. Si se
rechaza, indica que hay diferencias significativas y por lo tanto existe una tendencia y ésta es la
señalada por la media aritmética en el análisis descriptivo.
El análisis inferencial con la prueba No paramétrica Chi Cuadrado, parte de las
frecuencias agrupadas (observadas: O), dado que los indicadores, dimensiones y variables son
del tipo numéricas continuas. En este recurso, lo único manual es la introducción de datos porque
los baremos y la misma decisión de las pruebas de hipótesis son automatizadas (Figura 6).
Figura 6
Excelia. Análisis Inferencial
Nota. Elaboración propia (2025) a partir de Excel 2010
Interpretación de los resultados
Se plantea la siguiente situación: Se encuestó a un grupo de estudiantes de una Facultad,
respecto al cumplimiento de las responsabilidades sociales de la universidad. Se tiene:
Variable: Servicios Públicos Universitarios.
Dimensión: Atención a los estudiantes.
Indicador 1: Transporte universitario.
Ítem 1. ¿Has usado el transporte estudiantil para ir a la Universidad?
Ítem 2. ¿Has visto pasar el bus rodando por la ciudad?
Ítem 3. ¿Pasa el bus por tu barrio?
Las respuestas se ilustran en la Figura 7.
Figura 7
Resumen Estadístico
Nota. Elaboración propia (2025) a partir de Excel 2010
Interpretación de los resultados estadísticos
Los estudiantes respondieron con Alta Representatividad (0.78) que nunca (1.7) Han
usado el transporte estudiantil para ir a la Universidad (ítem 1). Con mediana representatividad
(1.10) dijeron que a veces (3.00) han visto pasar el bus rodando por la ciudad (ítem 2). Sin
Item1
Item2
Item3
Ind1
0.78
1.10
1.20
0.57
AR
MR
BR
AR
1.7
3
2.4
2.3667
N
AV
CN
CN
embargo, afirman con debilidad (1.20), que casi nunca (2.40) pasa el bus por su barrio (ítem 3).
En resumen, respecto al servicio de transporte universitario, los estudiantes dijeron con alta
confiabilidad (0.57) que casi nunca (2.37) gozan del servicio, es decir es escaso el servicio de
transporte universitario.
Es importante destacar que, la automatización de las otrora tareas estadísticas manuales
que, aunque después se contaba con el software SPSS, entre otros, aun persistía el problema de
su adquisición y manejo. El síndrome TMT (Todo Menos Tesis) tiene un factor menos que le
coadyuve en su existencia, por lo menos cuando de escala Likert se trate: las estadísticas ya no
serán la razón del síndrome. El análisis estadístico descriptivo se hará mediante la desvest y la
media aritmética para esta escala, ambas medidas categorizadas automáticamente con sus
respectivos baremos. La desvest se baremará para medir el nivel de representatividad que indique
la confiabilidad con que gozarán las afirmaciones respecto de la tendencia, derivadas de cada
promedio interpretado en su respectivo baremo.
El promedio generado desde las respectivas unidades de análisis, automatizado con su
baremo en el análisis estadístico descriptivo, indicará sin hacer un solo cálculo no automatizado,
la tendencia central de la conducta de las variables, dimensiones e indicadores, acompañado de
un indicador de confiabilidad de las afirmaciones de las tendencias, como lo es la desvest y su
medición en la representatividad.
El enfoque positivista se verá fortalecido por el apoyo que ahora le brindará Excelia,
suavizando las tareas numéricas haciéndolas automáticas, con el incremento de más
investigadores por estos caminos de la estadística. Ya no tendrán que tomar otras rutas por el
simple problema que significaban las estadísticas y la falta de dominio de esas herramientas para
el procesamiento de los datos primarios generados desde la investigación propiamente dicha a
través del instrumento de investigación escala Likert.
Las herramientas teóricas, ahora con más tiempo para dedicarles por el ahorro que brinda
este nuevo recurso, se abordarán con más profundidad mediante la interpretación de los
resultados a la luz del estadístico usado, tal como el promedio o las proporciones entre las más
usuales en el medio de las ciencias sociales, sin el temor de sus laboriosos, extensos y complejos
manejos operacionales, bien sean del software utilizado o del cálculo, manual en el peor de los
casos.
Con Excelia, los cálculos estadísticos de hoy en día sobre las alternativas de la escala Likert, ya
no serán manuales ni con software extraño, de complejo manejo y de no fácil adquisición, los
cuales ameritaban un exagerado tiempo, sin dejar por fuera la posible existencia del error
humano de cálculo en el informe estadístico. Hoy se cuenta con Excelia, construible por el
mismo investigador en la hoja de cálculo de Excel, que facilita la tarea investigativa en la parte
estadística, inclusive hasta en la toma de decisión de aceptar o rechazar a hipótesis nula en la
prueba estadística del análisis inferencial.
Conclusiones
Con el nuevo producto digital tecno-didáctico Excelia, con valores agregados a Excel,
como herramienta para la investigación científica en escala Likert, se logra facilitar el
procesamiento de datos estadísticos de forma expedita, sin necesidad de tomar las rutas
preestablecidas de análisis, propias del software estadístico tradicional. Con Excelia, cada dato
que se procesa va modificando in situ y de ipso facto, las medidas estadísticas descriptivas, así
como la representatividad y la tendencia expresada en los baremos automatizados, hasta llegar al
resultado final luego de procesar el último dato.
Excelia es de fácil construcción por parte del investigador, ya que sólo significa: elaborar
tablas de doble entrada de Excel; insertar o eliminar filas y columnas; funciones estadísticas
promedio y desvest; función lógica Si de Excel para construir los baremos. Con el recurso ya
construido, el investigador solo debe introducir la data primaria original para cada ítem y los
resultados estadísticos se van dando in situ de ipso facto, tanto para los ítems como para los
indicadores, dimensión y variable.
Se pueden agregar gráficos estadísticos opcionalmente si se desea visualizar resultados,
tales como Diagrama de Barras, Histogramas, entre otros. Cualquier error de introducción de un
dato incorrecto sobre algún ítem se puede corregir y Excelia hala corrección inmediata sobre
los resultados afectados. Los softwares corrientes, como SPSS, no realizan estas reparaciones
sobre los resultados, es necesario solicitar de nuevo los resultados ya corregidos.
El análisis descriptivo con Excelia, arroja los valores numéricos de la desvest y su
correspondiente ubicación automática en su respectivo baremo de representatividad. También
arroja los valores numéricos de la media aritmética y su correspondiente ubicación automática en
su respectivo baremo de la tendencia. El software tradicional emite solo los valores numéricos de
la desvest y el promedio, sin las categorizaciones de los mencionados baremos, es el investigador
quien debe hacerlo e interpretarlo manualmente.
El análisis inferencial con Excelia arroja el test Chi Cuadrado, con la prueba de bondad
de ajuste para las diferencias entre proporciones, genera una distribución de datos agrupados en
cada test para las frecuencias o proporciones, las cuales serían sometidas a la prueba estadística
para determinar si existen o no diferencias significativas entre ellas. El ritual o protocolo de los 5
pasos de la prueba de hipótesis, es realizado de forma automática en su totalidad, incluyendo la
decisión final sobre aceptar o no la hipótesis nula referente a las diferencias entre las
proporciones que indiquen o no la existencia de la tendencia indicada en el promedio aritmético.
El software tradicional solo genera el p-valor identificado como Sig. que debe interpretarse, lo
cual no ha sido efectivo hasta ahora, para tomar la decisión de la correspondiente prueba
estadística
Esta manera automatizada del procesamiento de datos, así como del análisis estadístico
descriptivo y del mismo análisis inferencial, es favorable para cualquier persona que quiera hacer
una investigación científica. No hay un solo cálculo numérico manual. Eso coadyuva a cero
errores personales, ahorro de tiempo y evitar la complejidad del proceso inferencial.
Las pruebas estadísticas han alcanzado un alto grado de automatización, permitiendo la
toma de decisiones sobre la aceptación o el rechazo de la hipótesis nula sin la intervención
directa del investigador, reduciendo la posibilidad de errores humanos. Asimismo, los baremos
automatizados también son un gran apoyo, donde no se pierde tiempo comparando el resultado
de la desvest de la media con el cuadro del baremo, automáticamente es arrojado por Excelia el
resultado de ambos baremos. De este modo, la labor del investigador se concentra
exclusivamente en la interpretación de los resultados obtenidos, lo que agiliza el desarrollo del
estudio y mejora la precisión de las conclusiones.
Referencias
Abdala, L., & Palliotto, M. (2011). Un enfoque constructivista en la enseñanza y el aprendizaje
de la matemática para el desarrollo de competencias. Revista REDHECS, 6(11), 91-113.
https://dialnet.unirioja.es/servlet/articulo?codigo=4172063
Albornoz, L. (2017). Competencias tecnológicas para potenciar las habilidades lógicas
matemática en los estudiantes de educación media general del Municipio Mara [Trabajo
de maestría]. Universidad del Zulia.
Aragón, M. (2016). El uso de software estadístico en la investigación social: el riesgo de
anteponer una herramienta metodológica al problema de investigación. CEASGA.
Avello, M., & Seisdedo, L. (2017). El procesamiento estadístico con R en la investigación
científica. MediSur, 15 (5), 583-586.
https://www.medigraphic.com/cgi-bin/new/resumen.cgi?IDARTICULO=77573
Buzzo Garrao, R. (2007). Estrategia EE (Excel-Euler) en la enseñanza de la Física. Latin-
American Journal Physics Education, 1(1), 19-23.
http://www.lajpe.org/sep07/BUZZO_final.pdf
Cáceres, M., Pelcastre, Y., García, O., & González, M. (2025). Las estrategias didácticas del
docente y su relación con el aprendizaje significativo en Matemáticas. Revista Mexicana
de Investigación e Intervención Educativa, 4(S1), 124-134.
https://pablolatapisarre.edu.mx/revista/index.php/rmiie/article/view/155
Carrasquero Cabrera, E. (2023). Excelia: recurso digital tecno-didáctico de valores agregados a
Excel. Encuentro Educacional, 30(1), 11-31.
https://doi.org/10.5281/zenodo.8083262
Hernández-Sampieri, R. & Mendoza, C. (2018). Metodología de la investigación. Las rutas
cuantitativa, cualitativa y mixta. McGraw Hill
Llamas, J. (5 de marzo de 2023). STATA. Economipedia.
STATA | Economipedia
Mena, A. & Restrepo, F. (2018). Enseñanza y aprendizaje de la función lineal: un estudio desde
la teoría modos de pensamiento [Trabajo de maestría]. Universidad de Medellín.
Hacer TFG. (11 de mayo 2022). Síndrome «Todo menos Tesis».
https://hacertfg.com/sindrome-todo-menos-tesis/
Raffino, E. E. (23 de abril de 2025). Excel. Enciclopedia Concepto.
https://concepto.de/excel/.
Rega Armas, D., Guerra Véliz, Y., & Leyva Haza, J. (2021). Los métodos numéricos, el Excel y
la Física en la carrera de ingeniería agrónoma. Cuadernos de Educación y Desarrollo,
13(7), 84-98.
https://dialnet.unirioja.es/servlet/articulo?codigo=8975882
Roque, R. (2022). La enseñanza de la estadística para la investigación: algunas recomendaciones
reflexionadas desde la praxis. Revista Educación, 46(2), 646-656.
https://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S2215-26442022000200646
TUTFG. (2024). Tipos de software estadístico para utilizar en tu investigación.
https://tutfg.es/software-estadistico/