Digital repository
Maestria en Ciencias de Datos
Permanent URI for this collection
Browse
Browsing Maestria en Ciencias de Datos by Subject "Aprendizaje automático"
Now showing 1 - 4 of 4
Results Per Page
Sort Options
Item Open Access Aprendizaje automático para el análisis de tráfico de datos en la detección de fallas en redes de telecomunicaciones, 2024(Quevedo: UTEQ, 2025) Vaca Vargas, David Adrián; Mora Secaira, Janeth InésEste estudio aplica aprendizaje automático para anticipar fallas en enlaces de telecomunicaciones a partir del tráfico entre Ventanas y otras localidades de la provincia de Los Ríos durante 2024. Se construyó una etiqueta de “falla inminente” con una ventana futura de 30 minutos, basada en registros de Link Downs o, cuando no estuvieron disponibles, en caídas pronunciadas del caudal (total_bps). Se seleccionaron variables numéricas sin fuga y se normalizaron con RobustScaler. Para exploración y priorización de eventos se usaron métodos no supervisados (Isolation Forest, One-Class SVM, LOF, elipse de covarianza y error de reconstrucción con PCA), junto con un ensamblado por promedio z. La predicción binaria se abordó con regresión logística, Random Forest, Gradient Boosting y LinearSVC, entrenados con cortes temporales y una ventana de prueba reciente. La evaluación consideró ROC-AUC, PR-AUC, precisión, recall y F1; además, se revisó la tasa de falsas alarmas por hora y el tiempo medio de detección. Los resultados indican que el esquema ayuda a priorizar incidentes y a orientar acciones del centro de control para reducir la indisponibilidad.Item Open Access Modelo analítico para la optimización de servicios y recursos críticos en el área de emergencias del Hospital General Quevedo 2020 – 2024(Quevedo: UTEQ, 2025) Ramírez Vergara, Víctor Stiven; Samaniego Mena, Eduardo AmableEste estudio presenta un modelo analítico híbrido para optimizar la asignación de recursos críticos en el servicio de emergencias del Hospital General Quevedo (2020– 2024). A partir de 385.604 registros administrativos se realizó un proceso de preprocesamiento y limpieza de datos (fechas, horas, flags de transferencia y variables derivadas como edad y duración de estancia). Se exploraron patrones mediante análisis descriptivo, correlaciones y segmentación con MiniBatch K-Means. Se compararon cinco modelos supervisados (Regresión Logística, Random Forest, XGBoost, KNN y SVM) usando métricas multicriterio (Accuracy, F1-macro, sensibilidad, especificidad y AUC), identificando a XGBoost afinado como el más adecuado para discriminar prioridades clínicas. Las predicciones alimentaron un modelo de Programación Entera que asigna camas censables y no censables y considera médicos por turno; se evaluó su eficacia mediante cobertura por prioridad, utilización de camas y tiempo de espera. Los resultados muestran que, si bien la optimización prioriza adecuadamente los casos críticos, requiere incorporar restricciones de cobertura mínima o términos multi-objetivo para garantizar equidad frente a la alta demanda de casos moderados. Se discuten implicaciones operativas y recomendaciones para la implementación práctica en el hospital.Item Open Access Modelo predictivo aplicado a la deserción de clientes de la corporación nacional de telecomunicaciones en la ciudad de Quevedo 2020 -2024(Quevedo: UTEQ, 2025) Sánchez Carranza , Juan Carlos; Torres Quijije, Ángel IvánEl presente trabajo analizó la deserción de clientes en los servicios de telecomunicaciones de la Corporación Nacional de Telecomunicaciones (CNT) en la ciudad de Quevedo, considerando el periodo 2020–2024. El conjunto de datos original contenía 19.000 registros, tras los procesos de depuración, imputación y validación de calidad, se consolidaron en 18.484 observaciones útiles para el modelado. Se aplicaron técnicas de ciencia de datos siguiendo la metodología CRISP-DM, que incluyó fases de comprensión del negocio, exploración de la información, preparación, modelado y evaluación. Los algoritmos implementados abarcaron regresión logística, árboles de decisión, Random Forest, XGBoost y redes neuronales. La validación de los modelos se realizó con métricas como AUC, precisión, sensibilidad y curvas de calibración, lo que permitió seleccionar configuraciones óptimas para estimar la probabilidad de abandono por cliente. Los resultados evidenciaron factores asociados a la salida de usuarios como infraestructura técnica, fallas de equipo, percepción de tarifas, historial de pagos y nivel de servicio. Además, se identificaron patrones de riesgo en zonas específicas y se construyeron perfiles de clientes con mayor propensión a cancelar el servicio.Item Open Access Optimización de inventario en la gestión de la cadena de suministro en empresas de consumo masivo(Quevedo: UTEQ, 2024) Álvarez Carpio , Gilberto Germán; Díaz Macías , Efraín EvaristoEn el contexto de la economía global, la gestión de inventarios y la cadena de suministro son esenciales para la competitividad y rentabilidad de las empresas, especialmente en el sector de productos de consumo masivo. Este trabajo se enfoca en la optimización del inventario mediante el uso de algoritmos de aprendizaje automático, buscando equilibrar los niveles de stock con la demanda y minimizar los costos de almacenamiento. El objetivo principal de la investigación es determinar los niveles óptimos de inventario aplicando algoritmos predictivos para minimizar los costos asociados al almacenamiento y asegurar la disponibilidad adecuada de productos. Los objetivos específicos incluyen realizar un análisis de segmentación para identificar los productos más significativos, diseñar un modelo predictivo para la demanda de productos y estimar los niveles mínimos y máximos de inventario. Los resultados obtenidos a través de métodos como K-means y Agglomerative Clustering revelaron una segmentación robusta de los productos en cuatro clusters, lo que facilitó una gestión de inventario más precisa. Además, el análisis de Pareto ayudó a identificar los productos que generan la mayor parte de las ventas y, por ende, requieren una gestión más cuidadosa. En el análisis predictivo, se aplicaron modelos ARIMA, Prophet, Exponential Smoothing y Random Forest. Aunque ARIMA mostró un buen desempeño en uno de los productos, el modelo Exponential Smoothing se destacó como el más eficaz en general, proporcionando las predicciones más precisas para la mayoría de los productos analizados. Finalmente, la predicción precisa de los niveles mínimos y máximos de inventario mediante Random Forest demostró ser la más efectiva, mejorando la eficiencia operativa y contribuyendo a la rentabilidad de la empresa. Esta investigación no solo aporta al conocimiento teórico en la gestión de inventarios, sino que también proporciona herramientas prácticas para que las empresas de consumo masivo optimicen sus operaciones en un mercado dinámico y competitivo.