Scielo RSS <![CDATA[Ingenius. Revista de Ciencia y Tecnología ]]> http://scielo.senescyt.gob.ec/rss.php?pid=1390-860X20260001&lang=en vol. num. 35 lang. en <![CDATA[SciELO Logo]]> http://scielo.senescyt.gob.ec/img/en/fbpelogp.gif http://scielo.senescyt.gob.ec <![CDATA[OPTIMIZATION OF ENERGY CONSUMPTION IN OIL REMOTE CAMPS THROUGH ENERGY MANAGEMENT TECHNOLOGIES]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-860X2026000100009&lng=en&nrm=iso&tlng=en Resumen Optimizar los recursos en campos remotos es un criterio fundamental para la eficiencia y la reducción de costos operativos. El estudio tuvo un enfoque descriptivo-experimental, con orientación cuantitativa, en el que se analizó el consumo energético de un campamento remoto de transporte de petróleo, utilizando registros históricos desde 2021. El objetivo principal fue la reducción del consumo energético en un rango del 15% al 30%. Mediante el uso de RETScreen se simularon mejoras en los sistemas energéticos, obteniéndose como resultado un consumo eléctrico anual de 271 148 kWh/año, con gastos asociados de USD 27 454. Con la propuesta fotovoltaica, orientada a optimizar el consumo mediante tecnología de gestión energética, el consumo se redujo a 185 878 kWh/año, disminuyendo significativamente la dependencia del Sistema Nacional Interconectado y el uso de fuentes contaminantes. La eficiencia en sistemas de climatización mejoró en un 14.3%, mientras que en los sistemas eléctricos -bombas, compresores e iluminación- se alcanzó una mejora significativa de 38.6%, con un ahorro promedio de 30.9%. Respecto a las emisiones, estas se redujeron de 58.8 tCO2 a 40.7 tCO2, lo que equivale a la absorción de 1.7 hectáreas de bosque con un retorno de inversión estimado en 10.7 años. En conclusión, este proyecto resulta viable desde el punto de vista de la aplicación de tecnologías de eficiencia energética, al incorporar mejoras técnicas que consolidan una solución económicamente rentable y ambientalmente sostenible.<hr/>Abstract Optimizing resource use in remote operational fields is a key strategy for enhancing efficiency and reducing operating costs. This study adopted a descriptive- experimental design with a quantitative orientation to analyze the energy consumption of a remote oil transportation camp, utilizing historical records collected since 2021. The primary objective was to achieve an energy consumption reduction of 15-30%. Using RETScreen, improvements in energy systems were simulated, resulting in an initial annual electricity consumption of 271,143 kWh and associated costs of USD 27,454. With the proposed photovoltaic system, designed to optimize energy use through advanced energy management technologies, annual consumption decreased to 185,878 kWh/year, substantially reducing dependence on the national interconnected grid and on polluting energy sources. Energy efficiency improved by 14.3% in air-conditioning systems and by 38.6% in electrical systems such as pumps, compressors, and lighting, resulting in an overall average energy savings of 30.9%. In terms of environmental impact, CO2 emissions were reduced from 58.8 tCO2 to 40.7 tCO2, equivalent to the carbon sequestration of approximately 1.7 hectares of forest. The estimated return on investment is 10.7 years. These results demonstrate the technical, economic, and environmental feasibility of implementing energy-efficiency technologies to enhance sustainability in remote oilfield operations. <![CDATA[CLASSIFICATION OF UPPER LIMB FRACTURES USING DEEP LEARNING]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-860X2026000100021&lng=en&nrm=iso&tlng=en Resumen La identificación precisa de fracturas en las extremidades superiores es fundamental para un diagnóstico oportuno en los entornos de urgencias médicas. Este estudio analiza y compara el desempeño de tres modelos de aprendizaje profundo preentrenados: EfficientNet-B4, ResNet-50 y ConvNeXt-Large, aplicados a la clasificación automática de fracturas óseas en radiografías del repositorio MURA, distribuidas en siete regiones anatómicas. Se aplicaron técnicas avanzadas de preprocesamiento digital, como Unsharp Masking y CLAHE, junto con estrategias de normalización y balanceo de datos. El entrenamiento se llevó a cabo en dos experimentos: uno binario, que clasifica entre “fractura” y “no fractura”, y otro multiclase, con catorce tipos de fracturas identificadas. La evaluación, mediante métricas como F1-Score, sensibilidad, exactitud y curvas ROC-AUC, reveló que ConvNeXt-Large alcanzó el mejor rendimiento, logrando una precisión del 99,0% en clasificación binaria y del 99,4% en la clasificación multiclase. Estos resultados posicionan a ConvNeXt-Large como una herramienta altamente prometedora para apoyar el diagnóstico temprano de fracturas óseas.<hr/>Abstract Accurate identification of upper extremity fractures is essential for timely and reliable diagnosis in emergency medical settings. This study evaluates and compares the performance of three pre-trained deep learning architectures: EfficientNet- B4, ResNet-50, and ConvNeXt-Large, applied to the automatic classification of bone fractures in radiographic images from the MURA repository, encompassing seven anatomical regions. Advanced image preprocessing techniques, including Unsharp Masking and Contrast-Limited Adaptive Histogram Equalization (CLAHE), were employed in conjunction with data normalization and balancing strategies. The models were trained in two experimental setups: a binary classification distinguishing between “fracture” and “non-fracture” images, and a multiclass configuration identifying 14 distinct fracture types. Performance evaluation using F1-Score, sensitivity, accuracy, and ROC-AUC metrics demonstrated that ConvNeXt-Large achieved the highest overall results, reaching accuracies of 99.0% in binary classification and 99.4% in multiclass classification. These findings position ConvNeXt-Large as a highly promising tool for supporting early and precise fracture diagnosis. <![CDATA[ADVANCEMENTS IN COMPUTATIONAL ANALYSIS FOR JET ENGINE OPTIMIZATION: A REVIEW OF CFD, STRUCTURAL ANALYSIS, AND MULTIDISCIPLINARY APPROACHES]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-860X2026000100036&lng=en&nrm=iso&tlng=en Resumen La evolución de la tecnología de los motores a reacción ha estado profundamente influenciada por los avances en el análisis computacional, especialmente en la dinámica de fluidos computacional (CFD), el análisis estructural y la optimización multidisciplinaria. Esta revisión aborda las técnicas computacionales de vanguardia aplicadas al estudio de motores a reacción, resaltando sus aplicaciones, beneficios y desafíos. La CFD se ha consolidado como una herramienta esencial que permite simulaciones detalladas de los complejos procesos aerodinámicos y de combustión. Métodos como las simulaciones de grandes remolinos (LES) y las simulaciones numéricas directas (DNS) han permitido comprender con mayor profundidad la turbulencia y la dinámica de la combustión, mejorando la eficiencia y reduciendo las emisiones. No obstante, estas simulaciones de alta fidelidad demandan un elevado costo computacional, lo que ha impulsado el desarrollo de algoritmos más eficientes y el uso de recursos de cómputo de alto rendimiento. La integración del análisis estructural con las simulaciones aerodinámicas ha facilitado el diseño de componentes capaces de soportar condiciones extremas, aumentando la fiabilidad y seguridad del motor. Los marcos de optimización de diseño multidisciplinario (MDO) han transformado el diseño al evaluar simultáneamente múltiples métricas de rendimiento, logrando configuraciones equilibradas entre eficiencia, peso y durabilidad. Pese a estos avances, persisten retos en el modelado de fenómenos complejos, como las inestabilidades de combustión y el comportamiento de materiales a altas temperaturas. La incorporación del aprendizaje automático ofrece soluciones prometedoras, orientadas hacia sistemas de propulsión más eficientes, confiables y sostenibles.<hr/>Abstract The evolution of jet engine technology has been profoundly influenced by advancements in computational analysis, particularly in Computational Fluid Dynamics (CFD), structural analysis, and multidisciplinary optimization. This review explores state-of-the-art computational techniques applied to jet engine analysis, emphasizing their applications, benefits, and inherent challenges. CFD has become an essential tool, enabling detailed simulations of complex aerodynamic and combustion processes. Methods such as Large Eddy Simulations (LES) and Direct Numerical Simulations (DNS) have provided deeper insights into turbulence and combustion dynamics, leading to improved efficiency and reduced emissions. However, these high-fidelity simulations entail significant computational costs, driving the development of more efficient algorithms and high-performance computing resources. The integration of structural analysis with aerodynamic simulations has facilitated the design of components capable of withstanding extreme operational conditions, thereby enhancing engine reliability and safety. Multidisciplinary Design Optimization (MDO) frameworks have further transformed engine design by simultaneously evaluating multiple performance metrics, resulting in configurations that balance efficiency, weight, and durability. Despite these advances, challenges remain in accurately modeling complex physical phenomena such as combustion instabilities and material behavior under high temperatures. The incorporation of machine learning techniques offers promising solutions to address these issues by complementing traditional computational methods with data-driven insights. Looking ahead, the future of computational analysis in jet engine development lies in the seamless integration of high-fidelity simulations, real-time data analytics, and adaptive modeling, paving the way for more efficient, reliable, and sustainable propulsion systems. <![CDATA[OPTIMIZING CROWDSOURCED HUMAN COMPUTATION WITH ADAPTIVE INTELLIGENT USER INTERFACES FOR SCALABILITY AND EXPLAINABILITY]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-860X2026000100052&lng=en&nrm=iso&tlng=en Resumen Las interfaces de usuario inteligentes (IUI) representan un enfoque transformador para mejorar la computación colectiva y la computación humana, mediante la optimización en la distribución de tareas, el fortalecimiento de la colaboración entre humanos e inteligencia artificial (IA) y la garantía de la seguridad de los datos. Este estudio presenta un análisis basado en estudios de caso sobre una IUI adaptativa diseñada para mejorar la escalabilidad, el compromiso de los usuarios y la precisión en la resolución de problemas a gran escala mediante crowdsourcing. A través del examen de tres plataformas clave -Amazon Mechanical Turk (MTurk), Zooniverse (plataforma de ciencia ciudadana) y un análisis de análisis de imágenes médicas asistido por IA en el ámbito de la salud pública-se evalúa el impacto de la asignación dinámica de tareas, la inteligencia artificial explicable (XAI) y la gamificación sobre la participación de los usuarios y el rendimiento en las tareas. Los resultados indican que las IUI adaptativas mejoran la precisión de las tareas de acuerdo con el nivel de habilidad del usuario, reducen el tiempo de ejecución a medida que los participantes adquieren experiencia y aumentan la retención de voluntarios gracias a los mecanismos de gamificación. Asimismo, la integración de XAI en el diagnóstico médico asistido por IA incrementa de manera significativa tanto los niveles de confianza como la precisión diagnóstica. Estos hallazgos evidencian la escalabilidad, adaptabilidad y eficacia de las IUI en el campo de la computación humana, y ofrecen un marco de referencia para futuros avances en la optimización de tareas y la explicabilidad de los sistemas inteligentes.<hr/>Abstract Intelligent User Interfaces (IUIs) represent a transformative paradigm for advancing crowdsourced and human computation by optimizing task distribution, strengthening human-AI collaboration, and ensuring data integrity. This study presents a case study-driven analysis of an adaptive IUI framework designed to enhance scalability, engagement, and accuracy in large-scale, crowd-based problem-solving. By examining three representative platforms-Amazon Mechanical Turk (MTurk), Zooniverse (a citizen science platform), and AI-assisted medical image analysis in public health-the research investigates the influence of dynamic task allocation, Explainable AI (XAI), and gamification on user participation and task performance. The findings demonstrate that adaptive IUIs improve task accuracy relative to user expertise, reduce completion time as experience increases, and strengthen volunteer retention through gamified elements. Moreover, integrating XAI into AI-assisted medical diagnostics substantially elevates both trust and diagnostic precision. Collectively, these outcomes underscore the scalability, adaptability, and efficacy of IUIs in human computation, offering a comprehensive framework for future advancements in task optimization and explainability. <![CDATA[ANALYSIS OF CLOSED-FORM GROUND-RETURN IMPEDANCES FOR SHORT-CIRCUIT STUDIES IN OVERHEAD DISTRIBUTION SYSTEMS]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-860X2026000100069&lng=en&nrm=iso&tlng=en Resumen El objetivo de este estudio es evaluar la aplicabilidad de las principales fórmulas cerradas de impedancia de retorno por tierra en el análisis de cortocircuito de sistemas de distribución, así como identificar las configuraciones críticas en las cuales la elección del modelo de impedancia puede influir significativamente en los resultados del cortocircuito. La metodología adoptada en esta investigación se estructura en tres etapas. Primero, se desarrolló un algoritmo para implementar y comparar las formulaciones cerradas de impedancia de retorno por tierra, el cual fue validado con datos de referencia disponibles en la literatura. Segundo, se diseñó un algoritmo de análisis de cortocircuito que fue verificado con resultados publicados por la IEEE Power and Energy Society. Finalmente, se realizaron múltiples estudios de cortocircuito en varios alimentadores de prueba de distribución del IEEE. Los resultados muestran que la mayoría de las formulaciones cerradas de impedancia de retorno por tierra son adecuadas tanto para análisis de cortocircuito balanceados como desbalanceados, y que, en fallas monofásicas a tierra, la elección de la fórmula cerrada de impedancia resulta un factor crítico para obtener resultados precisos.<hr/>Abstract The objective of this study is to evaluate the applicability of the most widely used closed-form groundreturn impedance formulas in short-circuit analyses of distribution systems and to identify the critical network configurations in which the choice of impedance model significantly affects the short-circuit results. The methodology adopted in this research is organized into three stages. First, an algorithm was developed to implement and compare several closed-form earthreturn impedance formulations, and its performance was validated using benchmark data reported in the literature. Second, a short-circuit analysis algorithm was designed and verified against reference results published by the IEEE Power and Energy Society. Finally, multiple short-circuit studies were performed on several IEEE distribution test feeders. The findings reveal that most closed-form earth-return impedance models provide adequate accuracy for both balanced and unbalanced short-circuit analyses. However, for single-phase line-to-ground faults, the choice of closedform impedance formulation is critical to obtaining accurate short-circuit results. <![CDATA[AUTOMATIC CLASSIFICATION OF ELECTRICAL COMPLAINTS USING DECISION TREES AND RANDOM FOREST: AN APPLIED STUDY AT CNEL EP]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-860X2026000100084&lng=en&nrm=iso&tlng=en Resumen Este estudio presenta un sistema de clasificación automática destinado a priorizar reclamos eléctricos en CNEL EP. Para ello se procesaron 143 113 registros reales, incluyendo limpieza de datos, imputación de valores faltantes y la creación de variables predictivas relacionadas con la urgencia y la recurrencia de los reclamos. A partir de estos criterios se construyó la variable objetivo “prioridad”, que permite distinguir entre reclamos prioritarios y normales. Con esta información se entrenaron modelos de aprendizaje supervisado-árbol de decisión y random forest- aplicando técnicas como one-hot encoding y validación cruzada. El modelo random forest obtuvo los mejores resultados, con una exactitud del 91 % y un AUCROC de 0.89. Los resultados muestran que el sistema propuesto puede mejorar significativamente la asignación de recursos técnicos y los tiempos de respuesta ante reclamos eléctricos. Además, demuestra la viabilidad de incorporar técnicas de aprendizaje automático en la gestión operativa de empresas distribuidoras de electricidad, abriendo posibilidades para futuras mejoras y aplicaciones en tiempo real.<hr/>Abstract This study presents an automated classification system to prioritize electrical service complaints at CNEL EP. A total of 143,113 real records were processed through data cleaning, missing-value imputation, and the engineering of predictive variables reflecting complaint urgency and recurrence. Based on these criteria, the target variable “Priority” was defined to distinguish high-priority from normal complaints. Supervised learning models, specifically Decision Tree and Random Forest, were then trained using one-hot encoding and cross-validation. Random Forest delivered the best performance, achieving 91% accuracy and an AUC-ROC of 0.89. These results indicate that the proposed system can significantly improve technical resource allocation and reduce response times for electrical complaints. Moreover, the study demonstrates the feasibility of integrating machine-learning techniques into the operational management of electric distribution companies, enabling future enhancements and real-time deployment. <![CDATA[ESTIMATION OF EMISSIONS FROM FAILURES IN OTTO ENGINES USING CONVOLUTIONAL NEURONAL NETWORKS]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-860X2026000100097&lng=en&nrm=iso&tlng=en Resumen En este estudio se implementa una técnica de aprendizaje automático, concretamente redes neuronales convolucionales (CNN, por sus siglas en inglés), con el objetivo de predecir las emisiones contaminantes producidas por fallos en actuadores y componentes de motores Otto. Así pues, el problema de investigación abordado en este trabajo es la ausencia de métodos no intrusivos que, a partir de señales ya disponibles en el vehículo, permitan estimar con alta precisión las emisiones asociadas a fallas en sistemas de inyección, encendido y admisión de aire. Se cuantifican los niveles de CO (monóxido de carbono, %), CO2 (dióxido de carbono, %), HC (hidrocarburos no quemados en ppm) y O2 (oxígeno, %) a partir del análisis de la señal proveniente del sensor MAP (Manifold Absolute Pressure). Para ello, se adopta un protocolo riguroso de muestreo y procesamiento de la señal. La extracción de características óptimas del sensor MAP se basa en su relevancia informativa y capacidad de discriminación, determinadas mediante la transformación espectrográfica de la señal, lo que permite construir una base de datos robusta. Esta base sirve como entrada eficaz para el entrenamiento de la CNN, con la cual se logra un error de predicción inferior al 1 %.<hr/>Abstract This study applies a machine learning technique, specifically Convolutional Neural Networks (CNNs), to predict pollutant emissions resulting from failures in actuators and components of Otto engines. The work addresses the current lack of non-intrusive methods that exploit signals already available in the vehicle to estimate, with high accuracy, emissions associated with failures in the injection, ignition, and air intake systems. Concentrations of CO (% carbon monoxide), CO2 (% carbon dioxide), HC (unburned hydrocarbons, ppm), and Ov (% oxygen) are quantified by analyzing the Manifold Absolute Pressure (MAP) sensor signal under a rigorous sampling and signal processing protocol. Optimal features are extracted from the MAP signal based on their informational relevance and discriminative capacity. These features are obtained through spectrographic transformation, enabling the construction of a robust database. The resulting dataset serves as an effective input for CNN training, achieving emission prediction errors below 1%. <![CDATA[U-NET-BASED SEMANTIC SEGMENTATION OF DEFECTS IN PHOTOVOLTAIC PANELS]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-860X2026000100110&lng=en&nrm=iso&tlng=en Resumen Este artículo presenta un estudio sobre la segmentación semántica de defectos en celdas fotovoltaicas de silicio cristalino mediante modelos basados en U-Net, entrenados con imágenes de electroluminiscencia (EL). Se empleó un conjunto de datos compuesto por imágenes adquiridas en laboratorio y un prototipo público de pruebas, ambos con anotaciones manuales de grietas, zonas oscuras y discontinuidades en barras colectoras. Se entrenaron ocho versiones del modelo, incorporando variaciones controladas en la resolución, la profundidad del codificador y las estrategias de regularización. La evaluación incluyó métricas clase a clase (precisión, recall y F1-score), análisis visual mediante mapas de calor y superposiciones, así como validación por expertos. Si bien la segmentación fue consistente en defectos de morfología clara, como zonas oscuras y barras colectoras, las grietas presentaron mayores dificultades debido a su baja densidad de píxeles y geometría irregular. Asimismo, se analizaron arquitecturas alternativas (U-Net++ y MAU-Net), sin evidenciar mejoras relevantes frente a la configuración optimizada de U-Net. Los resultados respaldan el uso de este enfoque en tareas de inspección automatizada bajo condiciones controladas, y se proponen extensiones para su aplicación en contextos operativos más diversos.<hr/>Abstract This article presents a study on the semantic segmentation of defects in crystalline-silicon photovoltaic cells using U-Net-based models trained on electrolumine scence (EL) images. The dataset combines laboratory-acquired images with a publicly available benchmark, both manually annotated to identify cracks, dark zones, and collector-bar discontinuities. Eight model variants were trained with controlled variations in input resolution, encoder depth, and regularization strategies. Performance was assessed using per-class precision, recall, and F1-score, complemented by visual inspection through heatmaps and overlays and by expert validation. Segmentation was robust for defects with well-defined morphology, such as dark zones and busbars; however, cracks remained more difficult to detect due to their sparse pixel representation and irregular geometry. Alternative architectures (U-Net++ and MAU-Net) were also evaluated but did not yield meaningful improvements over the optimized U-Net configuration. Overall, the results support the use of this approach for automated inspection under controlled conditions, while highlighting the need for future adaptation to more diverse operational scenarios. <![CDATA[ENHANCING SEMANTIC SEGMENTATION FOR URBAN ACCESSIBILITY USING HIGH-FIDELITY SYNTHETIC DATA]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-860X2026000100122&lng=en&nrm=iso&tlng=en Resumen La segmentación semántica de escenas urbanas es un componente clave para el desarrollo de ciudades inteligentes; sin embargo, su efectividad depende de grandes volúmenes de datos anotados a nivel de píxel, los cuales son costosos y especialmente escasos en clases críticas relacionadas con la accesibilidad y la movilidad asistida. Este trabajo tiene como objetivo mejorar la segmentación semántica para aplicaciones de accesibilidad urbana mediante el uso de datos sintéticos. La metodología propuesta integra la generación de datos sintéticos hiperrealistas utilizando Unreal Engine 5.1, el procesamiento automático de máscaras semánticas con etiquetas perfectas y el entrenamiento de modelos de segmentación de referencia. Se generaron 5036 imágenes anotadas en 22 clases, incluyendo aceras, sillas de ruedas y bastones. Se evaluaron dos arquitecturas de segmentación: una U-Net básica y DeepLabv3+ con módulos ASPP. El preentrenamiento con datos sintéticos incrementó el mIoU global de 0.0626 a 0.84, lo que representa una mejora de 13.4 ×, y produjo aumentos significativos en precisión, recall y F1-score (aproximadamente 6.8×, 9.3× y 10.4×, respectivamente). En clases críticas para la accesibilidad, se alcanzó un IoU de 0.94 para sillas de ruedas motorizadas y un recall de 0.98 para aceras. En total, las 22 clases superaron el umbral operativo de despliegue (IoU ≥ 0.75). Estos resultados demuestran que la incorporación de datos sintéticos, junto con estrategias de entrenamiento sensibles al desbalance de clases, constituye una solución efectiva y escalable para el desarrollo de sistemas robustos de segmentación semántica orientados a la accesibilidad urbana.<hr/>Abstract Semantic segmentation of urban scenes is essential for the development of smart cities; however, its effectiveness relies heavily on large, pixel-level annotated datasets, which are particularly scarce for mobility aids. This study aims to enhance semantic segmentation for urban accessibility applications by leveraging synthetic data. The proposed methodology integrates high-fidelity synthetic data generation using Unreal Engine 5.1, automated semantic mask processing, and the training of state-of-the-art segmentation models. A dataset of 5,036 images with pixel-perfect labels across 22 classes, including sidewalks, wheelchairs, and walking aids, was created to support this investigation. Two architectures were benchmarked: a baseline U-Net and DeepLabv3+ with ASPP. Pretraining with synthetic data increased global mIoU from 0.0626 to 0.84 (13.4×) and substantially improved precision, recall, and F1-score (by approximately 6.8×, 9.3×, and 10.4×, respectively). For accessibility-critical classes, motorized wheelchairs achieved an IoU of 0.94, and sidewalks attained a recall of 0.98. Overall, all 22 classes surpassed the deployment threshold ( ≥ 0.75 IoU). These findings demonstrate that synthetic data, combined with imbalance-aware training strategies, provides a viable pathway toward robust semantic segmentation solutions for urban accessibility applications. <![CDATA[SWIN TRANSFORMER V2 FOR THE CLASSIFICATION OF LOJA COFFEE]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-860X2026000100138&lng=en&nrm=iso&tlng=en Resumen Esta investigación presenta un modelo de clasificación binaria para granos de café verde de la variedad arábico procedentes de la región de Loja, Ecuador, basado en la arquitectura Swin Transformer V2. Se emplearon dos fuentes de datos, el conjunto de datos público USK-Coffee, de origen indonesio, y un conjunto de datos propio capturado bajo condiciones controladas. Se evaluaron dos estrategias de entrenamiento: transferencia secuencial y entrenamiento unificado, siendo este último el que alcanzó una precisión de validación del 98,30 %. Tras la optimización de hiperparámetros, el modelo logró una precisión del 100 % en un conjunto de prueba de 150 imágenes y del 93 % en un conjunto de generalización externo de 400 imágenes con condiciones variables de iluminación y fondo. La interpretabilidad del modelo se validó mediante Grad-CAM, evidenciando que la red enfoca su atención en zonas defectuosas reales. Un análisis de ablación mostró que la disminución de rendimiento en escenarios no controlados se debe principalmente a la sensibilidad al ruido y a la iluminación extrema. Como principales aportes, se destaca la creación de un conjunto de datos especializado y un modelo eficiente para la clasificación automática de café verde arábico.<hr/>Abstract This study presents a binary classification model for green coffee beans of the Arabica variety from the Loja region in Ecuador, based on the Swin Transformer V2 architecture. Two datasets were used, the public USK-COFFEE dataset of Indonesian origin and a proprietary dataset captured under controlled conditions. Two training strategies were evaluated: sequential transfer learning and unified training, with the latter achieving a validation accuracy of 98.30%. After hyperparameter optimization, the model reached 100% accuracy on a test set of 150 images and 93% accuracy on an external generalization set of 400 images with varying lighting conditions and backgrounds. Model interpretability was validated using Grad-CAM, demonstrating that the network focuses on actual defective regions rather than background information. An ablation analysis revealed that performance degradation in unconstrained scenarios is mainly due to sensitivity to noise and extreme lighting conditions. The main contributions of this work include the creation of a specialized dataset for Arabica green coffee from Loja and the development of an efficient model for its automatic classification.