SciELO - Scientific Electronic Library Online

 
 número33PARCHES DE CONTACTO DE NEUMÁTICOS RADIALES CON DIFERENTES RELACIONES DE LONGITUD Y ANCHURA BAJO CARGA ESTÁTICAESTUDIO COMPARATIVO DE ESTRATEGIAS DE ENFRIAMIENTO EN UN MÓDULO DE BATERÍAS DE IONES DE LITIO PARA LA PREVENCIÓN DE LA FUGA TÉRMICA MEDIANTE CFD índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Ingenius. Revista de Ciencia y Tecnología

versión On-line ISSN 1390-860Xversión impresa ISSN 1390-650X

Ingenius  no.33 Cuenca ene./jun. 2025

https://doi.org/10.17163/ings.n33.2025.06 

Artículo científico

UNA EVALUACIÓN INTEGRAL DE LAS TÉCNICAS DE IA PARA PREDECIR EL ÍNDICE DE CALIDAD DEL AIRE: RNN Y TRANSFORMERS

A COMPREHENSIVE EVALUATION OF AI TECHNIQUES FOR AIR QUALITY INDEX PREDICTION: RNNS AND TRANSFORMERS

Pablo Andrés Buestán Andrade1 
http://orcid.org/0009-0004-0854-7585

Pedro Esteban Carrión Zamora1 
http://orcid.org/0000-0002-9490-8487

Anthony Eduardo Chamba Lara1 
http://orcid.org/0009-0009-7418-6294

Juan Pablo Pazmiño Piedra1 
http://orcid.org/0009-0009-7418-6294

1 Unidad académica de informática ciencias de la computación e innovación tecnológica, Universidad Católica de Cuenca, Ecuador.


Resumen

Este estudio evalúa la eficacia de las redes neuronales recurrentes (RNN) y los modelos basados en transformadores para predecir el índice de calidad del aire (ICA). La investigación compara los modelos RNN tradicionales, incluidos los de memoria a corto y largo plazo (LSTM) y la unidad recurrente controlada (GRU), con arquitecturas avanzadas de transformadores. El estudio utiliza datos de una estación meteorológica en Cuenca, Ecuador, centrándose en contaminantes como CO,NO2,O3, PM2.5 y SO2. Para evaluar el rendimiento de los modelos, se utilizaron métricas clave como el error cuadrático medio (RMSE), el error absoluto medio (MAE) y el coeficiente de determinación (R2). Los resultados del estudio muestran que el modelo LSTM fue el más preciso, alcanzando un R2 de 0,701, un RMSE de 0,087 y un MAE de 0,056. Esto lo convierte en la mejor opción para capturar dependencias temporales en los datos de series temporales complejas. En comparación, los modelos basados en transformadores demostraron tener potencial, pero no lograron la misma precisión que los modelos LSTM, especialmente en datos temporales más complicados. El estudio concluye que el LSTM es más eficaz en la predicción del ICA, equilibrando tanto la precisión como la eficiencia computacional, o que podría ayudar en intervenciones para mitigar la contaminación del aire.

Palabras clave: índice de calidad del aire; RNN; LSTM; transformadores; pronóstico de contaminación

Abstract

This study evaluates the effectiveness of Recurrent Neural Networks (RNNs) and Transformer-based models in predicting the Air Quality Index (AQI). Accurate AQI prediction is critical for mitigating the significant health impacts of air pollution and plays a vital role in public health protection and environmental management. The research compares traditional RNN models, including Long Short-Term Memory (LSTM) and Gated Recurrent Unit (GRU) networks, with advanced Transformer architectures. Data were collected from a weather station in Cuenca, Ecuador, focusing on key pollutants such as CO,NO2,O3, PM2.5, and SO2. Model performance was assessed using Root Mean Square Error (RMSE), Mean Absolute Error (MAE), and the Coefficient of Determination (R2). The findings reveal that the LSTM model achieved superior performance, with an R2 of 0.701, an RMSE of 0.087, and an MAE of 0.056, demonstrating superior capability in capturing temporal dependencies within complex datasets. Conversely, while Transformerbased models exhibited potential, they were less effective in handling intricate time-series data, resulting in comparatively lower accuracy. These results position the LSTM model as the most reliable approach for AQI prediction, offering an optimal balance between predictive accuracy and computational efficiency. This research contributes to improving AQI forecasting and underscores the importance of timely interventions to mitigate the harmful effects of air pollution.

Keywords: Air Quality Index; RNN; LSTM; Transformers; Pollution Forecasting

Introducción

La contaminación del aire representa un desafío significativo para el desarrollo sostenible debido a su profundo impacto en la salud pública, siendo responsable de aproximadamente siete millones de muertes en el mundo en 2019, según la Organización Mundial de la Salud (OMS) [1,2]. A pesar de los beneficios para la salud que ofrece un aire limpio, una parte considerable de la población reside en áreas urbanas o cerca de instalaciones industriales con altos niveles de emisiones vehiculares [3]. La combustión de combustibles fósiles libera contaminantes nocivos, incluidos monóxido de carbono (CO), ozono (O3), dióxido de azufre (SO2), dióxido de nitrógeno (NO2) y material particulado (PM2.5 and PM10), los cuales afectan negativamente la salud humana y el medioambiente. [4]. El índice de calidad del aire (ICA) es una métrica crucial para evaluar y gestionar la calidad del aire, proporcionando una medida integral para analizar los niveles de contaminación y sus implicaciones [5, 6].

El ICA ha sido ampliamente estudiado por sus impactos ambientales [7-9], implicaciones económicas [7], [10] y aplicaciones predictivas utilizando datos de estaciones de monitoreo [11-13]. Los métodos para su predicción se clasifican generalmente en modelos numéricos y modelos basados en datos [14]. Los enfoques estadísticos tradicionales, como la regresión lineal [15,16], se emplean junto con algoritmos de aprendizaje automático (AA) [17, 18] y modelos híbridos que integran elementos de ambas metodologías [14], [19]. Desde principios del siglo XXI, las técnicas de AA, incluyendo redes neuronales artificiales (ANN), máquinas de soporte vectorial (SVM), máquinas de aprendizaje extremo (ELM) y k-vecinos más cercanos (KNN), han predominado en la predicción del ICA [20, 21]. A pesar de su uso generalizado, estos métodos presentan limitaciones en el procesamiento de datos temporales, lo que ha llevado a la adopción de redes neuronales recurrentes (RNN), como Long Short-Term Memory (LSTM) y Gated Recurrent Unit (GRU), para tareas de predicción de secuencias.

Investigaciones recientes han demostrado la eficacia de las redes neuronales convolucionales (CNN) en la predicción del ICA. Por ejemplo, Yan et al. [22] desarrollaron modelos que utilizan arquitecturas CNN, LSTM y CNN-LSTM, concluyendo que LSTM ofrece un rendimiento óptimo para pronósticos de varias horas, mientras que CNN-LSTM es más adecuado para predicciones a corto plazo.

De manera similar, Hossain et al. [23] integraron GRU y LSTM para la predicción del ICA en Bangladés, logrando un rendimiento superior en comparación con técnicas individuales. Para abordar las dependencias a largo plazo en datos secuenciales, el modelo Transformer, que emplea una arquitectura encoder-decoder, ha emergido como una solución prometedora [24].

Guo et al. [25] aplicaron una red basada en Transformer, BERT, para la predicción del ICA en Shanxi, China, alcanzando una precisión superior en comparación con LSTM. Ma et al. [26] desarrollaron el modelo Informer para la predicción del ICA en Yan’an, China, demostrando mejoras notables en fiabilidad y precisión. Además, Xie et al. [27] propusieron un modelo Transformer de entradas múltiples en paralelo para la predicción del ICA en Shanghái.

La comparación de modelos de IA para la predicción del ICA es fundamental debido a las variaciones en bases de datos, métricas de evaluación y algoritmos, que influyen significativamente en el desempeño de los modelos. Identificar el modelo más efectivo es esencial para mejorar la precisión de las predicciones y respaldar decisiones informadas en la gestión de la calidad del aire, un factor clave en la salud pública y la planificación urbana.

Materiales y métodos

Descripción general

La metodología de esta investigación consta de los siguientes pasos, como se ilustra en la Figura 1:

Figura 1 Diagrama de flujo de la metodología de investigación 

Adquisición y preprocesamiento de datos.

División de los datos en subconjuntos de entrenamiento (80 %) y prueba (20 %).

Análisis del horizonte temporal con opciones establecidas en 4, 24 y 120 horas.

Selección de modelos: arquitecturas CNN, LSTM, RNN y Transformer.

Aplicación de una búsqueda aleatoria para la selección óptima de hiperparámetros.

Evaluación de los modelos utilizando las mejores

métricas de las pruebas.

Entrenamiento de los modelos seleccionados con los mejores hiperparámetros.

Pruebas de los modelos entrenados.

Evaluación del desempeño de los modelos utilizando R2, RMSE, MAE y MAPE.

Comparación de resultados entre los modelos.

Elaboración de conclusiones basadas en la comparación de modelos y el análisis general.

Caso de estudio

Los datos de series temporales utilizados en este estudio fueron obtenidos de una estación meteorológica en Cuenca, Azuay, Ecuador, ubicada en la calle Bolívar 7-77 y Antonio Borrero (coordenadas: latitud -2.897, longitud -79.00). Gestionada por la Empresa Municipal de Movilidad, Tránsito de Transporte de la Municipalidad de Cuenca (EMOV-EP), esta estación proporciona datos disponibles públicamente para uso personal, de investigación y gubernamental. Ubicada en una zona céntrica caracterizada por su importancia comercial, turística, colonial y residencial, esta estación forma parte de una red de tres estaciones de monitoreo en Cuenca, como se muestra en la Figura 2.

Figura 2 Estaciones meteorológicas de EMOV-EP 

Preprocesamiento de datos

La estación meteorológica registró emisiones de gases, incluyendo CO,NO2,O3, PM2.5, and SO2, a intervalos de 10 minutos a lo largo de 2022, generando aproximadamente 52 560 registros. Estos fueron exportados en formato CSV desde el sitio web oficial de EMOVEP. Donde fue necesario, se convirtieron las unidades de medida de los contaminantes (por ejemplo, mg/m3 de CO a ppm) para facilitar el cálculo del ICA. Se calcularon los promedios horarios, reduciendo el conjunto de datos a 8760 registros. Después de filtrar los valores nulos y los datos irrelevantes, se retuvieron 7425 registros para el análisis. La Tabla 1 proporciona una visión general de los datos de la serie temporal, mientras que la Figura 3 ilustra la variación horaria de los gases registrados.

Tabla 1 Resumen de la serie temporal de la investigación 

Figura 3 CO,NO2,O3, PM2.5, y SO2 registrado por hora 

Usando los valores filtrados, se calculó el ICA para cada contaminante siguiendo las directrices establecidas en el informe de calidad del aire publicado por la Agencia de Protección Ambiental de los EE. UU. [28]. Su cálculo se basa en la concentración del contaminante y se determina utilizando la ecuación (1).

Donde:

IP es el índice de contaminante p.

CP es la concentración redondeada del contaminante p.

BPHI es el punto de corte que es mayor o igual a CP .

BPLO es el punto de corte que es menor o igual a CP.

IHI es el valor del ICA correspondiente a BPHI .

ILO es el valor del ICA correspondiente a BPLO.

Los valores individuales del índice de contaminante (Ip) para cada contaminante p se calculan de manera independiente, y el ICA final se determina seleccionando el valor máximo del conjunto de índices calculados. Esta metodología de selección garantiza que el ICA final refleje el contaminante que presenta el mayor potencial de impactos adversos en la salud, proporcionando una evaluación integral de las condiciones de calidad del aire.

Para analizar la relación entre los contaminantes y el ICA calculado, se construyó una matriz de correlación, como se ilustra en la Figura 4.

Figura 4 Matriz de correlación de los diferentes contaminantes 

La Figura 4 ilustra que, en este caso específico, basándose únicamente en los datos de contaminantes registrados por la estación meteorológica, el valor del ICA muestra una correlación más fuerte con CO y NO2, mientras que su correlación con O3, PM2.5 y SO2 es mínima. Esta información será considerada para el desarrollo y la configuración de los modelos de IA en análisis posteriores.

La estandarización implica transformar los datos, de manera que tengan una media de 0 y una desviación estándar de 1. Este proceso se representa analíticamente mediante la ecuación (2), que fue utilizada en esta investigación:

Donde:

X: Es el valor requerido para ser normalizado.

Media: La media aritmética de la distribución.

Desviación estándar: Desviación estándar de la distribución.

Finalmente, después de estandarizar los valores de la serie temporal, el conjunto de datos se dividió, asignando el 80 % para el entrenamiento y el 20 % reservado para las pruebas.

Ventana deslizante

Hota et al. [29] destacan que una técnica comúnmente utilizada en el análisis de series temporales es la creación de ventanas deslizantes, que proporciona una aproximación temporal del valor verdadero de los datos de la serie temporal. Este método acumula datos históricos de la serie temporal dentro de una ventana especificada para predecir el valor subsecuente. La Figura 5 ilustra el proceso de la ventana deslizante con un tamaño de ventana de 5.

Figura 5 Proceso de ventana deslizante 

Considerando el enfoque mencionado, se utilizaron ventanas deslizantes de 4, 24 y 120 horas para predecir intervalos de tiempo subsecuentes.

Aprendizaje profundo

Redes neuronales convolucionales (CNN), redes neuronales recurrentes (RNN), memoria a largo corto plazo (LSTM), modelo Transformer

Las redes neuronales recurrentes (RNN) son una clase de redes neuronales diseñadas específicamente para procesar datos secuenciales. Su arquitectura permite que la salida de una capa se retroalimente en la entrada, lo que permite a la red retener la memoria de los estados anteriores. Esta capacidad hace que las RNN sean particularmente efectivas para tareas que requieren información contextual o histórica, incluyendo la predicción de series temporales, el procesamiento del lenguaje natural y el reconocimiento de voz [30]. Una configuración estándar de RNN se ilustra en la Figura 7.

Figura 6 Configuración estándar de la CNN 

Figura 7 Configuración estándar de RNN 

Las redes de memoria a largo corto plazo (LSTM) se desarrollaron para abordar las limitaciones de las RNN tradicionales, como el problema del gradiente desvanecido, mediante la incorporación de una celda de memoria capaz de retener información durante períodos prolongados [31]. Cada celda LSTM consta de tres puertas: la de entrada, que controla la incorporación de nueva información; la de olvido, que elimina los datos irrelevantes; y la de salida, que determina la información que se pasará al siguiente paso [31]. Una configuración estándar de LSTM se muestra en la Figura 8.

Figura 8 Configuración estándar de LSTM [32] 

Los Transformers han atraído considerable atención por su destacado comportamiento en diversos dominios, incluyendo el procesamiento de lenguaje natural (NLP), la visión por computadora y el procesamiento de voz. Reconocidos por su capacidad para modelar dependencias a largo plazo e interacciones complejas en datos secuenciales, los Transformers son particularmente adecuados para tareas de predicción de series temporales [24]. La arquitectura instalada en este estudio se muestra en la Figura 9.

Figura 9 Arquitectura del modelo Transformers (Adaptado de Youness [33]) 

Métricas de rendimiento

La investigación realizada por Méndez et al. [20] tuvo como objetivo identificar los principales factores que influyen en la predicción de la calidad del aire durante el período 2011-2021. Los autores encontraron que las métricas más comúnmente aplicadas para evaluar modelos de aprendizaje automático (ML) incluyen RMSE, MAE, MAPE, ACC y R2, como se ilustra en la Figura 10.

Figura 10 Evaluación del uso de métricas [20] 

Error cuadrático medio (RMSE)

El error cuadrático medio (RMSE) es una métrica ampliamente utilizada que cuantifica la diferencia promedio entre los valores predichos y observados [34]. La fórmula para el RMSE se presenta en la ecuación (3):

Donde:

n: número de muestras.

yI: valor observado.

yI: valor predicho.

(yI−YI)2: error cuadrado entre los valores predichosy observados.

Error absoluto medio (MAE)

El error absoluto medio (MAE) es una métrica utilizada para evaluar la precisión de un modelo calculando el promedio de los errores absolutos entre los valores predichos y observados [34]. La fórmula para el MAE se presenta en la ecuación (4):

Donde:

n: número de muestras.

yI: valor observado.

yI: valor predicho.

|yI − YI|: error absoluto entre los valores predichos y observados.

Error absoluto porcentual medio (MAPE)

El error absoluto porcentual medio (MAPE) cuantifica el error promedio como un porcentaje de los valores observados, proporcionando una métrica independiente de la escala que facilita las comparaciones entre diferentes modelos [34]. La fórmula para el MAPE se presenta en la ecuación (5):

Donde:

n: número de muestras.

yI: valor observado.

yI: valor predicho.

Coeficiente de determinación (R 2 )

El coeficiente de determinación (R2) cuantifica la proporción de la varianza en la variable dependiente que es explicada por las variables independientes del modelo. Un valor de R2 de 1 indica que el modelo explica perfectamente la variabilidad de los datos, mientras que un valor de 0 significa que el modelo no explica ninguna variabilidad [34]. La fórmula para R2 se presenta en la ecuación (6):

Donde:

n: número de muestras.

yI: valor observado.

yI: valor predicho.

y: media de todos los valores observados yI .

Búsqueda aleatoria

En aprendizaje automático (ML), la búsqueda aleatoria (RS) es una técnica de optimización utilizada para identificar los hiperparámetros óptimos mediante la exploración de combinaciones aleatorias dentro de un espacio de parámetros predefinido. Este enfoque es más eficiente y computacionalmente menos costoso en comparación con los métodos de búsqueda exhaustiva [35]. La Figura 11 ilustra la secuencia de pasos involucrados en el proceso de RS.

Figura 11 Metodología de la técnica de búsqueda aleatoria 

El proceso implica los siguientes pasos:

Identificar el modelo de IA a optimizar y definir sus hiperparámetros.

Establecer los rangos para cada hiperparámetro.

Especificar las métricas de evaluación, como R2, MAE y RMSE.

Seleccionar aleatoriamente combinaciones de hiperparámetros.

Entrenar el modelo y evaluar su rendimiento.

Elegir la combinación con mejor rendimiento y volver a entrenar el modelo.

Validar el rendimiento del modelo optimizado.

Resultados y discusión

Análisis de correlación

La Figura 4 ilustra la relación entre las variables utilizando el coeficiente de correlación de Pearson para evaluar su correlación con la concentración máxima de ICA (ICAMAX). El mapa de calor revela que CO tiene la correlación positiva más fuerte con ICAMAX (0.56), seguido por NO2 (0.3) y SO2 (0.16), mientras que O3 muestra una correlación negativa (-0.36). Además, CO está moderadamente correlacionado con NO2 (0.36) y SO2 (0.15), mientras que O3 presenta correlaciones inversas tanto con CO (-0.41) como con NO2 (-0.42). PM2.5 exhibe correlaciones débiles y negativas con ICAMAX, CO y NO2. Estos resultados destacan a CO como la variable más fuertemente correlacionada con ICAMAX, lo que proporciona una guía crítica para seleccionar las combinaciones de entrada descritas en la Tabla 2.

Tabla 2 Combinaciones de variables de entrada 

Resultados de los modelos de IA

Esta sección analiza los resultados de rendimiento de cada modelo, considerando las combinaciones de entrada descritas en la Tabla 3, el tipo de modelo de IA empleado y las métricas de evaluación asociadas.

Tabla 3 Resultados del modelo CNN 

Resultados CNN

El modelo CNN fue evaluado utilizando 26 combinaciones diferentes de parámetros de entrada, todas basadas en una ventana deslizante de 24 horas (Tabla 4). El valor de R2 varió de 0.620 a 0.698, siendo la combinación de CO, O3, PM2.5 y SO2 (fila 24) la que alcanzó el mejor rendimiento con un valor de R2 de 0.698. Por otro lado, la combinación que involucraba NO2 y SO2 (fila 7) obtuvo el rendimiento más bajo, con un R2 de 0.620. En cuanto a las métricas de error, el RMSE osciló entre 0.087 y 0.097, mientras que el MAE varió de 0.060 a 0.068. Cabe destacar que la combinación de CO, O3, PM2.5 y SO2 también mostró los errores más bajos, lo que resalta aún más su rendimiento superior.

Los valores de MAPE, que indican la precisión de la predicción, variaron entre 15.48 % y 18.83 %. Las combinaciones que involucraban CO y O3 mostraron los valores más bajos de MAPE, lo que refleja una mayor precisión en la predicción. Por el contrario, las combinaciones que incluían NO2 y PM2.5 presentaron valores más altos de MAPE, lo que indica una menor precisión en la predicción. La eficiencia computacional varió significativamente, con tasas de predicción que oscilaron entre 35 805 y 79 091 predicciones por segundo. Las combinaciones más complejas, como CO, NO2, O3, PM2.5 y SO2 (fila 26), requirieron hasta 4.5 GB de RAM, pero lograron tasas de predicción superiores.

En resumen, la combinación de CO, O3, PM2.5 y SO2 (fila 24) resultó ser la más precisa, alcanzando el R2 más alto, los errores más bajos y una fuerte eficiencia computacional. En contraste, las combinaciones que incluían NO2 y SO2 tuvieron un rendimiento inferior en todas las métricas, lo que sugiere que estas variables tienen un impacto menor en la precisión de la predicción.

Tabla 4 Resultados del modelo CNN 

Donde:

IP: parámetros de entrada

BS: mejor ventana

PPS: predicciones por segundo

Resultados RNN

El modelo RNN fue evaluado utilizando 26 combinaciones diferentes de parámetros de entrada dentro de una ventana deslizante de 24 horas (Tabla 5). Los valores de R2 variaron de 0.533 a 0.576, siendo la combinación de CO, NO2, O3 y PM2.5 (fila 21) la que alcanzó el R2 más alto de 0.576. Por el contrario, la combinación que involucraba NO2 y SO2 (fila 7) mostró el rendimiento más bajo, con un R2 de 0.533. Los valores de RMSE variaron entre 0.092 y 0.097, mientras que el MAE osciló entre 0.058 y 0.063, siendo la combinación de CO, NO2, O3 y PM2.5 la que presentó los índices de error más bajos, lo que indica un rendimiento superior.

Tabla 5 Resultados del modelo LSTM 

Los valores de MAPE variaron entre 20.48 % y 22.92 %, observándose los valores más bajos en las combinaciones que incluían CO y PM2.5, lo que sugiere una mejor precisión en la predicción. En contraste, las combinaciones que involucraban NO2 and O3 presentaron valores más altos de MAPE, lo que indica una menor precisión. La eficiencia computacional varió significativamente, con tasas de predicción que oscilaban entre 20 478 y 43 654 predicciones por segundo. Las combinaciones más complejas, como CO, NO2, O3, PM2.5 y SO2 (fila 26), requirieron hasta 23.4 GB de RAM, pero demostraron una mayor capacidad de predicción.

En conclusión, la combinación de CO, NO2, O3 y PM2.5 resultó ser la más precisa, alcanzando el R2 más alto, los menores índices de error y una fuerte eficiencia computacional. En contraste, las combinaciones que incluían NO2 y SO2 presentaron un rendimiento inferior de manera consistente en todas las métricas, lo que sugiere que estas variables tienen un impacto limitado en la precisión de la predicción.

Resultados LSTM

El modelo LSTM fue evaluado utilizando 26 combinaciones diferentes de parámetros de entrada, principalmente con una ventana deslizante de 24 horas, aunque algunas configuraciones emplearon ventanas de 144 horas o 720 horas (Tabla 6). Los valores de R2 variaron entre 0.669 y 0.701, siendo la combinación de CO, NO2, PM2.5 y SO2 (fila 23) la que alcanzó el R2 más alto de 0.701. Por el contrario, la combinación de NO2, O3 y SO2 (fila 18) mostró el R2 más bajo, con 0.669. Los valores de RMSE variaron entre 0.087 y 0.092, mientras que el MAE osciló entre 0.056 y 0.062, siendo la combinación de CO, NO2, PM2.5 y SO2 la que presentó los menores valores de error, lo que indica un rendimiento superior.

Tabla 6 Resultados del modelo Transformer 

Los valores de MAPE variaron entre 15.31 % y 17.31 %, siendo los valores más bajos observados en las combinaciones que incluyen CO y NO2, lo que indica una mayor precisión en la predicción. Por el contrario, las combinaciones que involucraron NO2 y PM2.5 mostraron valores más altos de MAPE, lo que sugiere una menor precisión. La eficiencia computacional varió significativamente, con tasas de predicción que oscilaron entre 116 y 8613 predicciones por segundo. Las ventanas deslizantes más cortas generalmente resultaron en tasas de predicción más altas, pero requirieron un mayor uso de RAM. Por ejemplo, combinaciones complejas como CO, NO2, O3, PM2.5 y SO2 (fila 26) demandaron hasta 4.4 GB de RAM y lograron tasas de predicción moderadas. En contraste, combinaciones más simples como CO y NO2 requirieron menos RAM (3.3 GB) pero exhibieron tasas de predicción más bajas.

En resumen, la combinación de CO, NO2, PM2.5 y SO2 (fila 23) surgió como la más precisa, logrando el valor más alto de R2 y las mejores métricas de error, aunque con mayores demandas computacionales. Por el contrario, las combinaciones que involucraron NO2 and SO2 mostraron un rendimiento consistentemente inferior en todas las métricas evaluadas.

Resultados del modelo Transformer

En términos de métricas de error, el RMSE varió entre 0.094 y 0.130, y el MAE entre 0.068 y 0.099, con los errores más bajos observados para la combinación de CO, NO2, PM2.5 y SO2. Se observaron errores más altos, particularmente en el MAE, para combinaciones que involucraban CO y SO2, lo que sugiere que estos insumos son menos efectivos para predicciones precisas. Los valores de MAPE variaron entre 18.19 % y 26.83 %, con los valores más bajos asociados con combinaciones que involucraban O3 y PM2.5, mientras que se observaron valores más altos de MAPE para combinaciones que incluían NO2 y O3 (fila 2).

En cuanto a la eficiencia computacional, las predicciones por segundo variaron entre 2974 y 21 030. Las combinaciones más complejas, con un mayor número de parámetros de entrada y ventanas deslizantes más largas, requirieron un mayor uso de RAM (hasta 3.7 GB), pero lograron tasas de predicción más rápidas. Por el contrario, las combinaciones más simples, como CO y NO2, requirieron menos RAM (1.8 GB) pero presentaron tasas de predicción más lentas. En general, la combinación de CO, NO2, PM2.5 y SO2 (fila 23) resultó ser la más precisa, logrando el mayor R2 y las métricas de error más bajas, aunque con mayores requisitos computacionales. En contraste, las combinaciones que involucraban NO2 y O3 mostraron un rendimiento inferior en todas las métricas.

Análisis de los resultados del modelo de IA

Al comparar el rendimiento de los modelos RNN, CNN, LSTM y Transformer, el Transformer presenta una precisión notablemente más baja, con valores de R2 que oscilan entre 0.322 y 0.640. Este amplio rango resalta los desafíos significativos para capturar la variabilidad de los datos de salida, particularmente al utilizar variables como NO2 y O3 Si bien Transformer demuestra una mayor eficiencia computacional requiriendo entre 1.8 GB y 3.7 GB de RAM y logrando tasas de predicción entre 2,974 y 21,030 predicciones por segundo esta eficiencia no compensa su menor precisión predictiva. Como se ilustra en la Figura 12, los diagramas de dispersión para el modelo Transformer muestran una dispersión considerable alrededor de la línea de referencia, particularmente en valores extremos de ICA. Esta desviación resalta la falta de fiabilidad del modelo en estas situaciones.

El modelo RNN, aunque más preciso que el Transformer, demuestra un rendimiento intermedio con valores de R2 que oscilan entre 0.533 y 0.576. El RNN alcanza una precisión aceptable, con valores de RMSE entre 0.092 y 0.097 y valores de MAE que varían entre 0.058 y 0.063. Sin embargo, sus valores de MAPE, que van de 20.48 % a 22.92 %, son más altos que los observados para los modelos CNN y LSTM. Como se muestra en la Figura 13, los diagramas de dispersión del RNN exhiben una mayor densidad de puntos cerca de la línea y = x en comparación con el modelo Transformer, lo que sugiere una mejor alineación general con los valores observados. No obstante, persiste una dispersión significativa en los niveles extremos de ICA, lo que resalta la variabilidad en la precisión al predecir valores altos o bajos de ICA.

Figura 12 Predicciones del modelo Transformer, combinación 23 (mejor R2 y RMSE) 

En términos de eficiencia computacional, el RNN exhibe un rendimiento equilibrado, con un uso de RAM que varía entre 22.8 GB y 23.4 GB y tasas de predicción entre 20,478 y 43,654 predicciones por segundo. Aunque no es excepcional, este rendimiento posiciona al RNN como una opción viable, ofreciendo una compensación razonable entre precisión y eficiencia.

Figura 13 Predicciones del modelo Transformer, combinación 10 (R2 promedio) 

El modelo CNN exhibió un rango de R2 más alto, de 0.620 a 0.698, lo que demuestra su fuerte capacidad para capturar la variabilidad de los datos y proporcionar predicciones precisas. Entre las combinaciones probadas, CO, O3, PM2.5, and SO2 produjeron el mejor rendimiento. Los errores fueron relativamente bajos, con valores de RMSE entre 0.087 y 0.097 y valores de MAE que variaron entre 0.060 y 0.068. Además, los valores de MAPE entre 15.31 % y 18.83 % subrayaron aún más la precisión predictiva del modelo. Como se ilustra en la Figura 14, los diagramas de dispersión muestran la capacidad del modelo CNN para entregar predicciones consistentes, con una notable agrupación de puntos de datos alrededor de la línea de regresión, incluso en valores extremos, minimizando así los errores. Aunque el modelo CNN es menos eficiente computacionalmente que el Transformer, mantiene un equilibrio razonable, con un uso de RAM que varía entre 3.8 GB y 4.5 GB y una tasa de predicción de 35,805 a 79,091 predicciones por segundo.

Figura 14 Predicciones del modelo Transformer, combinación 5 (Peor R2

El modelo LSTM demuestra una precisión superior entre los modelos evaluados, con un rango de R2 de 0.669 a 0.701, destacando su excepcional capacidad para discernir patrones dentro de los datos. Supera a otros modelos en métricas de error, logrando valores de RMSE entre 0.087 y 0.092 y valores de MAE que varían entre 0.056 y 0.062. Además, el modelo LSTM exhibe los valores más bajos de MAPE, que van de 15.31 % a 17.31 %, subrayando su notable precisión predictiva. Como se ilustra en la Figura 15, los diagramas de dispersión para el modelo LSTM revelan una alta concentración de puntos de datos cerca de la línea de referencia, con una dispersión mínima, incluso para valores extremos de ICA. Esta consistencia y precisión posicionan al LSTM como una opción robusta y confiable para aplicaciones donde la precisión es crítica.

Sin embargo, el modelo LSTM es el menos eficiente computacionalmente entre los evaluados, con un uso de RAM que varía entre 3.3 GB y 4.5 GB y velocidades de predicción entre 116 y 8613 predicciones por segundo. Esta ineficiencia relativa, especialmente cuando se utilizan ventanas deslizantes más largas, puede limitar su aplicabilidad en escenarios donde la velocidad de procesamiento es crítica. No obstante, su precisión excepcional lo establece como una opción altamente confiable para aplicaciones donde la precisión prevalece sobre la eficiencia computacional.

Figura 15 Predicciones del modelo RNN, combinación 21 (mejor R2). 

Figura 16 Predicciones del modelo RNN, combinación 20 (R2 promedio) 

Figura 17 Predicciones del modelo RNN, combinación 7 (peor R2

Figura 18 Predicciones del modelo CNN, combinación 24 (mejor R2

Figura 19 Predicciones del modelo CNN, combinación 18 (R2 promedio) 

Figura 20 Predicciones del modelo CNN, combinación 7 (peor R2

Figura 21 Predicciones del modelo LSTM, combinación 23 (mejor R2

Figura 22 Predicciones del modelo LSTM, combinación 9 (mejor R2

Figura 23 Predicciones del modelo LSTM, combinación 14 (R2 promedio) 

Figura 24 Predicciones del modelo LSTM, combinación 18 (Peor R2). 

Comparación con estudios realizados

Este estudio evalúa la efectividad de los modelos LSTM, GRU, RNN, CNN y Transformer para predecir el índice de calidad del aire en Cuenca, Ecuador, y compara los resultados con los hallazgos de otras investigaciones relevantes, como el estudio realizado por Cui et al. [36], que se centró en la predicción de PM2.5 utilizando modelos Transformer y CNN-LSTMAttention en Pekín, China.

Una distinción clave entre los estudios radica en los conjuntos de datos y sus características. Este estudio utiliza datos de una única estación meteorológica en Cuenca, que comprende 7425 registros del año 2022. En contraste, el estudio de Pekín emplea datos de 12 estaciones de monitoreo recolectados durante cuatro años (2013-2017), sumando más de 35 000 registros. El conjunto de datos más amplio en Pekín permitió a los investigadores incorporar variaciones estacionales y dependencias a largo plazo, factores críticos para una predicción precisa de PM2.5. Además, su modelo Transformer fue mejorado con mecanismos de atención de múltiples cabezas y codificación posicional, lo que permitió una captura más efectiva de patrones temporales complejos y fluctuaciones estacionales [36].

En cuanto al rendimiento del modelo, este estudio demostró que el modelo LSTM alcanza la mayor precisión para la predicción del ICA en Cuenca, con un R2 de 0.701, superando el rendimiento del modelo Transformer, que logró un R2 aproximado de 0.68. Por el contrario, en el estudio de Pekín, el modelo Transformer superó significativamente a la arquitectura CNN-LSTM-Attention, alcanzando un R2 de 0.944 frente a 0.836. Este rendimiento superior se atribuyó a la capacidad del Transformer para manejar tanto cambios meteorológicos abruptos como tendencias a largo plazo, particularmente durante transiciones estacionales complejas como las observadas en otoño e invierno [36].

Otra diferencia notable es el horizonte de predicción. Este estudio evaluó ventanas de predicción a corto y medio plazo (4, 24 y 120 horas), mientras que el estudio de Pekín se centró en predicciones horarias. El modelo Transformer en Pekín demostró ser particularmente efectivo para capturar variaciones repentinas de contaminantes impulsadas por cambios meteorológicos, lo que subraya su idoneidad para predicciones de alta frecuencia en entornos dinámicos [36].

Estos hallazgos subrayan la necesidad de adaptar las arquitecturas de IA a las características únicas de conjuntos de datos específicos y objetivos de predicción. Las investigaciones futuras deben centrarse en el desarrollo de modelos híbridos que aprovechen las fortalezas complementarias de las arquitecturas LSTM y Transformer, con el objetivo de abordar de manera efectiva los desafíos de pronóstico de la calidad del aire tanto a nivel local como regional.

Conclusiones

En este estudio, se evaluó y comparó el rendimiento de varios modelos de inteligencia artificial, incluyendo RNN, CNN, LSTM y Transformers, para la tarea de predecir el Índice de Calidad del Aire (ICA). Los hallazgos revelan que el modelo LSTM superó consistentemente a los otros modelos, logrando un R2 de 0.701 y un RMSE de 0.087. Su rendimiento superior fue particularmente evidente cuando se utilizaron combinaciones de variables como CO, NO2, PM2.5 y SO2. El análisis subraya la efectividad del modelo LSTM para capturar relaciones temporales complejas entre estas variables, estableciéndolo como una herramienta confiable y valiosa para la predicción precisa del ICA en diversos escenarios.

Aunque los modelos Transformers han demostrado un rendimiento excepcional en diversos campos como el procesamiento de lenguaje natural (NLP) y la visión por computadora (CV), su aplicación a la predicción del ICA, particularmente con este conjunto de datos específico, revela limitaciones significativas. En este estudio, los Transformers exhibieron una variabilidad notable en su rendimiento, con coeficientes de determinación que oscilan entre 0.322 y 0.640. Estos hallazgos sugieren que los Transformers enfrentan desafíos para capturar eficazmente la complejidad intrínseca de los datos de series temporales analizados, particularmente cuando se utilizan combinaciones de variables que incluyen NO2 and O3. A pesar de su eficiencia computacional, la precisión predictiva de los Transformers para el ICA no alcanza a la de modelos más competitivos como el LSTM.

En términos de eficiencia computacional, tanto los modelos CNN como LSTM han demostrado su idoneidad para aplicaciones en tiempo real, ofreciendo un equilibrio efectivo entre precisión y utilización de recursos. El modelo LSTM, en particular, se destaca por su excepcional precisión predictiva, un uso eficiente de la RAM de aproximadamente 4.4 GB y su capacidad para realizar un gran número de predicciones por segundo. Esta combinación de alto rendimiento y eficiencia en el uso de recursos hace que el LSTM sea especialmente adecuado para sistemas de predicción de la calidad del aire que requieren respuestas rápidas y precisas, como las aplicaciones de monitoreo ambiental en tiempo real.

A pesar de lograr valores satisfactorios de R2, el análisis reveló una considerable dispersión de los datos y métricas de error elevadas en todas las implementaciones, lo que hace que algunos modelos no sean adecuados para un despliegue confiable. Este estudio sirve como una evaluación comparativa de los enfoques de inteligencia artificial, destacando tanto las fortalezas como las limitaciones de las arquitecturas de IA actuales para la predicción del ICA. Los hallazgos subrayan la necesidad de refinamiento en las implementaciones existentes, al mismo tiempo que enfatizan el considerable potencial de los modelos de IA para mejorar las predicciones de la calidad del aire en el futuro.

En conclusión, el entrenamiento de todos los modelos encontró limitaciones debido al tamaño relativamente pequeño del conjunto de datos de Cuenca y a la baja correlación observada entre ciertos contaminantes. Para investigaciones futuras, recomendamos aprovechar conjuntos de datos más grandes y extender el análisis a lo largo de períodos más largos para mejorar el rendimiento de los modelos y generar conocimientos más sólidos.

Direcciones futuras

La selección de las arquitecturas de Long Short-Term Memory (LSTM), Convolutional Neural Networks (CNN), Transformer y Recurrent Neural Networks (RNN) como modelos fundamentales en este estudio se basó en su prominencia establecida en el análisis de series temporales y sus contribuciones significativas a los avances en la investigación de IA. Sobre la base de estas arquitecturas fundamentales, las investigaciones futuras deben explorar la incorporación de modelos mejorados basados en Transformer mediante la integración de mecanismos de atención multicabeza y esquemas de codificación posicional. Estos avances podrían permitir una modelización más sofisticada de las dependencias temporales en los patrones de calidad del aire.

La implementación de redes neuronales informadas por física (PINN) también presenta una dirección prometedora, ya que estas arquitecturas integran explícitamente las ecuaciones fundamentales de la física atmosférica y el transporte químico en el marco de redes neuronales. Este enfoque ofrece el potencial de cerrar la brecha entre las metodologías basadas en datos y los modelos teóricos, mejorando la interpretabilidad y la precisión de las predicciones.

Si bien las arquitecturas establecidas como Transformers, CNN, RNN y LSTM han demostrado una notable eficacia, explorar metodologías emergentes como ecuaciones diferenciales ordinarias neuronales (Neural ODE), Transformers de Fusión Temporal y redes Informer podría generar incluso mayores capacidades predictivas. Estos enfoques novedosos, aunque menos adoptados en la investigación de IA, podrían abordar los desafíos existentes en la modelización de dinámicas atmosféricas no lineales y complejas correlaciones intervariables, llevando la predicción del ICA a nuevos niveles de precisión y fiabilidad.

Referencias

1 [] J., Zhang, and S., Li, “Air quality index forecast in beijing based on cnnlstm multi-model,” Chemosphere, vol. 308, p. 136180, 2022. [Online]. Available: 10.1016/j.chemosphere.2022.136180 [ Links ]

2 [] M., Ansari, and M., Alam, “An intelligent iotcloud- based air pollution forecasting model using univariate time-series analysis,” Arabian Journal for Science and Engineering, vol. 49, no. 3, pp. 3135-3162, Mar 2024. [Online]. Available: 10.1007/s13369-023-07876-9 [ Links ]

3 [] F., Cassano, A., Casale, P., Regina, L., Spadafina, and P., Sekulic, “A recurrent neural network approach to improve the air quality index prediction,” in Ambient Intelligence - Software and Applications -,10th International Symposium on Ambient Intelligence, P. Novais, J. Lloret, P. Chamoso, D. Carneiro, E. Navarro, and S. Omatu, Eds. Cham: Springer International Publishing, 2020, pp. 36-44. [Online]. Available: 10.1007/978-3-030-24097-4_5 [ Links ]

4 [] K., Oguz, and M. A., Pekin, Prediction of Air Pollution with Machine Learning Algorithms. 1-12: Turkish Journal of Science and Technology , 2024, vol. 19, no. 1. [Online]. Available: 10.55525/tjst.1224661 [ Links ]

5 [] H., Jalali, F., Keynia, F., Amirteimoury, and A., Heydari, “A short-term air pollutant concentration forecasting method based on a hybrid neural network and metaheuristic optimization algorithms,” Sustainability, vol. 16, no. 11, 2024. [Online]. Available: 10.3390/su16114829 [ Links ]

6 [] R., Patil, D., Dinde, and S., Powar, “A literature review on prediction of air quality index and forecasting ambient air pollutants using machine learning algorithms,” International Journal of Innovative Science and Research Technology, vol. 5, pp. 1148-1152, 09 2020. [Online]. Available: 10.38124/IJISRT20AUG683 [ Links ]

7 [] R., Hassan, M., Rahman, and A., Hamdan, “Assessment of air quality index (aqi) in riyadh, saudi arabia,” IOP Conference Series: Earth and Environmental Science, vol. 1026, no. 1, p. 012003, may 2022. [Online]. Available: 10.1088/1755-1315/1026/1/012003 [ Links ]

8 [] W.-T., Tsai, and Y.-Q., Lin, “Trend analysis of air quality index (aqi) and greenhouse gas (ghg) emissions in taiwan and their regulatory countermeasures,” Environments, vol. 8, no. 4, 2021. [Online]. Available: 10.3390/environments8040029 [ Links ]

9 [] G., Ravindiran, S., Rajamanickam, K., Kanagarathinam, G., Hayder, G., Janardhan, P., Arunkumar, S., Arunachalam, A. A., AlObaid, I., Warad, and S. K., Muniasamy, “Impact of air pollutants on climate change and prediction of air quality index using machine learning models,” Environmental Research, vol. 239, p. 117354, 2023. [Online]. Available: 10.1016/j.envres.2023.117354 [ Links ]

10 [] N. P., Canh, W., Hao, and U., Wongchoti, “The impact of economic and financial activities on air quality: a chinese city perspective,” Environmental Science and Pollution Research, vol. 28, no. 7, pp. 8662-8680, Feb 2021. [Online]. Available: 10.1007/s11356-020-11227-8 [ Links ]

11 [] T., Madan, S., Sagar, and D., Virmani, “Air quality prediction using machine learning algorithms -a review,” in 2020 2nd International Conference on Advances in Computing, Communication Control and Networking (ICACCCN), 2020, pp. 140-145. [Online]. Available: 10.1109/ICACCCN51052.2020.9362912 [ Links ]

12 [] M., Kaur, D., Singh, M. Y., Jabarulla, V., Kumar, J., Kang, and H.-N., Lee, “Computational deep air quality prediction techniques: a systematic review,” Artificial Intelligence Review, vol. 56, no. 2, pp. 2053-2098, Nov 2023. [Online]. Available: 10.1007/s10462-023-10570-9 [ Links ]

13 [] S., Senthivel, and M., Chidambaranathan, “Machine learning approaches used for air quality forecast: A review,” Revue d’Intelligence Artificielle, vol. 36, no. 1, pp. 73-78, 2022. [Online]. Available: 10.18280/ria.360108 [ Links ]

14 [] Q., Wu, and H., Lin, “A novel optimalhybrid model for daily air quality index prediction considering air pollutant factors,” Science of The Total Environment, vol 683, pp. 808-821, 2019. [Online]. Available: 10.1016/j.scitotenv.2019.05.288 [ Links ]

15 [] Y., Xu, H., Liu, and Z., Duan, “A novel hybrid model for multi-step daily aqi forecasting driven by air pollution big data,” Air Quality, Atmosphere & Health, vol. 13, no. 2, pp. 197-207, Feb 2020. [Online]. Available: 10.1007/s11869-020-00795-w [ Links ]

16 [] Z., Zhao, J., Wu, F., Cai, S., Zhang, and Y.-G., Wang, “A statistical learning framework for spatial-temporal feature selection and application to air quality index forecasting,” Ecological Indicators, vol. 144, p. 109416, 2022. [Online]. Available: 10.1016/j.ecolind.2022.109416 [ Links ]

17 [] J. A., Moscoso-López, D., Urda, J., González- Enrique, J. J., Ruiz-Aguilar, and I., Turias, “Hourly air quality index (aqi) forecasting using machine learning methods,” in 15th International Conference on Soft Computing Models in Industrial and Environmental Applications (SOCO 2020), 2021, pp. 123-132. [Online]. Available: https://upsalesiana.ec/ing33ar6r17Links ]

18 [] B. S., Chandar, P., Rajagopalan, and P., Ranganathan, “Short-term aqi forecasts using machine/ deep learning models for san francisco, ca,” in 2023 IEEE 13th Annual Computing and Communication Workshop and Conference (CCWC), 2023, pp. 0402-0411. [Online]. Available: 10.1109/CCWC57344.2023.10099064 [ Links ]

19 [] J., Wang, P., Du, Y., Hao, X., Ma, T., Niu, and W., Yang, “An innovative hybrid model based on outlier detection and correction algorithm and heuristic intelligent optimization algorithm for daily air quality index forecasting,” Journal of Environmental Management, vol. 255, p. 109855, 2020. [Online]. Available: 10.1016/j.jenvman.2019.109855 [ Links ]

20 [] M., Méndez, M. G., Merayo, and M., Núñez, “Machine learning algorithms to forecast air quality: a survey,” Artificial Intelligence Review , vol. 56, no. 9, pp. 10 031-10 066, Sep 2023. [Online]. Available: 10.1007/s10462-023-10424-4 [ Links ]

21 [] C., Ji, C., Zhang, L., Hua, H., Ma, M. S., Nazir, and T., Peng, “A multi-scale evolutionary deep learning model based on ceemdan, improved whale optimization algorithm, regularized extreme learning machine and lstm for aqi prediction,” Environmental Research , vol. 215, p. 114228, 2022. [Online]. Available: 10.1016/j.envres.2022.114228 [ Links ]

22 [] R., Yan, J., Liao, J., Yang, W., Sun, M., Nong, and F., Li, “Multi-hour and multi-site air quality index forecasting in beijing using cnn, lstm, cnn-lstm, and spatiotemporal clustering,” Expert Systems with Applications, vol. 169, p. 114513, 2021. [Online]. Available: 10.1016/j.eswa.2020.114513 [ Links ]

23 [] E., Hossain, M. A. U., Shariff, M. S., Hossain, and K., Andersson, “A novel deep learning approach to predict air quality index,” in Proceedings of International Conference on Trends in Computational and Cognitive Engineering, M. S. Kaiser, A. Bandyopadhyay, M. Mahmud, and K. Ray, Eds. Singapore: Springer Singapore, 2021, pp. 367-381. [Online]. Available: 10.1007/978-981-33-4673-4_29 [ Links ]

24 [] Q., Wen, T., Zhou, C., Zhang, W., Chen, Z., Ma, J., Yan, and L., Sun, “Transformers in time series: a survey,” in Proceedings of the Thirty-Second International Joint Conference on Artificial Intelligence, ser. IJCAI ’23, Macao, P.R.China, 2023. [Online]. Available: 10.24963/ijcai.2023/759 [ Links ]

25 [] Y., Guo, T., Zhu, Z., Li, and C., Ni, “Auto-modal: Air-quality index forecasting with modal decomposition attention,” Sensors, vol. 22, no. 18, 2022. [Online]. Available: 10.3390/s22186953 [ Links ]

26 [] S., Ma, J., He, J., He, Q., Feng, and Y., Bi, “Forecasting air quality index in yan’an using temporal encoded informer,” Expert Systems with Applications , vol. 255, p. 124868, 2024. [Online]. Available: 10.1016/j.eswa.2024.124868 [ Links ]

27 [] J., Xie, J., Li, M., Zhu, and Q., Wang, “Multi-step air quality index forecasting based on parallel multi-input transformers,” in Pattern Recognition, H. Lu, M. Blumenstein, S.-B. Cho, C.-L. Liu, Y. Yagi, and T. Kamiya, Eds. Cham: Springer Nature Switzerland, 2023, pp. 52-63. [Online]. Available: 10.1007/978-3-031-47665-5_5 [ Links ]

28 [] U.S. Environmental Protection Agency, Guideline for Reporting of Daily Air Quality - Air Quality Index (AQI). U.S. Environmental Protection Agency Research Triangle Park, North Carolina, 2006. [Online]. Available: https://upsalesiana.ec/ing33ar6r28Links ]

29 [] H. S., Hota, R., Handa, and A. K., Shrivas, “Time series data prediction using sliding window based rbf neural network,” in International Journal of Computational Intelligence Research, vol. 13, no. 5, 2017, pp. 1145-1156. [Online]. Available: https://upsalesiana.ec/ing33ar6r29Links ]

30 [] D. C., Yadav, and S., Pal, “15 - measure the superior functionality of machine intelligence in brain tumor disease prediction,” in Artificial Intelligence-Based Brain-Computer Interface, V. Bajaj and G. Sinha, Eds. Academic Press, 2022, pp. 353-368. [Online]. Available: 10.1016/B978-0-323-91197-9.00005-9 [ Links ]

31 [] A., Sherstinsky, “Fundamentals of recurrent neural network (rnn) and long short-term memory (lstm) network,” Physica D: Nonlinear Phenomena, vol. 404, p. 132306, 2020. [Online]. Available: 10.1016/j.physd.2019.132306 [ Links ]

32 [] S., Hesaraki. (2023) Long short-term memory (lstm). Medium. Human Stories ideas. [Online]. Available: https://upsalesiana.ec/ing33ar6r32Links ]

33 [] Y., Mansar. (2021) How to use transformer networks to build a forecasting model. Medium. Human Stories ideas. [Online]. Available: https://upsalesiana.ec/ing33ar6r33Links ]

34 [] J. A., Segovia, J. F., Toaquiza, J. R., Llanos, and D. R., Rivas, “Meteorological variables forecasting system using machine learning and open-source software,” Electronics, vol. 12, no. 4, 2023. [Online]. Available: 10.3390/electronics12041007 [ Links ]

35 [] M., Hammad Hasan. (2023) Tuning model hyperparameters with random searcha comparison with grid search. Medium. Human Stories ideas. [Online]. Available: https://upsalesiana.ec/ing33ar6r35Links ]

36 [] B., Cui, M., Liu, S., Li, Z., Jin, Y., Zeng, and X., Lin, “Deep learning methods for atmospheric pm2.5 prediction: A comparative study of transformer and cnn-lstmattention,” Atmospheric Pollution Research, vol. 14, no. 9, p. 101833, 2023. [Online]. Available: 10.1016/j.apr.2023.101833 [ Links ]

1Forma sugerida de citación: Buestán Andrade, P. A.; Carrión Zamora, P.E.; Chamba Lara, A.E. y Pazmiño Piedra, J.P. “Una evaluación integral de las técnicas de ia para predecir el índice de calidad del aire: RNN y transformers,” Ingenius, Revista de Ciencia y Tecnología, N.◦ 33, pp. 60-75, 2025. doi: https://doi.org/10.17163/ings.n33.2025.06.

Recibido: 18 de Octubre de 2024; Revisado: 15 de Noviembre de 2024; Aprobado: 25 de Noviembre de 2024

Autor para correspondencia:juan.pazmino@ucacue.edu.ec.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons