SciELO - Scientific Electronic Library Online

 
vol.18 issue1Development of a Computer Application for the Calibration and Coordination of the 50/51 Overcurrent RelayDetermination of oscillatory modes in the SADI from the analysis of PMU measurements of ambient data in Low Voltage author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • Have no similar articlesSimilars in SciELO

Share


Revista Técnica energía

On-line version ISSN 2602-8492Print version ISSN 1390-5074

Revista Técnica energía vol.18 n.1 Quito Jul./Dec. 2021

https://doi.org/10.37116/revistaenergia.v18.n1.2021.466 

SISTEMAS ELÉCTRICOS DE POTENCIA

Predicción del Margen de Estabilidad de Corredores de Transmisión Aplicando Criterios de Minería de datos y Algoritmos de Machine Learning

Transmission Corridor Stability Margin Prediction Applying Data Mining Criteria and Machine Learning Algorithms

Luis Chiza1 

Jaime Cepeda2 

1 Escuela Politécnica Nacional, Quito, Ecuador E-mail: luis.chiza@epn.edu.ec

2 Operador Nacional de Electricidad-CENACE, Quito, Ecuador E-mail: cepedajaime@ieee.org


Resumen:

La Estabilidad de Voltaje se refiere a la habilidad del sistema de mantener voltajes aceptables en todas las barras, considerando condiciones normales de operación y posterior a ser sometido a una perturbación. El presente trabajo predice los parámetros críticos del sistema basados en la Curva P-V determinada mediante el cálculo del Equivalente de Thévenin en un corredor de transmisión. Se obtiene un conjunto de datos (dataset) mediante simulaciones de Montecarlo efectuadas en el sistema de prueba de 39 barras en PowerFactory, controlado mediante Python. Dada una condición operativa se efectúan N simulaciones que permiten establecer distintas condiciones operativas del sistema ante variaciones de los valores de cada una de las cargas del sistema. A partir del dataset, se aplica Minería de Datos para entrenar modelos de regresión basados en redes neuronales artificiales y máquinas de soporte vectorial que predicen la condición de máxima transferencia de potencia. Posteriormente, el MSE (Mean-squared error) es usado para analizar el desempeño de los modelos de regresión. La metodología propuesta puede ser aplicada en centros de control para predecir el punto de máxima transferencia de potencia de un corredor de transmisión congestionado. Esta predicción brinda señales de alerta temprana en la operación, así como permite estructurar criterios de despacho con restricciones de seguridad en la planificación.

Palabras Clave: Montecarlo; estabilidad de voltaje; extracción de características; PCA; máquina de aprendizaje; ANN; SVM; gridsearch

Abstract:

Voltage Stability refers to the ability of the system to maintain acceptable voltages in all busbars, considering normal operating conditions and after being subjected to a disturbance. The present work predicts the critical parameters of the system based on the P-V Curve determined by the Thévenin's Equivalent in a transmission corridor. A dataset is obtained via Monte Carlo simulations performed on the 39-bus test system model in PowerFactory controlled by Python. Given an operating condition, N simulations are performed to establish different system operating conditions under variations in the values of each of the system loads. From the obtained dataset, Data Mining is applied to train regression models based on artificial neural networks and support vector machines to predict the maximum power transfer condition. Afterwards, the MSE (Mean-squared error) is used to analyze the performance of the regression models. The proposed methodology can be applied in control centers to predict the maximum transfer power point of a congested transmission corridor. This prediction offers early warning signs in operations and might allow structuring criteria for security constrained dispatch in planning.

Keywords: Monte carlo; voltage stability; feature extraction; PCA; machine learning; ANN; SVM; gridsearch

INTRODUCCIÓN

El presente trabajo está enfocado en el cálculo de los parámetros de la curva P-V tales como Potencia de Carga máxima, Voltaje en el punto de colapso, Margen de cargabilidad, Potencia y Voltaje en los Puntos de operación, basado en la técnica del Equivalente Thévenin. Para determinar los diferentes puntos de operación que permitan establecer un conjunto de datos extensos, se emplea Simulación de Montecarlo, estableciendo N condiciones operativas. Obtenido el dataset, se procede a efectuar una reducción de la dimensionalidad empleando la técnica de Feature extraction denominada Análisis de Componentes Principales, seguidamente se emplea modelos entrenados basados en técnicas de Machine Learning con sus correspondientes análisis de desempeño.

La operación de los Sistemas Eléctricos de Potencia (SEP) cerca de sus límites físicos, incurre en la presencia en ciertas perturbaciones de manera imprevista las cuales podrían causar una eventual violación de los límites de seguridad del SEP, que puede conllevar a poner en riesgo de un posible colapso total o parcial.

Entre las herramientas más utilizadas para analizar la estabilidad de voltaje en los sistemas de potencia está la determinación de las curvas Potencia-Voltaje (P-V) y de la capacidad de transferencia disponible. Con relación al desarrollo de las tecnologías de medición sincrofasorial, el uso de herramientas de monitoreo de estabilidad de voltaje en tiempo real es de gran utilidad. Entre las herramientas empleadas está la técnica del Equivalente de Thévenin, la cual permite calcular la proximidad entre el estado operativo actual y el colapso de voltaje, a través de la determinación de la curva P-V en tiempo real. Así, se puede determinar la robustez relativa del sistema de transmisión respecto de las barras de carga [1]. Asimismo, existen otros métodos de análisis de estabilidad de voltaje tales como el análisis de sensibilidad o modal del jacobiano reducido [1]. No obstante, estos métodos convencionales no realizan una predicción anticipada (alerta temprana) del punto de máxima transferencia de potencia, sino que brindan un valor único para la condición de análisis. En este sentido, el presente trabajo plantea una metodología capaz de realizar esta predicción.

La curva P-V se determinar a partir de un punto de operación dado, consecuentemente se puede establecer los valores del margen de cargabilidad considerando la capacidad de transferencia disponible. La aplicación de la técnica del Equivalente de Thévenin en un corredor de transmisión se lo realiza considerando tanto las barras de envío y como las de recepción, considerando que en cada uno de estos puntos se tiene instalado una Unidad de medición fasorial (PMU, por sus siglas en inglés). Las PMUs son dispositivos que permiten efectuar una estimación de sincrofasores de las ondas sinusoidales de corriente y voltaje AC. Sus características de alta precisión, velocidad de respuesta y sincronización de tiempo, hacen de estos equipos ideales para el monitoreo global en estado estable y dinámico. Adicional a los valores y mediciones estimadas por parte de las PMU en cada uno de los extremos del corredor de transmisión, se requiere determinar el estado operativo de todo el sistema, es decir, los valores de voltaje y corrientes de cada uno de las barras y corredores de transmisión [1] [2].

Para el análisis a efectuarse, se emplea el sistema de prueba de 39 barras disponible en DIgSILENT PowerFactory. Se consideran tres corredores de transmisión que son: Línea 4-14 (Corredor 1), Línea 21-22 (Corredor 2) y Línea 16-17 (Corredor 3). La selección de estos corredores se lo realiza a partir del criterio de cargabilidad y selección de áreas analizadas en [3].

El conjunto de datos que se obtendrá de la red de prueba de manera general está compuesto por:

Voltaje de Punto de Colapso para los corredores de transmisión seleccionados.

Potencia de carga máxima para los corredores de transmisión seleccionados.

Margen de cargabilidad para los corredores de transmisión seleccionados.

Voltaje y Potencia en el punto de operación para los corredores de transmisión seleccionados.

Voltajes y corrientes para cada una de las líneas y barras del sistema.

De esta manera, se genera un dataset de 88 variables. Por lo tanto, a partir de todo este conjunto de datos, se propone elaborar un modelo inteligente que permita determinar los valores críticos tales como del voltaje en el punto de colapso y del margen de estabilidad de los corredores de transmisión.

Para este fin, debido a la gran cantidad de información obtenida del sistema se emplea como punto de partida a lo que se denomina “Feature Extraction”, mediante estas técnicas se procederá a efectuar una reducción de la dimensionalidad del conjunto de variables. Entre las técnicas de Feature Extraction se tiene al denominado Análisis de Componentes Principales (PCA, por sus siglas en inglés), en donde primeramente se hace una identificación de las entradas y salidas del modelo a entrenarse.

Para la estimación o predicción de los valores del voltaje en el punto de colapso y del margen de estabilidad se emplean técnicas de Machine Learning, los cuales, en complemento a la reducción de la dimensionalidad obtenida, permitirán obtener modelos entrenados, que ante condiciones operativas determinadas permitirán estimar los valores críticos del sistema. Las técnicas a emplearse serán: Redes Neuronales y Máquinas de Soporte Vectorial, en su versión de regresor. Para un mejor desempeño de los modelos, se ha empleado una técnica de optimización denominada GridSearchCV, la cual permitirá establecer los mejores parámetros para cada uno de los modelos de regresión. Al tratarse de modelos entrenados, existe la necesidad de establecer parámetros que permitan tener una estimación de su rendimiento y precisión. Por lo cual, para el caso práctico del presente trabajo se ha empleado el índice Mean-Squared Error (MSE), en base al cual se realizará un análisis comparativo con cada uno de los modelos empleados.

MARCO TEÓRICO

Estabilidad de Voltaje

En base a la curva P-V se pueden determinar parámetros tales como los voltajes de colapso y la máxima transferencia de potencia en un corredor de transmisión a partir de un punto de operación dado, de esta manera además se pueden establecer los valores del margen de cargabilidad considerando la capacidad de transferencia disponible. Para determinar estos parámetros se emplea la técnica basada en el modelo del Equivalente de Thévenin, en donde, considerando al corredor de transmisión cuyas barras son B1 y B2 como en la Fig.1, de envío y recepción respectivamente, se puede realizar la estimación en tiempo real, considerando que en cada una de las barras se tiene instalado una PMU [1].

Fuente: [1]

Figura 1: Monitoreo de corredores de transmisión a través de PMUs  

Considerando el circuito equivalente basado en el modelo “T” de la línea de transmisión de la Fig. 2, se tiene representado a la barra de envío B1 como un generador equivalente y a la barra de recepción B2 como una carga equivalente.

Fuente: [1]

Figura 2: Equivalente “T” de la línea de transmisión  

En relación al Teorema del Equivalente de Thévenin, se tiene que a un circuito eléctrico lineal se lo puede representar por un circuito equivalente, el cual está conformado por un generador de voltaje ( (V_th ) ̅) en serie con una impedancia ( (Z_th ) ̅), tal como se muestra en el circuito de la Fig. 3.

Fuente: [1]

Figura 3: Equivalente Thévenin del corredor de transmisión  

Las expresiones que permiten la obtención del circuito equivalente de Thévenin se detallan a continuación [1] [2]:

Obtenidos los parámetros del equivalente de Thévenin, se los puede emplear para la deducción de la expresión de la curva P-V, la misma que está dada por la siguiente expresión:

Simulación de Montecarlo

Se trata de una técnica que permite la generación de datos de forma aleatoria basados en una función de distribución conocida.

Su aplicación está enfocada en determinar situaciones en las cuales se requiere hacer una estimación y toma de decisiones a partir de variables con incertidumbre [3].

Análisis de Componentes Principales (PCA) [4] [5] [6] [7]

El análisis de componentes principales (PCA) es una técnica de minería de datos que permite reducir la dimensionalidad de los datos, manteniendo a la medida de lo posible, la variación presente en ellos. Esto se consigue mediante la transformación de los datos en un nuevo conjunto de variables, denominadas componentes principales (PCs), que no están correlacionadas, y que están ordenadas de manera que los primeros componentes conservan la mayor parte de la variación presente en las variables originales. Estas nuevas variables (zi) se determinan en base a los valores ((i) y vectores (ui) propios de la matriz de covarianza de los datos originales

La suma de los valores propios de los PCs ((i) es equivalente a la varianza total de la matriz de datos, y cada valor propio ofrece una medición de la variabilidad explicada (EVi) por el i-ésimo PC. Por lo tanto, el número de los PCs elegidos depende de la variabilidad explicada que se desee.

Para tener una idea de la selección del número de componentes principales, se puede también usar la gráfica de Número de Componentes Principales vs. Variabilidad Explicada. En donde, se puede observar la cantidad de información que se puede obtener de acuerdo con un número determinado de componentes principales, tal como se muestra en la Fig. 4.

Figura 4: Gráfica de Componentes Principales vs Variabilidad 

Técnicas de Machine Learning

Las técnicas de Machine Learning o conocidas también de aprendizaje automático se basa en todo lo que se refiere con las ciencias de la computación, ciencia de datos y estadística. Permitiendo establecer a los algoritmos la identificación de patrones a partir de aquellos datos [8].

Entre las técnicas de aprendizaje automático que se van a emplear están:

Red Neuronal (Multi-layer Percepton)

Regresor basado en Máquinas de Soporte Vectorial (SVM)

Multi-layer Percepton (MLP) [9]

Denominado como Perceptrón Multicapa, en su traducción al español, este algoritmo es del tipo supervisado. Su aprendizaje está basado en la función:

Su entrenamiento se da en un conjunto de datos, en donde m es el número de dimensiones para la entrada y o es el número de dimensiones para la salida.

Considerando a un conjunto de características X= x 𝟏 , 𝒙 𝟐 , …, 𝒙 𝒎 y a un valor objetivo 𝒚, posee la capacidad de aprendizaje de un aproximador de función no lineal para la clasificación o regresión. En la Fig. 5 se muestra un ejemplo de un MLP de una capa oculta con salida de tipo escalar.

Figura 5: MLP de una capa oculta [9] 

La capa que se encuentra más a la izquierda, denominada como capa de entrada, consta de un conjunto de neuronas 𝒙 𝒊 𝒙 𝟏 , 𝒙 𝟐 , …, 𝒙 𝒎 , las mismas que son la representación de las características de entrada.

La operación que efectúa cada neurona de la capa oculta consiste en la transformación de los valores de la capa anterior con una suma lineal ponderada, de la siguiente manera:

Seguidamente se determina una función de activación no lineal 𝒈 . :𝑹→𝑹−, la cual es denotada como la función de bronceado hiperbólico [10] (Fig. 6). La capa de salida recibe los valores de la última capa oculta y los transforma en valores de salida.

Fuente: [10]

Figura 6: Función de bronceado hiperbólico  

Regresor basado en Máquinas de Soporte Vectorial (SVM)

La relevancia que presenta el uso de una máquina de soporte vectorial (SVM) está en la capacidad que presenta para aprender de clasificación de datos con precisión y reproducibilidad equilibradas.

La función de decisión de una SVM es un hiperplano óptimo, el cual separa (clasifica) las observaciones pertenecientes a una clase de otra en base a patrones de información sobre dichas observaciones denominadas como características. Tal hiperplano se puede usar para establecer la etiqueta más probable para los datos invisibles.

La implementación de una SVM implica el equilibrio de dos objetivos que se complementan:

Maximización del porcentaje de etiquetas correctas que se asignan a nuevos ejemplos (optimizar su precisión).

El modelo entrenado sea generalizable a nuevos datos (optimizar su reproducibilidad).

De manera general la primera característica está limitada por la importancia de los features. En cuanto a la segunda característica, se encuentra limitada por el número de ejemplos únicos utilizados para el entrenamiento del modelo [11].

Previamente al entrenamiento del modelo, se requiere de la transformación de los datos originales de entrenamiento sin procesar a un conjunto de características que se los puede usar como entrada para la SVM. Entre los métodos empleados para este fin, se emplea al denominado “método kernel”. En donde, se usa una función kernel que representa las medidas de similitud por pares entre todos los patrones de ejemplo, las cuales se las resume en una matriz de kernel con N x N dimensiones, en donde N representa al número de observaciones.

La función de kernel permite un entrenamiento de la SVM a través de la matriz del kernel, aplicable tanto en casos lineales como no lineales, efectuando un mapeo de los datos sin procesar a un espacio de características de mayor dimensión, un ejemplo de lo detallado se muestra en la Fig. 7 [12].

Fuente: [12]

Figura 7: Aplicación del método de kernel  

El entrenamiento de un modelo de SVM está relacionado con establecer los parámetros w y b de la función de decisión:

Esta función orienta el hiperplano, de esta manera la proyección de puntos separa al máximo los miembros de las dos clases.

Además del ajuste de los parámetros centrales (w,b), se debe de considerar como parámetros críticos a la elección de los valores de los hiperparámetros, los cuales se tratan de variables que se relacionan con el ajuste de la función de decisión y se establecen previo al inicio del entrenamiento [13].

El desempeño de la SVM se lo evalúa a partir de su sensibilidad, especificidad y precisión, estableciendo métricas e información acerca de la precisión y reproducibilidad del hiperplano SVM.

Para la evaluación conjunta de la precisión y la reproducibilidad, es necesario efectuar pruebas de permutación, de manera que el hiperplano se estima de manera iterativa mediante etiquetas de clase permutadas de manera aleatoria, considerando una ventana de valores de hiperparámetros, para varias versiones con un remuestreo del conjunto de datos [14].

PROPUESTA METODOLÓGICA

En la Fig. 11 se muestra un esquema de la metodología propuesta para el análisis predictivo de la estabilidad de voltaje. Previamente, se selecciona como red de prueba al sistema de 39 barras (New England). Considerando un corredor de transmisión por cada una de las áreas, en referencia a la Fig. 8 [15] .

Fuente: [15]

Figura 8: Identificación de áreas. Sistema de 39 Barras-New England  

Simulación de Montecarlo

Se efectúan simulaciones iterativas, en las cuales, para cada una de las iteraciones, se varían las condiciones operativas, para el caso práctico se efectuó una variación aleatoria de todas las cargas conectadas a cada una de las barras del sistema. La variabilidad de las cargas se las obtuvo siguiendo una curva de distribución normal aleatoria, tanto para el caso de la Potencia Activa, como del valor del factor de potencia, a partir del cual se calcula la Potencia Reactiva.

En las Figuras 9 y 10 se presentan las curvas de distribución normal de la Potencia Activa de la Carga 4 y del factor de potencia, respectivamente.

Figura 9: Curva de Distribución Normal de Potencia Activa de Carga 4 

Figura 10: Curva de Distribución Normal del Factor de Potencia  

Figura 11: Esquema de la Metodología Propuesta 

Para el caso de la potencia activa, el valor medio se lo toma del valor inicial presente en cada una de las cargas, considerando al valor de la desviación estándar en un 10% a 20% de la carga, para que exista una mayor incidencia dentro de la red, que inclusive lleve a condiciones operativas críticas. Para el caso del factor de potencia, se sigue un valor medio de 0.92 y una desviación estándar de 0.02. Teniéndose los valores de Potencia activa y factor de potencia se estima el valor de la potencia reactiva para cada una de las cargas.

Simulación de estado estacionario

Para cada una de las iteraciones dentro de la simulación de Montecarlo, se procede a efectuar el cálculo de flujos de potencia. De esta manera se obtienen los valores de Voltaje y Corriente para cada una de las barras y líneas de transmisión. Considerando que el objetivo del presente trabajo es el cálculo del equivalente Thévenin para los corredores de transmisión seleccionados y el posterior cálculo de los parámetros de la curva P-V, se efectúan dichas operaciones dentro de cada una de las iteraciones, adicionalmente se obtiene los valores de los márgenes de estabilidad.

Minería de Datos

Posterior a la generación y extracción de datos, es necesario hacer un tratamiento de estos, de manera que se pueda realizar su procesamiento y análisis.

Para este fin, inicialmente se conoce el estado de los datos, es decir que no existan ciertas inconsistencias. Además, a través del análisis estadístico se puede determinar cuan coherentes han sido los datos generados, es decir, si están dentro de los límites tanto físicos como operacionales del sistema.

En la Fig. 12, se muestra un desglose de los datos importados dentro de Python para su tratamiento.

Figura 12: Contenido y Características del Dataset 

Una vez efectuado el tratamiento de datos, se procede a realizar el Análisis de Componentes Principales. Para lo cual se debe diferenciar las variables de entrada (X) y de salida (Y) que tendrán los modelos de aprendizaje y predicción. De esta manera se tiene lo siguiente:

Variables de Entrada:

Voltajes y Corrientes de las barras y líneas de transmisión del sistema.

Potencias y Voltajes en los puntos de operación obtenidos en la curva P-V para cada uno de los corredores seleccionados.

Variables de Salida:

Potencias y Voltajes en el punto de colapso obtenidas en la curva P-V para cada uno de los corredores seleccionados.

Margen de estabilidad calculado para cada uno de los corredores seleccionados.

Para la obtención de las componentes principales se emplea las variables de entrada X, siguiendo el siguiente procedimiento:

Se efectúa un escalamiento estándar de los datos y un entrenamiento de los mismos. “X=StandarScaler().fit_transform(X)”

Se obtiene la Variabilidad explicada: “pca.explained_ratio”

A partir de la Variabilidad explicada se procede a realizar el diagrama de codo, el cual relaciona a la variabilidad explicada acumulada con el número de componentes principales.

Es recomendable, en base al diagrama de codo, determinar el número de componentes principales en función a los que permitan obtener por lo menos un 90% de la información del sistema.

Determinando el número de componentes principales se procede a la obtención de las puntuaciones o “scores”, los mismos que se convertirán en la variable de entrada X a los modelos de entrenamiento.

Machine Learning

Obtenidas las variables de entrada y salida, se procede primeramente a efectuar el entrenamiento de los regresores. Para esto, se genera un subconjunto de datos de entrenamiento que se utiliza para la estimación de los parámetros del modelo, y por otra parte se genera un subconjunto de datos de test que se emplean para la comprobación del comportamiento de los modelos de aprendizaje. De manera que los valores que se generan posterior al entrenamiento son:

Subconjunto de entrenamiento: Xtrain e Ytrain.

Subconjunto test: Xtest e Ytest.

Red Neuronal MLP

Para implementar el modelo de aprendizaje basado en redes neuronales MLP se deben de establecer los siguientes parámetros [9]:

Tamaño de las capas ocultas: este parámetro representa el número de neuronas en la i-ésima capa oculta.

Función de activación: especifica la función de activación de la capa oculta. Se tienen las siguientes funciones de activación:

Identidad: ideales para implementar cuellos de botella de tipo lineal. Activación de tipo no operativa. Retorna f(x)=x.

Logística: función sigmoidea logística, retorna 𝑓 𝑥 = 1 1+ 𝑒 −𝑥 .

Tanh: función tangente hiperbólica. Retorna f(x)=tanh(x).

Relu: se trata de una función de unidad lineal rectificada. Retorna f(x)=max(0, x).

Solver: para establecer los métodos de optimización.

Lbgs: optimizador de la familia de métodos cuasi-Newtonianos.

Sgd: optimizador de gradiente descendiente estocástica.

Adam: optimizador estocástico basado en gradientes.

Alfa: parámetro de penalización (término de regularización).

Máquina de Soporte Vectorial (SVM) [16]

Los parámetros necesarios para implementar un regresor basado en máquinas de soporte vectorial son:

Kernel: similar al solver empleado en redes neuronales, se determina el algoritmo a través del cual se computará la matriz de kernel. Entre los principales están: lineal, polinomial, rbf (gaussiana), sigmoide.

C (Regularización): se trata del parámetro de penalización, el cual representa una clasificación errónea o un término de error. Este término le dice a la optimización de SVM cuánto error es soportable.

Gamma: define hasta qué punto influye en el cálculo de la línea de separación plausible.

High Gamma: solo puntos cercanos son considerados.

Low Gamma: puntos lejanos también son considerados.

Ajuste de Hiperparámetros usando GridSearchCV [17]

GridSearch se usa enfocado al ajuste de hiperparámetros los cuales construye y evalúa de manera metódica a un modelo para cada combinación de parámetros de algoritmos especificados. Permite combinar un estimador con preámbulo de búsqueda de cuadrícula para el ajuste de hiperparámetros. Por lo tanto, permite establecer los mejores parámetros a ser usados en los modelos de aprendizaje.

RESULTADOS

Se efectúa la generación de datos en PowerFactory a partir de la Simulación de Montecarlo y la Simulación de estado estacionario a partir de flujos de potencia. Este conjunto de datos se lo exporta a un archivo *.csv y posteriormente importado en el entorno de Jupyter-Python, de esta manera se tiene generado un DataFrame con 10000 filas y 88 columnas. como se muestra en la Fig. 13.

Figura 13: Dataset generado en PowerFactory e Importado en el entorno de Python 

Seguidamente, se efectúa un análisis de estadística descriptiva (media, mediana desviación estándar, etc.), de la misma manera se tiene generado un DataFrame como el mostrado en la Fig. 14. A partir de los principales estadísticos de cada una de las variables del dataset, se tiene el siguiente análisis:

Relacionando los valores obtenidos entre las medias y medianas de las variables, en general, se tiene

que son valores muy cercanos, lo cual se puede interpretar de la no existencia de valores extremos.

En cuanto al valor de la desviación estándar (std), se tiene que los valores son muy bajos, por lo tanto, se produce un indicador que de que no hay una dispersión significativa de los datos.

En cuanto a los coeficientes de variación (cvar) existen casos en los cuales hay un mayor coeficiente de variación, tal es el caso de la Pcarga, Iline 25-26 e Iline 26-28, por lo tanto, sugiere que existe una mayor dispersión estas variables.

El coeficiente de Kurtosis de las variables es bajo, lo cual indica que existe una menor concentración de los datos en relación a su media, es decir la curva de distribución normal tiende a ser aplanada.

Para el caso de los coeficentes de skewness, se observa que el comportamiento de las curvas será variado, ya que existen valores positivos y negativos, no existen por lo general valores que tiendan de manera significativa a cero. Por lo tanto, los valores que tengan un coeficiente positivo tendrán su cola en el derecho, en cuanto a los coeficientes negativos tendrán sus colas al lado izquierdo. Además, en los casos en los cuales los valores tiendan a cero, su curva será casi simétrica.

Figura 14: Cálculo de Principales Estadísticos 

La Fig. 15 presenta el gráfico de distribución de los resultados, considerando el voltaje en el punto de colapso para el corredor 1 para tener una idea clara de su comportamiento, además de verificar las aseveraciones mostradas en el análisis estadístico. Por lo tanto, se puede verificar la asimetría de las curvas, la tendencia de las colas y la acumulación de datos entorno a la media.

Figura 15: Curva de Distribución Normal. Voltaje de carga máxima (p.u.) 

Para efectuar el Análisis de Componentes Principales se parte del gráfico de diagrama de codo para determinar el número de componentes principales necesarios para tener la información suficiente del sistema. De manera que, en relación con el gráfico de la Fig. 16, se tiene:

Figura 16: Diagrama de codo. Variabilidad explicada vs Número de Componentes principales 

De acuerdo con el gráfico obtenido, se puede observar que con aproximadamente 14 componentes principales se puede obtener un 90% de la información, lo cual es aceptable para los fines que se buscan. De esta manera, se toman los catorce componentes principales, considerando sus "Scores" para generar la matriz X para el entrenamiento posterior.

Aplicación de Modelos Basados en Redes Neuronales

Una vez obtenidos los valores tanto de entrada como de salida, se procede a la implementación de los modelos de aprendizaje. Considerando como casos de ejemplo, los Márgenes de Estabilidad cada uno de los corredores. A continuación, se presentan histogramas que muestran la distribución de los resultados obtenidos de la predicción para cada modelo. Considerando como ejemplo a la Fig. 17, relacionada con la curva de distribución dem Margen de Estabilidad del corredor 1 dado en el dataset original.

Figura 17: Margen de Estabilidad obtenido del Dataset. Condición de entrada al modelo 

Se puede observar que a partir de los modelos de regresión empleados permite una predicción aproximada del margen de estabilidad, considerando como referencia los valores iniciales dados por el dataset. Se aprecia que el modelo que mejor ajuste presenta es el que emplea GridSearchCV, por lo tanto, se puede verificar que ha realizado una optimización adecuada de los modelos.

Realizando una comparación de los valores de Margen de Estabilidad, caso base de la Fig. 18 y las predicciones de las Figuras 19, 20 y 21, se observa que, frente a las condiciones operativas dadas, el corredor 1 presenta un mayor Margen de estabilidad. Además, debido a la cercanía de las líneas a la apertura de la línea 16-19, tienden a tener un menor Margen de Estabilidad, muy inferior al anterior.

Figura 18 Predicción del Margen de Estabilidad basado en el modelo de Redes Neuronales. Corredor 1 

La condición que presenta el Corredor 1 de tener un mayor margen de estabilidad sugiere que presenta un mayor margen de estabilidad de voltaje, es decir tiende a tener menores problemas de voltaje en cuanto al incremento de parámetros tales como de las cargas, o perturbaciones de sistemas tales como de las variaciones de voltajes producidas por la apertura de líneas.

Figura 19: Predicción del Margen de Estabilidad basado en el modelo de Redes Neuronales aplicando GridSearchCV Corredor 1 

Figura 20: Predicción Margen de Estabilidad basado en el modelo de Redes Neuronales. Corredor 2. 

Figura 21: Predicción del Margen de Estabilidad basado en el modelo de Redes Neuronales aplicando GridSearchCV. Corredor 3 

Aplicación de Modelos Basados en Máquinas de Soporte Vectorial empleando GridSearchCV

De la misma manera que en la aplicación de los modelos basados en Redes Neuronales, se emplean las variables de entrada y salida para el entrenamiento de los modelos. Como casos de ejemplos se muestran Márgenes de Estabilidad de cada uno de los corredores. Para la evaluación del desempeño de la optimización de estos modelos, se emplea los índices MSE.

Índices de Desempeño

En la Tabla 1 se detalla y se realiza una comparativa entre los índices MSE obtenidos en cada uno de los modelos aplicados a la predicción del Margen de Estabilidad de los corredores de transmisión.

Tabla 1: Índices MSE de los modelos empleados 

Se ha considerado como indicador del desempeño de los modelos de regresión al MSE (Mean-squared-error), considerando que cuanto menor sea el valor del MSE, mayor será el ajuste del regresor, se tiene que:

Empleando GridSearchCV se tiene una mejor optimización de los parámetros de los modelos de regresión, por lo tanto, un mejor ajuste. Lo cual se puede observar, al comparar los modelos de Redes Neuronales con y sin su aplicación.

Realizando una comparación entre ANN y SVM, se tiene que el regresosr que mejores resultados se tiene es ANN con GridSearchCv, de manera que existe una mejor optimización por parte del modelo en relación al ajuste de datos obtenidos.

CONCLUSIONES Y RECOMENDACIONES

La generación del conjunto de datos a partir de simulaciones de Montecarlo permite establecer diversas condiciones operativas del sistema, a través de N simulaciones del sistema, realizando la variación de parámetros tales como de los valores de las cargas del sistema.

Es necesario dentro del análisis de datos, efectuar un análisis estadístico lo cual permita conocer el comportamiento de los datos que se han obtenido de manera preliminar.

Debido a la gran cantidad de variables que se puede obtener en el sistema, una de las herramientas que se puede usar es lo que se denomina como Feature Extraction, que a partir del Análisis PCA permite efectuar una reducción de la dimensionalidad basado en las principales características de los conjuntos de datos.

Se pudo observar dentro de la aplicación de los modelos de predicción, que el ajuste se puede optimizar a través de la herramienta de GridSearchCV, mediante el cual en base a los indicadores MSE se pudo verificar que notablemente se puede mejorar el desempeño de los modelos de regresión.

En relación a las condiciones operativas dadas en el sistema, se pudo observar que el corredor 1 presenta un mayor margen de estabilidad, por ende, menores problemas de estabilidad, a diferencia de lo que puede ocurrir en los corredores 2 y 3, que como se observó presentan valores muy inferiores.

REFERENCIAS BIBLIOGRÁFICAS

[1] J. Cepeda, P. Verdugo y G. Arguello, «Monitoreo de la Estabilidad de Voltaje de Corredores de Transmisión en Tiempo Real a partir de Mediciones Sincrofasoriales,» Revista EPN, vol. 33, nº 3, 2014. [ Links ]

[2] M. Larsson, C. Rehtanz y J. Bertsch, «Monitoring and operation of transmission corridors,» IEEE Power Tech Conference Proceedings, vol. 3, 2003. [ Links ]

[3] J. Riofrío, M. Chamba y J. Cepeda, «Evaluación Probabilística y Gestión del Riesgo dela Cargabilidad de la Red por la Puesta en Servicio del Metro de Quito considerando el Movimiento Estocástico de los Trenes Eléctricos,» Revista Técnica "energía", pp. 1-11, 2019. [ Links ]

[4] S. Khalid, T. Khalil y S. Nasreen, «A Survey of Feature Selection and Feature Extraction Techniques in Machine Learning, » Science and Information Conference, 2014. [ Links ]

[5] A. Olalekan y S. Jain, «Feature Extraction: A Survey of the Types, Techniques, Applications, » International Conference on Signal Processing and Communication (ICSC), 2019. [ Links ]

[6] P. Prathusha y S. Jyothi, «Feature Extraction Methods: A Review, » International Journal of Innovative Research in Science, Engineering and Technology, vol. 6, nº 12, 2017. [ Links ]

[7] C. Syms, «Principal Components Analysis, » de Encyclopedia of Ecology, 2019, pp. 566-573. [ Links ]

[8] S. Brown, «Machine learning, explained, » 21 April 2021. [En línea]. [ Links ]

[9] «Neural Network models (supervised), » scikit learn, 2020. [En línea]. Available: https://scikit-learn.org/stable/modules/neural_networks_supervised.html . [ Links ]

[10] ICHI.PRO, «Funciones de activación en DNN,» 2021. [En línea]. Available: https://ichi.pro/es/funciones-de-activacion-en-dnn-36776149422948. [ Links ]

[11] D. A. Pisner y D. M. Schnyer, «Support vector machine,» de Machine Learning, 2020, pp. 101-121 [ Links ]

[12] R. Bhaumik, L. M. Jenkins, J. R. Gowins, R. H. Jacobs, A. Barba y D. K. Bhaumik, «Multivariate pattern analysis strategies in detection of remitted major depressive disorder using resting state functional connectivity,» NeuroImage: Clinical, vol. 16, pp. 390-398, 2017. [ Links ]

[13] A. Ben-Hur y J. Weston, « A user’s guide to support vector machines,» Methods in Molecular Biology, vol. 609, pp. 223-239, 2010. [ Links ]

[14] R. Batuwita y V. Palade, «Class imbalance learning methods for support vector,» Imbalanced Learning: Foundations, Algorithms, Applications, pp. 83-100, 2013. [ Links ]

[15] J. Cepeda y D. Colome, «Vulnerability Assesment of Electric Power Systems Through Identification and Ranking of Vulnerable Areas,» International Journal of Emerging Electric Power Systems, vol. 13, nº 1, 2006. [ Links ]

[16] «Support Vector Machines,» scikit learn, 2020. [En línea]. Available: https://scikit-learn.org/stable/modules/svm.html#svm-regression. Links ]

[17] «SVM Hyperparameter Tuning using GridSearchCV,» Velocity Business, 2020. [En línea]. Available: https://www.vebuso.com/2020/03/svm-hyperparameter-tuning-using-gridsearchcv/. [ Links ]

Recibido: 30 de Abril de 2021; Aprobado: 23 de Julio de 2021

Luis Laurentino Chiza Segovia. - Nació en Atuntaqui, Ecuador en diciembre de 1993. Recibió su título de Ingeniero en Electrónica y Control en la Escuela Politécnica Nacional; cursa sus estudios de Máster en Electricidad mención en Redes Eléctricas Inteligentes de la Escuela Politécnica Nacional. Actualmente trabaja en la Subgerencia Nacional de Investigación y Desarrollo en convenio entre CELEC EP-Coca Codo Sinclair y CENACE. Sus campos de investigación son: sistemas de control, Smart Grids, redes industriales en SEP, control de máquinas eléctricas

Jaime Cristóbal Cepeda Campaña. - Nació en Latacunga, Ecuador en 1981. Recibió el título de Ingeniero Eléctrico en la Escuela Politécnica Nacional EPN en 2005, y el de Doctor en Ingeniería Eléctrica en la Universidad Nacional de San Juan UNSJ en 2013. Colaboró como investigador en el Instituto de energía Eléctrica, UNSJ, Argentina y en el Instituto de Sistemas Eléctricos de Potencia, Universidad Duisburg-Essen, Alemania entre 2009 y 2013. Actualmente se desempeña como Gerente Nacional de Desarrollo Técnico del CENACE y como Profesor a Tiempo Parcial en la EPN. Sus áreas de interés incluyen la evaluación de vulnerabilidad en tiempo real y el desarrollo de Smart Grids.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons