Scielo RSS <![CDATA[Revista Politécnica]]> http://scielo.senescyt.gob.ec/rss.php?pid=1390-012920240001&lang=en vol. 53 num. 1 lang. en <![CDATA[SciELO Logo]]> http://scielo.senescyt.gob.ec/img/en/fbpelogp.gif http://scielo.senescyt.gob.ec <![CDATA[Software for Electric Demand Control from Scilab]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-01292024000100007&lng=en&nrm=iso&tlng=en Abstract: At present, as energy resources are increasingly scarce, it is necessary to apply a highly efficient savings policy. In this context, it is essential to study and analyze electrical systems, mainly supply systems in production and service facilities. It is important to point out that in peak electricity hours, even the least efficient generating machines have to work, increasing oil consumption per kWh generated; on the other hand, there are great difficulties in transferring power from different generating units to the places where electricity is consumed in those critical hours. Therefore, when the energy demand is not in correspondence with the generation of the generating plants, it is then necessary to interrupt some loads, producing the well-known blackouts and, consequently, the inconvenience and affectations of the users of the electrical service, it is in these cases where the need for electric charge accommodation becomes evident. Therefore, this article aims to propose an application to accommodate loads in industrial systems, through a graphical interface, based on the free software Scilab, which among other things allows load accommodation considering the installation or not of a photovoltaic system. To verify its usefulness, the UEB Pinturas Vitral located in the municipality of San José de las Lajas, Mayabeque Province, Cuba, has 2 work shifts.<hr/>Resumen: En la actualidad, como los recursos energéticos escasean cada vez más, se hace necesario aplicar una política de ahorro de suma eficiencia. En este contexto, es imprescindible el estudio y análisis de los sistemas eléctricos, fundamentalmente los sistemas de suministros en instalaciones de producción y servicios. Es importante señalar que, en las horas del pico eléctrico, hasta las máquinas generadoras menos eficientes tienen que funcionar incrementándose el consumo de petróleo por kWh generado, por otra parte, se presentan grandes dificultades para transferir la potencia de diferentes unidades generadoras hacia los lugares donde es consumida la electricidad en esas horas críticas. Por lo tanto, cuando la demanda de energía no está en correspondencia con la generación de las plantas generadoras es necesario entonces interrumpir algunas cargas, produciéndose los conocidos apagones y, por consiguiente, la molestia y afectaciones de los usuarios del servicio eléctrico, es en estos casos que se hace evidente la necesidad del acomodo de carga eléctrica. Por lo que el presente artículo tiene como objetivo proponer una aplicación para realizar el acomodo de cargas en los sistemas industriales, mediante una interfaz gráfica, basada en el software libre Scilab, la cual entre otras cosas permite realizar el acomodo de cargas teniendo en cuenta la instalación o no de un sistema fotovoltaico. Para comprobar su utilidad se toma como caso la UEB Pinturas Vitral ubicada en el municipio de San José de las Lajas, Provincia Mayabeque, Cuba, que posee 2 turnos de trabajo. <![CDATA[Design and Simulation of a Log-Periodic Fractal Antenna for the Detection of Plastic Mines]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-01292024000100021&lng=en&nrm=iso&tlng=en Abstract: A fractal log periodic antenna for a Ground Penetrating Radar (GPR) is designed and simulated to evaluate the detection of plastic mines. The Brewster pseudo-angle concept is considered in the simulation to force the reflection component to a minimum value. The methodology focuses on the characterization and modeling of the transmission media and the plastic mine, in addition, the presence of the standing wave in the system is simulated to evaluate the return signal in the receiving antenna of the GPR. As a result, the multiband characteristic of the log-periodic fractal antenna and the signal-to-noise ratio (SNR) of 10,17 dB obtained for the resonance frequency of 1,35 GHz stand out. Likewise, the pseudo-Brewster angle of 70,47° minimizes the reflection of the incident electromagnetic wave in the transition between two dielectric media, with losses and dispersive in frequency (free space-ground).<hr/>Resumen: Se diseña y simula una antena de registro periódico fractal para un radar de penetración terrestre (GPR) con el fin de evaluar la detección de minas plásticas. El concepto de pseudo-ángulo de Brewster se considera en la simulación para forzar el componente de reflexión a un valor mínimo. La metodología se enfoca en la caracterización y modelado de los medios de transmisión y la mina plástica, además, se simula la presencia de la onda estacionaria en el sistema para evaluar la señal de retorno en la antena receptora del GPR. Como resultado se destaca la característica multibanda de la antena fractal log-periódica y la relación señal a ruido (SNR) de 10,17 dB obtenida para la frecuencia de resonancia de 1,35 GHz. Asimismo, el pseudoángulo de Brewster de 70,47° minimiza la reflexión de la onda electromagnética incidente en la transición entre dos medios dieléctricos, con pérdidas y dispersivos en frecuencia (espacio libre-tierra). <![CDATA[Computational Tool to Determine the Residues of Electrical Power Systems]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-01292024000100031&lng=en&nrm=iso&tlng=en Resumen: Este artículo presenta el desarrollo de una herramienta de cálculo de los residuos de los modos críticos de oscilación para un sistema eléctrico, utilizando datos del análisis modal de PowerFactory de DIgSILENT. El problema planteado es de gran importancia en los sistemas eléctricos actuales, los cuales se caracterizan por operar sus elementos al límite y si estas oscilaciones, no son adecuadamente amortiguadas, pueden causar fallas en la generación al reducir el nivel de estabilidad del sistema. PowerFactory es una herramienta de ingeniería para analizar sistemas eléctricos, utilizado ampliamente en la industria e investigación. Este software cuenta con un lenguaje propio de programación, a saber, DIgSILENT Programming Language (DPL), el cual permite procesar variables de interés desde el análisis modal, mismas que pueden ser usadas en otros dispositivos del sistema, como son los estabilizadores de sistemas de potencia (PSS). Mediante programación de las variables de interés, se calcula el residuo de los modos críticos de oscilación. Así, el cálculo del residuo requiere del procesamiento de la matriz de estados A facilitada directamente por PowerFactory y de la construcción de las matrices de las variables de entrada B y salida C, respectivamente, por medio de programación DPL para diferentes escenarios operativos del sistema eléctrico de potencia. La metodología de cálculo se ha aplicado a sistemas eléctricos disponibles en la literatura especializada en estabilidad oscilatoria en la cual se aplica la herramienta para observar la dinámica de los modos de oscilación con y sin PSS, siendo estos últimos sintonizados mediante el residuo calculado.<hr/>Abstract: This paper presents the development of a tool to calculate the residue of the critical oscillation modes for an electrical system obtained through the DIgSILENTs PowerFactory modal analysis tool. This problem is essential in current electrical systems that are characterized by operating their elements at the limit, and if these oscillations are not adequately damped, they can cause generator failures by reducing their level of stability, making the system vulnerable. PowerFactory is an engineering tool to analyze electrical systems, widely used in industry and research. This software has its own programming language, DIgSILENT Programming Language (DPL), providing the capability to process variables of interest from the modal analysis, which can be used in other system devices, such as power system stabilizers (PSS). The residue of the critical oscillation modes can be calculated by programming the variables of interest. Consequently, the calculation of residue requires the processing of the state matrix A provided directly by PowerFactory, whereas it is possible to construct the matrices of the input variables B and output variables C, respectively, by means of DPL programming for different operating scenarios of the electrical power system. The calculation methodology has been applied to electrical systems from the literature specialized in oscillatory stability. The tool is applied to observe the dynamics of the oscillation modes both with and without PSS, the latter being tuned by the calculated residues. <![CDATA[Development of Spectrophotometric Method to Assay Phenylephrine Hydrochloride in Pure and in its Pharmaceutical Forms Using Diazotized Sulphanilic Acid]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-01292024000100039&lng=en&nrm=iso&tlng=en Abstract: This work described a simple and sensitive spectrophotometric procedure for estimating phenylephrine hydrochloride in pure and in its pharmaceutical using diazotized sulphanilic acid as a coupling agent in alkaline medium of sodium carbonate solution. The resulting yellow azo-dye displayed an absorption maximum at 441 nm. The calibration graph was linear and compatible to Beer's law over the concentration range 0.2-20 µg/mL with coefficient estimated (r2=0.9996). The values of molar absorptivity and the sensitivity of Sandell's index were calculated and equal to 8.51×103 l/mol.cm and0.0239 µg/cm2, respectively. The values of detection limit (LOD), quantification limit (LOQ) and the range of relative error percentage were estimated and found to be 0.0050, 0.0166 µg/mL and -0.374% to -0.147%, respectively. The precision (represented by RSD) was also calculated and found to be in the range ±0.037 to ±0.28. The suggested procedure was useful successfully to the assay of phenylephrine hydrochloride in injection, drops and syrups. No interferences were observed from common additives found in pharmaceutical preparations. The yellow color of the product was highly stable and did not show a significant change in absorbance up to 60 min.<hr/>Resumen: Este trabajo describió un procedimiento espectrofotométrico simple y sensible para estimar el clorhidrato de fenilefrina en estado puro y en sus formas farmacéuticas usando ácido sulfanílico diazotado como agente de acoplamiento en medio alcalino de solución de carbonato de sodio. El colorante azoico amarillo resultante mostró un máximo de absorción a 441 nm. El gráfico de calibración fue lineal y compatible con el mínimo de Beer en el intervalo de concentración de 0.2-20 µg/mL con determinación del coeficiente (r2=0.9996). Los valores de absortividad molar y la sensibilidad del índice de Sandell fueron calculados y fueron de 8.51×103 l/mol.cm y 0 0239 µg/cm2, respectivamente. Los valores del límite de detección (LOD), el límite de cuantificación (LOQ) y el rango del porcentaje de error relativo se estimaron y resultaron ser 0.0050, 0.0166 µg/mL y -0.374 % a -0.147 %, respectivamente. También se calculó la precisión (representada por RSD) y se encontró que estaba en el rango de ±0.037 a ±0.28. El procedimiento sugerido fue útil con éxito para el ensayo de clorhidrato de fenilefrina en inyección, gotas y jarabes. No se observaron interferencias de los aditivos comunes que se encuentran en las preparaciones farmacéuticas. El color amarillo del producto fue muy estable y no mostró cambios significativos en la absorbancia hasta los 60 min. <![CDATA[Use of a Regenerated Catalyst from Fluid Catalytic Cracking for the Poly- (Ethylene Terephthalate) Chemical Recycling via Glycolysis]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-01292024000100047&lng=en&nrm=iso&tlng=en Resumen: La alta demanda de materiales plásticos ha sido una tendencia post Covid-19 debido a la necesidad de materiales de protección y empaquetado para productos sanitarios y alimentarios. Sin embargo, esta situación ha agravado la problemática medioambiental asociada a la contaminación por residuos plásticos, debido a su largo tiempo de vida, por lo que en los últimos años se ha intensificado la búsqueda de alternativas de su reciclaje. De igual manera, la disposición final de los catalizadores utilizados en la petroquímica representa un importante desafío, puesto que estos terminan en vertederos, siendo un gran foco de contención por su alto contenido de metales pesados. Con este enfoque, el presente estudio tiene como objetivo la evaluación del uso de catalizadores regenerados FCC provenientes de procesos petroquímicos y su aplicación en el proceso de despolimerización mediante glicólisis del poli-(tereftalato de etileno). El catalizador fue regenerado mediante tratamiento térmico y químico, el mismo que posterior a su análisis fue evaluado en el proceso de glicólisis en cantidades del uno y dos por ciento en masa, comparándolo con otros catalizadores convencionales como el acetato de zinc y la zeolita ZSM-5 en la obtención de bis-hidroxi etilen tereftalato (BHET). Los resultados mostraron un rendimiento muy significativo comparado con los otros catalizadores, así también se demostró que la cantidad de catalizador no presenta influencia significativa en el proceso de despolimerización. Resultados que se muestran como una opción prometedora para combatir la problemática de la aglomeración de materiales plásticos.<hr/>Abstract: The high demand for plastic materials has been a post-Covid-19 trend due to the need for protective and packaging materials for sanitary and food products. However, this situation has exacerbated the environmental problem associated with plastic waste pollution, which has led to intensified efforts to find recycling alternatives in recent years. The final disposal of catalysts used in petrochemicals also represents a significant challenge, as they end up in landfills and are a major source of contamination due to their high heavy metal content. This study aims to evaluate the use of regenerated FCC catalysts from petrochemical processes in the depolymerization process of poly-(ethylene terephthalate) by glycolysis. The results showed that the regenerated catalyst had a significant performance compared to conventional catalysts such as zinc acetate and ZSM-5 zeolite in obtaining bis (hydroxyethyl terephthalate) (BHET), and the amount of catalyst did not significantly affect the depolymerization process. These results show a promising option for addressing the problem of plastic waste. <![CDATA[Natural Language Analysis for the Identification of Mental Disturbances in Social Networks: A Systematic Review of Studies]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-01292024000100057&lng=en&nrm=iso&tlng=en Resumen: Las enfermedades mentales constituyen una de las principales causas de angustia en la vida de las personas a nivel individual, y repercuten en la salud y el bienestar de la sociedad. Para captar estas complejas asociaciones, las ciencias computacionales y la comunicación, a través del uso de métodos de procesamiento del lenguaje natural (NLP) en datos recolectados en redes sociales, han aportado prometedores avances para potenciar la atención sanitaria mental proactiva y ayudar al diagnóstico precoz. Por ello, se realizó una revisión sistemática de la literatura acerca de la detección de alteraciones mentales a través de redes sociales, mediante el uso de NLP en los últimos 5 años, que permitió identificar métodos, tendencias y orientaciones futuras, a través del análisis de 73 estudios, de 509 que arrojó la revisión de documentos extraídos de bases de datos científicas. El estudio reveló que, los fenómenos más comúnmente estudiados, correspondieron a Depresión e Ideación suicida, identificados a través del uso de algoritmos como el LIWC, CNN, LSTM, RF y SVM, en datos extraídos principalmente de Reddit y Twitter. Este estudio, finalmente proporciona algunas recomendaciones sobre las metodologías de NLP para la detección de enfermedades mentales, que pueden ser adoptadas en el ejercicio de profesionales interesados en la salud mental, y algunas reflexiones sobre el uso de estas tecnologías.<hr/>Abstract: Mental illness is a major cause of distress in people's lives at the individual level and impacts the health and well-being of society. To capture these complex associations, computational science and communication, through the use of natural language processing (NLP) methods on data collected in social networks, have provided promising advances to enhance proactive mental health care and aid in early diagnosis. Therefore, a systematic review of the literature on the detection of mental disorders through social networks, using NLP in the last 5 years, was carried out, which allowed identifying methods, trends and future directions, through the analysis of 73 studies, out of 509 that resulted from the review of documents extracted from scientific databases. The study revealed that the most commonly studied phenomena corresponded to Depression and Suicidal Ideation, identified through the use of algorithms such as LIWC, CNN, LSTM, RF and SVM on data extracted mainly from Reddit and Twitter. This study finally provides some recommendations on NLP methodologies for mental illness detection that can be adopted in the practice of professionals interested in mental health and some reflections on the use of these technologies. <![CDATA[Efficiency of Newton’s Iteration of Order 3, in the Numerical Solution by the Shooting Method]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-01292024000100073&lng=en&nrm=iso&tlng=en Resumen: El método de disparo es una técnica iterativa que usa velocidad de disparo para obtener una solución óptima. El propósito de la investigación es verificar la eficacia de las iteraciones de Newton de orden 3 adaptadas y acopladas a RK4, en el método disparo. Se realizó un experimento numérico con ejemplos mediante el método de disparo en las ecuaciones diferenciales ordinarias no lineal de orden 2, y se obtuvo velocidades de disparo y errores en cada iteración. Los resultados obtenidos sobre velocidades finales fueron satisfactorios con las iteraciones NW, NWO3-1, NWO3-2 y NWO3-3 aplicadas al método de disparo y de los cuales, NWO3-2 y NWO3-3 tienen alta precisión en los experimentos realizados.<hr/>Abstract: The shooting method is an iterative technique that uses shooting speed to obtain an optimal solution. The purpose of the research is to verify the effectiveness of Newton iterations of order 3 adapted and coupled to RK4, in the shooting method. Numerical experiments were performed with examples using the shooting method in nonlinear ordinary differential equations of order 2, and shooting velocities and errors were obtained in each iteration. The results obtained on final velocities were satisfactory with the iterations NW, NWO3-1, NWO3-2 and NWO3-3 applied to the shooting method and of which, NWO3-2 and NWO3-3 have high accuracy in the experiments performed. <![CDATA[Evaluation of the Seismic Performance of a Dual Reinforced Concrete System with Different Levels of Torsional Irregularity]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-01292024000100083&lng=en&nrm=iso&tlng=en Resumen: En el presente estudio, se analiza el desempeño sísmico de un sistema dual de hormigón armado (pórticos y muros especiales) con diferentes niveles de irregularidad torsional. Se plantean tres arquetipos, cada uno con un nivel de irregularidad torsional distinto (IT 1.0, IT 1.2 e IT 1.4) con la finalidad de evaluar el efecto de la irregularidad torsional en el desempeño sísmico. Los elementos estructurales de los arquetipos cumplen con el diseño sismorresistente. Además, se tomó en cuenta los factores de sobre-resistencia y amplificación dinámica para determinar el corte de diseño en los muros estructurales. Se realizaron análisis estático y dinámicos no lineales para cuantificar las respuestas globales y locales de cada uno de los modelos. Los modelos analíticos de muros estructurales son calibrados en función de los datos obtenidos en ensayos experimentales existentes, de esta manera se valida los elementos tipo fibra (infrmFB) usados y los parámetros de los modelos constitutivos de los materiales. Se realizan análisis dinámicos incrementales (IDA) para cada uno de los arquetipos con los once registros sísmicos seleccionados de la base del PEER. Las curvas IDA son desarrolladas con dos parámetros de demanda ingenieril: derivas de piso y deformaciones unitarias. Finalmente, se elaboran las curvas de fragilidad para los niveles de desempeño de ocupación inmediata, seguridad de vida y prevención de colapso, y se determinan los coeficientes de margen con la finalidad de cuantificar las probabilidades de alcanzar los niveles de desempeño mencionados.<hr/>Abstract: This research evaluates the seismic performance of a dual reinforced concrete system with different levels of torsional irregularity. Three archetypes are proposed, each of them with a different level of torsional irregularity (IT 1.0, IT 1.2 and IT 1.4) in order to evaluate the effect of torsional irregularity on seismic performance. The structural elements of the archetypes comply with the seismic design. In addition, the factors of overstrength and dynamic amplification were considered to determine the design shear force in the structural walls. Linear static and nonlinear dynamic analysis were performed to quantify the global and local responses of each of the models. The analytical models of structural walls are calibrated based on the data of existing experimental tests, thus validating the fiber-type elements (infrmFB) used and the parameters of the constitutive models of the materials. Incremental dynamic analysis (IDA) is performed for each of the archetypes with the eleven seismic records selected from the PEER database. IDA curves are developed with two engineering demand parameters: story drifts and strains. Finally, the fragility curves are elaborated for the immediate occupancy, life safety, and collapse prevention performance levels, and the margin ratio are determined to quantify the probabilities of reaching a certain level of performance. <![CDATA[Generation of Flows Applying a Simple Method of Flood Routing to Monthly Level in La Leche Basin, Peru]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-01292024000100099&lng=en&nrm=iso&tlng=en Abstract: The flood routing is generally used in the analysis and evaluation of floods; however, it has been scarcely explored in the extent and determination of flows. Therefore, this research aimed to generate flows applying a simple method of flood routing known as Muskingum to monthly level, in the La Leche basin of Peru. The basin in question was chosen, since in the last 40 years it has suffered major floods, affecting a large part of the population, farmland and local infrastructure, which is why it is necessary to address its study. The methodology was of applied type and comparative non-experimental design. Due to the fact that the flood routing uses the parameters of proportionality of volume and weighting of routing in defined intervals of time, it was considered convenient to use statistical indicators to optimize the comparison of the flows registered in the hydrometric stations and the hydrographs of the simulation of a hydrological model rainfall-runoff type for different return periods, obtaining significant results in each case, according to the Pearson correlation, the Schultz criterion, the Nash-Sutcliffe criterion, the mass balance error and the t-test for two samples assuming equal variances. Finally, it is concluded that flows can be established using the flood routing with the Muskingum method in the La Leche basin, and can also be used in simulated discharges where meteorological and hydrometric information is available.<hr/>Resumen: El tránsito de avenidas por lo general es usado en el análisis y evaluación de inundaciones, sin embargo, ha sido poco estudiado en la extensión y determinación de caudales. Por ello, esta investigación tuvo por objetivo generar caudales aplicando un método simple de tránsito de avenidas conocido como Muskingum a nivel mensual, en la cuenca La Leche de Perú. Se escogió la cuenca en mención, pues en los últimos 40 años ha sufrido grandes inundaciones, viéndose afectada gran parte de la población, terrenos de cultivo e infraestructura local, por lo que se requiere abordar su estudio. La metodología fue del tipo aplicada y de diseño no experimental comparativo. Debido a que el tránsito de avenidas emplea los parámetros de proporcionalidad de volumen y ponderación del tránsito en intervalos de tiempo definido, se creyó conveniente usar indicadores estadísticos para optimizar la comparación de los caudales registrados en las estaciones hidrométricas y los hidrogramas de la simulación de un modelo hidrológico tipo precipitación-escorrentía para diferentes períodos de retorno, obteniéndose significativos resultados en cada caso, según la correlación de Pearson, el criterio de Schultz, el criterio de Nash-Sutcliffe, el error de balance de masas y la prueba t para dos muestras suponiendo varianzas iguales. Finalmente, se concluye que se pueden establecer caudales empleando el tránsito de avenidas con el método Muskingum en la cuenca La Leche, además pueden utilizarse en descargas simuladas donde se disponga de información meteorológica e hidrométrica. <![CDATA[Estimation, Management, and Control of Non-Point Source Pollution from Livestock Runoff: A Literature Review]]> http://scielo.senescyt.gob.ec/scielo.php?script=sci_arttext&pid=S1390-01292024000100111&lng=en&nrm=iso&tlng=en Resumen: Los nutrientes, como el nitrógeno y el fósforo generan, entre otros impactos, la eutrofización en los cuerpos de agua. Estos impactos son principalmente causados por actividades agrícolas como la ganadería, debido a la aplicación de fertilizantes y/o al estiércol de las vacas. Los nutrientes transportados por la escorrentía llegan a los cuerpos de agua y generan contaminación. Esta problemática ha sido abordada desde la década de los 60, no obstante, se ha logrado poco avance en este tema. Los avances están relacionados con la estimación del aporte de nutrientes de forma teórica y a través de simulaciones, debido a los altos costos que implica tomar datos en el campo. También se han realizado esfuerzos en la implementación de Buenas Prácticas de Gestión para el manejo de las fuentes no puntuales, pero existe poca evidencia de la eficiencia de cada una de estas prácticas. Por otro lado, pese a la falta de información científica necesaria para formular políticas, se ha demostrado que la vía normativa puede ser el mejor mecanismo para controlar la contaminación por fuentes no puntuales. En este artículo, se presenta una revisión de estos tres componentes luego del análisis bibliométrico, estableciendo lo que se conoce actualmente y las brechas de información. Primero, se abordan los avances en la estimación del aporte de las fuentes no puntuales, segundo se presentan las Buenas Prácticas de Gestión, y tercero, se exponen los avances en materia de políticas para el control de la contaminación no puntual.<hr/>Abstract: Nutrients, like nitrogen and phosphorus generate, among other impacts, eutrophication in water bodies. These impacts are mainly caused by agricultural activities such as livestock farming, due to the application of fertilizers and/or cow manure. The nutrients transported by runoff reach water bodies and generate pollution. This issue has been addressed since the 1960s; however, little progress has been made in this area. The progress is related to estimating nutrient contributions theoretically and through simulations, due to the high costs of collecting field data. Efforts have also been made to implement Good Management Practices for the management of non-point sources, but significant efficiency for each of these practices has not been demonstrated. On the other hand, despite the lack of necessary scientific information to formulate policies, it has been shown that the regulatory route can be the best mechanism for controlling non-point source pollution. This article presents a review of these three components after a bibliometric analysis, establishing what is currently known and the information gaps. First, advances in estimating the contributions of non-point sources are addressed, second Good Management Practices are presented, and third advances in policies for controlling non-point source pollution are discussed.