DEFESAS MARCADAS
Teses de Doutorado
Data: 11/12/2019 -
Horário: 09:00
Local: Sala Seminários 1010 - EEUFMG
Aluno: Talles Henrique de Medeiros
Orientador(a): Ricardo Hiroshi Caldeira Takahashi
Co-Orientador(a): Antônio de Pádua Braga
Título: Estratégias de Decisão em Aprendizado de Máquina Multi-objetivo
Banca:Prof. Dr. Ricardo Hiroshi Caldeira Takahashi - Orientador (DMAT (UFMG))
Prof. Dr. Antônio de Pádua Braga - Coorientador (DELT (UFMG))
Prof. Dr. Frederico Gadelha Guimarães (DEE (UFMG))
Profa. Dra. Cristiane Neri Nobre (Departamento de Ciência da Computação (PUC-MG))
Prof. Dr. Marcelo Azevedo Costa (Dep. de Eng. de Produção (UFMG))
Profa. Dra. Elizabeth Fialho Wanner (Dep. Computer Science (Aston University))
Resumo/abstract
Resumo
Este trabalho aborda o problema da seleção de modelos obtidos por meio do aprendizado de máquina multi-objetivo e apresenta estratégias para escolha no conjunto Pareto-ótimo. Dentro da abordagem multi-objetivo são obtidas diversas opções de soluções, caracterizadas por não-dominância entre si. Como parte da abordagem multi-objetivo, é necessário um procedimento de decisão dentre o conjunto de soluções obtidas. Em aprendizado de máquina, o critério de decisão deverá retratar o problema do equilíbrio entre os efeitos de polarização e de variância, tema central aprendizagem de máquina e indicar uma solução única para o problema de aprendizado abordado. As estratégias de decisão propostas neste trabalho foram definidas para dois dos principais problemas do aprendizado supervisionado: a classificação e a regressão. Esses problemas possuem características próprias que foram utilizadas para o desenvolvimento das estratégias. Os
resultados numéricos, por meio de problemas de aprendizagem com dados artificiais e reais, foram avaliados com outras conhecidas estratégias de decisão, como: o critério da Curva L, o critério de erro de validação e, além disso, comparados com os resultados apresentados por outros algoritmos de aprendizado como as Máquinas de Vetores Suporte. Portanto, o processo de decisão em aprendizado de máquina supervisionado, sob a perspectiva da otimização multi-objetivo, trouxe um roteiro bem definido de linhas de decisão segundo o problema a ser resolvido, tornando o procedimento bem estruturado.
Abstract
This work addresses the problem of models selection obtained through multi-objective machine learning and presents strategies to choose from in the Pareto-optimal set within the multi-objective approach are obtained several options of solutions, characterized by non-dominance among themselves. As part of the multi-objective approach, a decision making is required from the set of solutions obtained. In machine learning, the decision criterion should portray the problem of equilibrium between bias and variance effects, central theme machine learning and indicate a unique solution to the learning problem addressed. The strategies proposed in this work were defined for two of the main problems of supervised learning: classification and regression. These problems have own characteristics that were used for the development of the strategies. The
numerical results through learning problems with artificial data and were evaluated with other known decision strategies, such as: L-Curve, the validation error criterion and, furthermore, compared with the results
presented by other learning algorithms like Support Vector Machines. Therefore, the decision process in learning from supervised machine, from the perspective of multi-objective optimization, brought a roadmap
well defined lines of decision according to the problem to be solved, making the
well structured procedure.
Data: 16/12/2019 -
Horário: 09:00
Local: Sala 2419 - PPGEE
Aluno: Vitor Angelo Maria Ferreira Torres
Orientador(a): Frank Sill Torres
Título: Resilient Training of Neural Network Classifiers with Approximate Computing Techniques for a Hardware-optimized Implementation
Banca:Prof. Dr. Frank Sill Torres - Orientador (DELT (UFMG))
Prof. Dr. Antônio de Pádua Braga (DELT (UFMG))
Prof. Dr. Cristiano Leite de Castro (DEE (UFMG))
Prof. Dr. José Augusto Miranda Nacif (DCC (UFV))
Prof. Dr. Luiz Carlos Bambirra Torres (DCS (UFOP))
Suplente: Prof. Dr. Ricardo dos Santos Ferreira (DCC (UFV))
Resumo/abstract
Resumo
As Machine Learning applications drastically increase their demand for optimized implementations, both in embedded environments and in high-end parallel processing platforms, the industry and research community have been responding with different approaches to provide the required solutions. This work presents approximations to arithmetic operations and mathematical functions that, associated with adaptive Artificial Neural Networks training methods and an automatic precision adjustment mechanism, provide reliable and efficient implementations of classifiers, without depending on mixed operations with higher precision or complex rounding methods that are commonly proposed only with highly redundant datasets and large networks. This research investigates Approximate Computing concepts that simplify the design of classifier training accelerators based on hardware with Application Specific Integrated Circuits or Field Programmable Gate Arrays (FPGAs). The goal was not to find the optimal simplifications for each problem but to build a method, based on currently available technology, that can be used as reliably as one implemented with precise operations and standard training algorithms. Reducing the number of bits in the Floating Point (FP) format from 32 to 16 has an immediate effect of dividing by half the memory requirements and is a commonly used technique. By not using mixed precision and performing further simplifications to the smaller format, this thesis drastically reduces the implementation complexity of the FP software emulation. Exponentiation and division by square root operations are also simplified, without requiring Look-Up Tables and with implicit interpolation. A preliminary migration of the design to an FPGA has confirmed that the area optimizations are also relevant in this environment, even when compared to other optimized implementation which lack the mechanism to adapt the FP representation range.
Abstract
À medida em que aplicações de Aprendizado de Máquinas aumentam drasticamente sua demanda por implementações otimizadas, tanto em ambientes embedded quanto em plataformas de processamento paralelo de alto desempenho, a indústria e a comunidade de pesquisa têm respondido com diferentes propostas para prover as soluções requeridas. Esse trabalho apresenta aproximações em operações aritméticas e funções matemáticas que, associadas a métodos adaptativos para treinamento de Redes Neurais Artificiais e um mecanismo automático de ajuste de precisão, proporcionam implementações confiáveis e eficientes de classificadores, sem a dependência de algumas operações com maior precisão ou métodos complexos de arredondamento, que são frequentemente propostos somente com conjuntos de treinamento redundantes e grandes redes. Essa pesquisa investiga conceitos de Computação Aproximativa que simplificam o projeto de aceleradores para o treinamento de classificadores implementados em hardware com Circuitos Integrados de Aplicação Específica ou Field Programmable Gate Arrays (FPGA). O objetivo não era encontrar as simplificações ótimas para cada problema mas construir um método, baseado em tecnologia atualmente disponível, que possa ser usado de forma tão confiável quanto um implementado com operações precisas e métodos de treinamento padrão. A redução do número de bits no formato de Ponto Flutuante (PF) de 32 para 16 tem efeito imediato na divisão pela metade dos requisitos de memória e é uma técnica comumente usada. Por não utilizar parcialmente operações precisas e propor outras modificações no menor formato, essa tese reduz drasticamente a complexidade de implementação da emulação de PF em software. Operações de exponenciação e divisão pela raiz quadrada também são simplificadas, sem requerer Look-Up Tables e com interpolação implícita. Uma migração preliminar do projeto para uma FPGA confirmou que as otimizações de área também são relevantes nesse ambiente, mesmo quando comparadas com outra implementação otimizada que não provê o mecanismo para adaptação da faixa de representação do PF.
Exames de Qualificação
Data: 12/12/2019 -
Horário: 09:00
Local: Sala Seminários 1010 - EEUFMG
Aluno: Alex Damiany Assis
Título: Regularização Em Redes Neurais Artificiais Baseada Na Adição de Ruídos No Treinamento Com Grafo de Gabriel
Banca:Prof. Dr. Antônio de Pádua Braga - Orientador (DELT (UFMG))
Prof. Dr. Eduardo Mazoni Andrade Marçal Mendes (DELT (UFMG))
Prof. Dr. Luiz Carlos Bambirra Torres (Departamento de Computação e Sistemas (UFOP))
Prof. Dr. Haroldo Fraga de Campos Velho (Laboratório de Computação Aplicada (INPE))
Prof. Dr. João Pedro Braga (Departamento de Química (UFMG))
Prof. Dr. Janier Arias Garcia (DELT (UFMG))
Data: 17/12/2019 -
Horário: 09:00
Local: Sala Seminários 1012 - EEUFMG
Aluno: Rodrigo Amador Coelho
Título: Classificador Incremental Baseado em Grafo de Gabriel Para Problemas de Fluxo de Dados Contínuos
Banca:Prof. Dr. Cristiano Leite de Castro - Orientador (DEE (UFMG))
Prof. Dr. Rodrigo César Pedrosa Silva (Departamento de Computação - DECOM (Universidade Federal de)
Prof. Dr. Luiz Carlos Bambirra Torres (DECEA (Universidade Federal de Ouro Preto))
Prof. Dr. Luis Enrique Zárate Gálvez (Informática (PUCMinas))
Data: 17/12/2019 -
Horário: 09:00
Local: Sala 2419 - PPGEE
Aluno: Pablo Nunes Agra Belmonte
Título: Development Of A High Performance Vlc Receiver For Iot Suitable For Intense Background Environments
Banca:Prof. Dr. Davies William de Lima Monteiro - Orientador (DEE (UFMG))
Prof. Dr. Marcelo Eduardo Vieira Segatto - Coorientador (Departamento de Engenharia Elétrica (UFES))
Prof. Dr. Andrea Chiuchiarelli (DELT (UFMG))
Prof. Dr. Lenin Martins Ferreira Morais (DELT (UFMG))
Prof. Dr. José Alexandre Diniz (FEEC (UNICAMP))
Dissertações de Mestrado
Data: 10/12/2019 -
Horário: 09:00
Local: Sala de Seminários 1010 - EEUFMG
Aluno: Arthur Viana Lara
Orientador(a): Guilherme Vianna Raffo
Co-Orientador(a): Janier Arias García, LEANDRO BUSS BECKER
Título: Design of an Embedded System Architecture For a Safety-critical System
Banca:Prof. Dr. Guilherme Vianna Raffo - Orientador (DELT (UFMG))
Prof. Dr. Janier Arias García (DELT (UFMG))
Prof. Dr. Leandro Buss Becker (DAS (UFSC))
Prof. Dr. Hugo Daniel Hernandez Herrera (DEE (UFMG))
Prof. Dr. Henrique Resende Martins (DEE (UFMG))
Resumo/abstract
Resumo
Esta dissertação de mestrado propõe uma arquitetura de sistema embarcado com requisitos de dependabilidade e de tempo real para aplicativos de segurança crítica que utiliza um hardware de alto desempenho para executar algoritmos de alto custo computacional. Os sistemas de segurança crítica consistem em dispositivos que devem funcionar sem falhas; caso contrário, poderá resultar em mortes, danos materiais significativos ou danos ao meio ambiente. Um kit de desenvolvimento Jetson TX2 com o Ubuntu 18.04 em modo de preempção completo e dois microcontroladores ARM redundantes de 32 bits usando o FreeRTOS compõem a arquitetura proposta para aproveitar a Unidade de Processamento Gráfico de 256 núcleos da Jetson TX2 e possibilitar a comunicação com vários sensores e atuadores. Além disso, a Jetson TX2 usa o ROS 2 para fornecer escalabilidade e ferramentas para o projeto de aplicações futuras e ambos microcontroladores ARM têm a capacidade de executar uma lei de controle simples para tolerar possíveis falhas da Jetson TX2. Para fins de validação, aplicamos essa solução como um sistema de controle de voo de um VANT (veículo aéreo não tripulado) com a configuração tilt-rotor e, para orientar o processo de projeto, coletamos requisitos de normas e entrevistas com pesquisadores envolvidos no desenvolvimento do VANT. Para testar o desempenho e o cumprimento dos requisitos, foi projetado um ambiente de simulação em hardware-in-loop para permitir validar a solução sem a necessidade de aplicá-la a um protótipo real. Por fim, realizamos quatro simulações usando injeção de falha: i) o VANT funciona corretamente sem falhas de hardware; ii) a Jetson TX2 perde a comunicação com os microcontroladores ARM; iii) um microcontrolador ARM falha; e iv) um microcontrolador ARM e a Jetson TX2 falham.
Abstract
This Master Thesis proposes an embedded system architecture with real-time and dependable requirements for safety critical applications that uses a high performance hardware in order to run high cost algorithms and with real-time and dependable requirements. Safety-critical systems consist of devices that must be work without failure; otherwise, it may result in loss of life, significant property damage or damage to the environment. A Jetson TX2 development kit with Ubuntu 18.04 in full preemptive mode and two redundant ARM microcontrollers of 32 bits using FreeRTOS compose the architecture proposed in order to enjoy of Jetson TX2s Graphics Processing Unit of 256 kernels and enable communication with several sensors and actuators. Moreover, Jetson TX2 uses ROS 2 to provide scalability and tools for design of future applications, and both ARM microcontrollers has the capacity of running a simple control law tolerating possible Jetson TX2s failures. For validation purposes, we apply this solution as a flight control system of a tilt-rotor UAV (Unmanned Aerial Vehicle) and, in order to guide the design process, we collect requirements from standards and interviews with researchers involved with the UAV development. For testing of the performance and requirements fulfilment, it is designed a hardware-in-the-loop simulation environment allowing validate the solution without needing to apply it to a real prototype. Finally, we performs four simulation scenarios using fault injection: i) the UAV works properly without any hardware failures; ii) the Jetson TX2 platform loses communication with the ARM microcontrollers; iii) one ARM microcontroller fails; and iv) one ARM microcontroller and the Jetson TX2 platform fail.
Data: 11/12/2019 -
Horário: 09:00
Local: Sala Seminários 1014 - EEUFMG
Aluno: Clayton Guimarães de Almeida
Orientador(a): Eduardo Gontijo Carrano
Título: Otimização de Estoque de Materiais de Vagões de Carga Geral
Banca:Prof. Dr. Eduardo Gontijo Carrano - Orientador (DEE (UFMG))
Prof. Dr. Michel Bessani (DEE (UFMG))
Prof. Dr. Rodrigo Tomás Nogueira Cardoso (DFM (CEFET-MG))
Resumo/abstract
Resumo
Este trabalho apresenta uma ferramenta para otimizar o estoque de materiais utilizados na manutenção preventiva de vagões de carga geral. Essa abordagem tem duas funções objetivo: a primeira se concentra em minimizar o custo de compra de materiais e a segunda visa minimizar o custo de risco de parada dos vagões devido à falta de materiais. O objetivo desta ferramenta é apontar a redução de custos com o estoque ao mesmo tempo em que o risco de parada dos vagões é controlado. Esses dois objetivos definem um trade-off, que deve ser analisado na escolha de uma solução com base em quanto risco se deseja assumir para reduzir os custos de estoque. É apresentada uma lista de todos os materiais a serem adquiridos em cada período do ciclo de manutenção para cada solução pareto ótima. A ferramenta permite identificar quais materiais estão sendo priorizados em cada solução. Um conjunto de dados reais de uma empresa de transporte ferroviário, com foco no ciclo de manutenção de vagões de carga geral durante um período de um ano, foi usado para testar a ferramenta. Outro teste realizado foi a comparação entre as soluções geradas pelas taxas de sucateamento calculadas para o ciclo anterior (2017) e os resultados alcançados utilizando as taxas reais de sucateamento do ciclo de 2018. Essa análise permitiu estimar o gap de risco entre as soluções previstas e as ideais, o que possibilitou identificar pontos de melhoria nos processos da empresa em questão.
Abstract
This work presents a tool for optimizating the inventory used for preventive maintenance of general cargo freight cars. This approach has two objective functions: the first one is focused on minimizing the purchase cost of materials, and the second one is to minimize the risk cost of stopping freight cars due to material shortages. The objective of this tool is to aim cost reduction with inventory at the same time that freight cars stop risk is controlled. These two objectives define a trade-off, which must be analyzed in the choice of a solution based on how much risk one wants to assume to reduce the inventory costs. A list of all materials to be purchased in each period of the maintenance cycle is presented for each Pareto-optimal solution. It makes possible to identify which materials are being prioritized in each solution. A real data set from a transport railway company, focusing on the maintenance cycle of general cargo freight cars over a one year period, was used to test the tool. Another test performed was the comparison between the solutions generated through the scrapping rates calculated forthe previous cycle (2017) and the results achieved using the real scrapping rates of the 2018 cycle. This analysis allowed to estimate the risk gap between predicted and ideal solutions, which made possible to indicate points of improvement in the processes of the company in question.
Data: 12/12/2019 -
Horário: 14:00
Local: Sala de Seminários 1010 - EEUFMG
Aluno: Iuri Silva Castro
Orientador(a): Alair Dias Júnior
Co-Orientador(a): Janier Arias García
Título: Uma Abordagem para Particionamento Hardware/software Baseada em Reconfiguração Parcial e Dinâmica
Banca:Prof. Dr. Alair Dias Junior (Engenharia (TCS Industrial))
Prof. Dr. Janier Arias García (DELT (UFMG))
Prof. Dr. Ricardo de Oliveira Duarte (DELT (UFMG))
Prof. Dr. Luiz Carlos Bambirra Torres (DECSI (UFOP))
Resumo/abstract
Resumo
A mudança no paradigma computacional atual para um modelo de estrutura virtual descentralizada, conhecido como computação em nuvem, e a utilização da Internet das Coisas (IoT), está permitindo inúmeras inovações em aplicações industriais, e possibilitando a redução de custos, redução no time-to-market (TTM) e aumento de flexibilidade dos sistemas. No entanto, um efeito colateral desse novo paradigma é o aumento da latência, sendo ineficaz para sistemas que requerem baixa latência entre a aquisição de dados e a atução no processo. Para esses sistemas sensíveis à latência, a computação na borda, ou edge-computing, se apresenta como uma solução ideal, pois parte da computação é realizada nos dispositivos de fronteira (edge devices). A introdução da computação na borda exige um aumento no poder computacional dos sistemas embarcados, e assim, obriga os desenvolvedores a buscarem por novas tecnologias e novas arquiteturas para atender tal necessidade. A utilização de sistemas híbridos e implementações hardware/software é uma solução promissora para atender tais necessidades. Neste trabalho é apresentado uma abordagem para o particionamento hardware/software em sistemas híbridos com suporte a reconfiguração parcial e dinâmica. A abordagem é verificada em um estudo de caso de um classificador de padrões, mostrando-se capaz de suportar aplicações reais da industria.
Abstract
The shift in the current computing paradigm to a decentralized virtual structural model, known as cloud computing, and the use of Internet of Things (IoT), is enabling numerous innovations in industrial applications, resulting in cost reduction, better time-to-market (TTM) and increased flexibility of the systems. However, a known side effect of this new paradigm is increased latency, being ineffective for systems that require low latency between acquiring data and process execution. For these latency-sensitive systems, edge-computing is an ideal solution because part of the computing is performed on edge devices. The introduction of edge-computing requires an increase in computing power of embedded systems, forcing developers to search for new technologies and new architectures to fulfill these needs. The use of hybrid systems and hardware/software implementations is a promising solution to meet such needs. This paper presents an approach in hardware/software partitioning in hybrid systems with dynamic and partial reconfiguration support. The approach is verified in a study case of a pattern classifier, proving to be able to support real industry applications.
Data: 18/12/2019 -
Horário: 14:00
Local: Sala seminários 1010 - EEUFMG
Aluno: FRANKLIN MEER GARCIA ACEVEDO
Orientador(a): Patrícia Nascimento Pena
Título: Abstração do Supervisor para Sistemas com Retrabalho Visando a Solução de um Problema de Planejamento
Banca:Prof. Dr. Patrícia Nascimento Pena (DELT (UFMG))
Prof. Dr. Carlos Andrey Maia (DEE (UFMG))
Prof. Dr. Ricardo Hiroshi Caldeira Takahashi (DMAT (UFMG))
Suplente: Prof. Dr. Vinícius Mariano Gonçalves (DEE (UFMG))
Resumo/abstract
Resumo
Autômatos de Estados Finitos e a Teoria de Controle Supervisório (TCS) têm sido usados para modelar e solucionar problemas de planejamento de tarefas em sistemas de manufatura.Ao modelar o sistema usando a TCS, garante-se segurança e não bloqueio do sistema sob controle, além de e garantir que as soluções geradas poderão ser executadas no sistema.
Trabalhar com PO-Abstrações do comportamento em malha fechada permite reduzir ainda mais o universo de busca do problema de planejamento sem perder as qualidades advindas da TCS. No presente trabalho, faz-se uma extensão de resultado anterior, para ocaso em que a abstração do comportamento em malha fechada não é PO-Abstração. Um procedimento para construir, a partir de uma sequência selecionada por seu desempenho sob algum critério, uma linguagem que seja executável até o final na planta. Esta extensão torna possível o uso de abstrações do comportamento em malha fechada de sistemas que por natureza não são PO-Abstrações.
Abstract
Finite state automata and Supervisory Control Theory (SCT) have been used to model and solve task planning problems in manufacturing systems. By modeling the system using SCT, it ensures security and non-blockingness under control and ensures that the generated solutions can be executed on the system.
Working with OP-Abstractions of the closed-loop behavior allows to further reduce the search universe of the planning problem without losing the qualities that come from SCT. In the present work, an extension of the previous result is made, for the case where the closed-loop behavior abstraction is not a OP-Abstraction. A procedure for building, from a sequence selected by its performance under some criteria, a language that is executable to the end of the plant is introduced. This extension makes it possible to keep using abstractions, even if the abstraction as presented in the previous result is not, by nature, OP.
Data: 18/12/2019 -
Horário: 14:00
Local: Sala 2419 - PPGEE
Aluna: PATRÍCIA DE OLIVEIRA E LUCAS
Orientador(a): Frederico Gadelha Guimarães
Título: Previsão de Séries Temporais de Evapotranspiração de Referência com Redes Neurais Convolucionais
Banca:Prof. Dr. Frederico Gadelha Guimarães - Orientador (DEE (UFMG))
Prof. Dr. Eduardo Mazoni Andrade Marçal Mendes (DELT (UFMG))
Prof. Dr. Petrônio Cândido de Lima e Silva ((IFNMG))
Prof. Dr. Rodrigo César Pedrosa Silva (DECOM (UFOP))
Resumo/abstract
Resumo
O crescimento da população e as mudanças climáticas estão fazendo com que o setor agrícola busque abordagens mais precisas e eficientes para garantir um suprimento adequado e regular de alimentos para a sociedade com menor consumo de água. A agricultura 4.0 surge nessa conjuntura de escassez de recursos como uma gestão que busca através detecnologias como Big Data, Internet das Coisas (IoT), Inteligência Artificial e Robótica fornecer às plantas e animais exatamente o que eles precisam e quando precisam, aumentando a produtividade e reduzindo os impactos ambientais. O manejo da irrigação, prática essencial para o desenvolvimento de uma agricultura sustentável, busca, através da previsão da evapotranspiração de referência, conhecer antecipadamente as necessidadesde água das culturas para planejar e gerenciar os recursos hídricos. Esta dissertação se insere nesse contexto, com o objetivo de investigar o uso de modelos de aprendizagem profunda, em especial das redes neurais convolucionais, na previsão de séries temporais de evapotranspiração de referência (ETo). Para isso, foram implementadas três redes neurais convolucionais com diferentes estruturas para prever uma série temporal diária de ETo. Para otimizar os hiperparâmetros desses modelos foi utilizado um algoritmo genético que buscou equilibrar dois objetivos, precisão e parcimônia. A validação dos modelos CNN foi feita através da comparação com modelos conhecidos de previsão de séries temporais como o ARIMA, WFTS e LSTM. Para fins de comparação foram implementados também ensemble learning compostos pelos modelos CNN. Os resultados mostraram que os modelos CNN são viáveis para previsão de séries temporais de ETo e que os modelos ensemble melhoram as previsões em termos de variância, precisão e custo computacional em relação aos modelos individuais.
Abstract
Population growth and climate change are causing the agricultural sector to seek more accurate and efficient approaches to ensure an adequate and regular supply of food to society with less water consumption. Agriculture 4.0 comes at this juncture of resource scarcity as a management that seeks through technologies such as Big Data, Internet of Things (IoT), Artificial Intelligence and Robotics to provide plants and animals with exactly what they need and when they need it, increasing productivity and reducing environmental impacts. Irrigation management, an essential practice for the development of sustainable agriculture, seeks, through the reference evapotranspiration forecast, to know in advance the water needs of crops to plan and manage water resources. This dissertation is inserted in this context, aiming to investigate the use of deep learning models, especially convolutional neural networks, in the prediction of reference evapotranspiration (ETo) time series. For this, three convolutional neural networks with different structures were implemented to predict a daily time series of ETo. To optimize the hyperparameters of these models, a genetic algorithm was used to balance two objectives, precision and parsimony. The CNN models were validated by comparing them with known time series prediction models such as ARIMA, WFTS and LSTM. For comparison purposes we also implemented ensemble learning composed by CNN models. The results showed that CNN models are viable for ETo time series prediction and that ensemble models improve predictions in terms of variance, accuracy, and computational cost over individual models.
Data: 19/12/2019 -
Horário: 08:30
Local: Sala Seminários 1010 - EEUFMG
Aluno: Guilherme Cristiano Fraga
Orientador(a): Wallace do Couto Boaventura
Título: Avaliação do Impacto da Taxa de Amostragem em Métodos de Localização de Faltas em Linhas de Transmissão Baseados em Ondas Viajantes
Banca:Prof. Dr. Wallace do Couto Boaventura - Orientador (DEE (UFMG))
Prof. Dr. José Osvaldo Saldanha Paulino (DEE (UFMG))
Prof. Dr. Igor Amariz Pires ((UFMG))
Resumo/abstract
Resumo
A localização automática de faltas em linhas de transmissão (LT) desempenha um papel fundamental para a operação dos sistemas de energia e sua segurança operacional, considerando que a disponibilidade de LTs é crítica. Uma técnica bem-sucedida para a localização de faltas baseia-se na detecção das ondas viajantes presentes na tensão/corrente da LT após a falta. Tal caracterização demanda equipamentos de alta taxa de aquisição e custo elevado, especialmente desenvolvidos para tal aplicação. Entretanto, os registradores digitais de perturbação (RDPs), que operam em baixas taxas de aquisição, são os equipamentos que geralmente estão disponíveis nas subestações de energia. Neste contexto, este trabalho tem por objetivo principal analisar o impacto da taxa de aquisição na qualidade de algoritmos de detecção baseados em ondas viajantes. Isto é feito através de operação de dizimação/interpolação de modo a variar a frequência de amostragem (FA) a ser utilizada pelo algoritmo. São apresentados no final do texto os resultados de simulações e feitas comparações de desempenho entre três métodos: o de localização de faltas baseada em ondas viajantes, o método clássico de localização por reatância de sequência positiva (que é usado na proteção à distância dos RDPs) e também um método proposto, baseado no uso de derivadas.
Abstract
The automatic fault localization in transmission lines (TL) plays a fundamental role for both the operation of energy systems and their operational safety, since the availability of TLs can be a critical issue. A successful technique for fault localization is based on the detection of traveling waves present in the voltage and current signals of the TL shortly after the fault event. Such characterization requires the use of an equipment with high acquisition rate, usually high cost and specially developed for such task . However, digital disturbance recorders (DDRs), which operate at low acquisition rates, are the equipment that is generally available in power substations. In this context, this work has as its main objective to analyze the impact of the acquisition rate on the quality of detection algorithms based on traveling waves. This is done by decimation / interpolation operation in order to vary the sampling rate to be used by the algorithm. Results of simulations are presented at the end of text and made comparisons of performance between the three methods: traveling wave based fault location, the classical positive sequence reactance location method (which is used for remote protection of RDPs) and also a proposed method based on derivatives.