Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/33576
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2022_LeonardoBrandaoBorgesFreitas_tcc.pdf9,38 MBAdobe PDFver/abrir
Registro completo
Campo Dublin CoreValorLíngua
dc.contributor.advisorMuñoz Arboleda, Daniel Mauricio-
dc.contributor.authorFreitas, Leonardo Brandão Borges de-
dc.identifier.citationFREITAS, Leonardo Brandão Borges de. Implementação eficiente de um módulo de detecção de movimento em vídeo para SoC FPGA. 2022. 73 f., il. Trabalho de Conclusão de Curso (Bacharelado em Engenharia Eletrônica) — Universidade de Brasília, Brasília, 2022.pt_BR
dc.descriptionTrabalho de Conclusão de Curso (graduação) — Universidade de Brasília, Faculdade UnB Gama, 2022.pt_BR
dc.description.abstractEste trabalho propõe uma implementação eficiente para detecção de movimento em vídeo a partir de otimizações na técnica de diferenciação temporal e fatiamento das imagens em regiões de pixel, com objetivo de evitar falsos positivos na detecção de movimento causado pela projeção de sombras no cenário monitorado. O algoritmo desenvolvido foi descrito como uma máquina de estados finita, ou da sigla em inglês FSM, e validado primeiramente em software através de uma aplicação Python. Em seguida, o algoritmo foi codificado para linguagem de descrição de hardware, VHDL, com o auxilio da plataforma de desenvolvimento Vivado. O resultado da simulação comportamental indicou que o algoritmo proposto compara um par de frames, com dimensões de 640x480p, em menos de 13 ms, se garantido um novo pixels a cada 10ns, ou seja, conseguindo operar a quase 160 fps. Em termos de implementação em hardware o algoritmo embarcado apresentou consumo energético de aproximadamente 0,02W e, em termos de consumo de recursos, utilizou apenas 12% das LUTs e 11% dos Flip-Flops disponíveis no SoC FPGA modelo PYNQ-Z2, utilizada no protótipo do projeto. Todavia, devido a utilização de um barramento AXI-Lite entre os ambientes de software, que captura e pre-processa as imagens, e hardware,que aplica o algoritmo de detecção de movimento, a velocidade de envio dos pixels de um ambiente para o outro se mostrou insuficiente para alcançar a velocidade da simulação comportamental. Porém, desconsiderando a velocidade de processamento, os resultados se mostraram semelhantes tanto na FSM em software via aplicação Python, quanto na simulação comportamental via Vivado e até mesmo quando embarcado na plataforma PYNQ-Z2, o que valida o funcionamento do algoritmo proposto.pt_BR
dc.rightsAcesso Abertopt_BR
dc.subject.keywordVídeo - detecção de movimentopt_BR
dc.subject.keywordVídeo - produçãopt_BR
dc.subject.keywordAlgoritmospt_BR
dc.subject.keywordFPGAs (Field Programmable Gate Arrays)pt_BR
dc.titleImplementação eficiente de um módulo de detecção de movimento em vídeo para SoC FPGApt_BR
dc.typeTrabalho de Conclusão de Curso - Graduação - Bachareladopt_BR
dc.date.accessioned2023-02-15T20:36:46Z-
dc.date.available2023-02-15T20:36:46Z-
dc.date.submitted2022-05-11-
dc.identifier.urihttps://bdm.unb.br/handle/10483/33576-
dc.language.isoPortuguêspt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor que autoriza a Biblioteca Digital da Produção Intelectual Discente da Universidade de Brasília (BDM) a disponibilizar o trabalho de conclusão de curso por meio do sítio bdm.unb.br, com as seguintes condições: disponível sob Licença Creative Commons 4.0 International, que permite copiar, distribuir e transmitir o trabalho, desde que seja citado o autor e licenciante. Não permite o uso para fins comerciais nem a adaptação desta.pt_BR
dc.description.abstract1This project offers an efficient implementation for movement detection on video, based on the optimization of the temporal differencing technique and slicing of pixel area of images,aiming to avoid false positives on movement detection resultant of shadow projections in the monitored scenario. The algorithm developed was described as a finite state machine,or FSM, and validated first in software through a Python application. Then, the algorithm was coded in hardware description language, VHDL, utilizing the development platformVivado. The result of the behavior simulation shows that the offered algorithm compares a pair of frames, with dimensions of 640x480p, in less than 13ms, if guaranteed a newpixel every 10ns, making it able to work at almost 160fps. In hardware implementation terms, the embedded algorithm shows energy consumption around 0,02W and, in resource consumption terms, it utilized only 12% of the LUTs and 11% of the Flip-Flops available in the SoC FPGA model PYNQ-Z2, used in the project prototype. Although, due to the use of a data bus AXI-Lite between software environments, that capture and pre-process images, and hardware, that applies the movement detection algorithm, the pixel’s sending speed from an environment to another was proven insufficient to reach the almost 160fps of the behavior simulation. But, disregarding the processing speed, the results were similar,both in the software in FSM through Python application, in the behavior simulation through Vivado and even when embedded in the PYNQ-Z2 platform, validating that the algorithm works.pt_BR
Aparece na Coleção:Engenharia Eletrônica



Todos os itens na BDM estão protegidos por copyright. Todos os direitos reservados.