FRH - Investigación y Posgrado - Publicaciones - Artículos
Permanent URI for this collectionhttp://48.217.138.120/handle/20.500.12272/321
Browse
Item B- VGG16: Red Neuronal de Convolución cuantizada binariamente para la clasificación de imágenes(Martín German Gonzalez, 2022) Urbano Pintos, Nicolás; Lacomi, Héctor Alberto; Lavorato, Mario BlasEn este trabajo se entrena y evalúa una red neuronal de convolución cuantizada de forma binaria para la clasificación de imágenes. Las redes neuronales binarizadas reducen la cantidad de memoria, y es posible implementarlas con menor hardware que las redes que utilizan variables de valor real (Floating Point 32 bits). Este tipo de redes se pueden implementar en sistemas embebidos, como FPGA. Se realizó una cuantización consciente del entrenamiento, de modo de poder compensar los errores provocados por la perdida de precisión de los parámetros. El modelo obtuvo una precisión de evaluación de un 88% con el conjunto de evaluación de CIFAR-10.Item Comparación de Vitis - AI y FINN para implementar redes neuronales convolucionales en FPGA(Martín German Gonzalez, 2024) Urbano Pintos, Nicolás; Lacomi, Héctor Alberto; Lavorato, Mario BlasLas redes neuronales convolucionales (CNN) son esenciales para la clasificación y detección de imágenes, y su implementación en sistemas embebidos resulta cada vez más atractiva debido a su tamaño compacto y bajo consumo energético. Los FPGA (Field-Programmable Gate Arrays) han surgido como una opción prometedora, gracias a su baja latencia y alta eficiencia energética. Vitis AI y FINN son dos entornos de desarrollo que automatizan la implementación de CNN en FPGA. Vitis AI utiliza una unidad de procesamiento de aprendizaje profundo (DPU) y aceleradores de memoria, mientras que FINN se basa en una arquitectura de transmisión de datos (streaming) y ajusta la paralelización. Ambos entornos implementan técnicas de cuantización de parámetros para reducir el uso de memoria. Este trabajo extiende comparaciones previas al evaluar ambos entornos mediante la implementación de cuatro modelos con diferentes cantidades de capas en la plataforma FPGA Kria KV260 de Xilinx. Se describe en detalle el proceso completo, desde el entrenamiento hasta la evaluaci´on en FPGA, incluyendo la cuantización y la implementación en hardware. Los resultados muestran que FINN proporciona menor latencia, mayor rendimiento y mejor eficiencia energética que Vitis AI. No obstante, Vitis AI destaca por su simplicidad en el entrenamiento de modelos y facilidad de implementación en FPGA. El hallazgo principal del estudio es que, al aumentar la complejidad de los modelos con más capas, las diferencias de rendimiento y eficiencia energética entre FINN y Vitis AI se reducen notablemente.
