UFAC desenvolve modelo HDR com IA mais leve e eficiente que padrões globais
  • Alunos da UFAC criam modelo HDR com IA que reduz em 7× o custo computacional e mantém alta qualidade.
  • A pesquisa usa GANs e convoluções separáveis, alcançando SSIM-μ de 0.9917 e execução viável em GPUs modestas.
  • O modelo é pioneiro na otimização do HDR-GAN com foco em eficiência, ideal para celulares, drones e AR.

Alunos da Universidade Federal do Acre (UFAC) apresentaram um modelo inovador de reconstrução de imagens HDR que combina redes adversárias generativas (GANs) com convoluções separáveis. A proposta é pioneira em sua abordagem e oferece uma alternativa leve, precisa e eficiente frente às soluções mais usadas no mercado global.

Modelo HDR otimizado supera barreiras técnicas

O novo sistema reconstrói imagens HDR a partir de três fotos com diferentes exposições. Ele utiliza uma versão otimizada do HDR-GAN, substituindo as convoluções tradicionais pelas chamadas convoluções separáveis em profundidade.

Essa substituição permite uma redução de 6× nos FLOPs (operações de ponto flutuante por segundo) e 7× no número de parâmetros da rede. Além disso, o modelo ocupa apenas 1,45 MB, contra 10,9 MB do HDR-GAN tradicional.

Alta performance mesmo em hardwares modestos

Um dos grandes diferenciais da solução é sua capacidade de rodar em dispositivos com recursos limitados. Enquanto modelos como HDR-GAN e Lopez-Cabrejos exigem GPUs de alto desempenho, a nova proposta da UFAC pode ser executada em uma GPU RTX 3050, com apenas 4,5 GB de memória.

Essa eficiência abre portas para uso da tecnologia em celulares, drones, sistemas embarcados, videogames e realidade aumentada, onde o consumo de energia e processamento é um fator crítico.

Qualidade visual comparável aos líderes globais

O modelo alcançou PSNR-μ de 43,51 dB e SSIM-μ de 0,9917, métricas que indicam alta fidelidade na reconstrução visual. Os resultados são comparáveis aos do modelo Lopez-Cabrejos, baseado em Transformers, mas com um custo computacional muito menor.

Nos testes de generalização, utilizando datasets como Kalantari, HDR-Eye, Tursun, Sen e Tel, o modelo da UFAC se destacou em diversos cenários, incluindo movimento, superexposição e baixa luminosidade.

Avanço técnico inédito com convoluções separáveis

Embora a técnica de convoluções separáveis já seja aplicada em tarefas como detecção de objetos (MobileNet) e super-resolução (SwiftSRGAN), esta é a primeira vez que ela é aplicada para otimizar o HDR-GAN.

A arquitetura desenvolvida integra três componentes principais:

  • Encoder multi-escala: extrai características das imagens LDR com diferentes exposições.
  • Bloco de fusão e alinhamento: combina dados de diferentes escalas, ajustando o movimento entre os quadros.
  • Supervisão HDR profunda: gera duas saídas HDR com aprendizado reforçado por perdas combinadas (reconstrução e adversária).

Comparativos colocam o modelo entre os melhores

Em tabelas comparativas com modelos de referência, como HDR-GAN, Lopez-Cabrejos e Patch-Based, o modelo da UFAC apresentou:

  • Menor tempo de inferência: 0,15 segundos por imagem (contra 0,19 s do HDR-GAN).
  • Menor consumo de GPU: 4,5 GB contra 8,3 GB do HDR-GAN.
  • Menor tamanho de arquivo: 1,45 MB contra 10,9 MB.

Impactos para a Amazônia

Ao ser desenvolvido na UFAC, o projeto representa um marco na produção científica da região amazônica. Demonstra que é possível gerar pesquisa de ponta em inteligência artificial, visão computacional e otimização de redes neurais fora dos grandes centros.

Além disso, abre caminho para aplicações de baixo custo em contextos locais, como monitoramento ambiental, agricultura de precisão, fotogrametria florestal e educação tecnológica.

O que esperar daqui pra frente

O estudo propõe avanços futuros, como o desenvolvimento de uma arquitetura generativa própria e o uso de bases de dados mais variadas em termos de luz, movimento e saturação.

A equipe também pretende explorar modelos ainda mais rápidos para tempo real e versões adaptadas para dispositivos móveis.

Com isso, a UFAC consolida uma contribuição inédita e promissora para o campo de reconstrução de imagens HDR com inteligência artificial.

Glossário

  • HDR (High Dynamic Range): Técnica para capturar e exibir imagens com ampla faixa de luz e cor.
  • GAN (Rede Adversária Generativa): Tipo de IA que aprende a gerar imagens realistas por meio da competição entre duas redes.
  • FLOPs: Medida de operações matemáticas por segundo, usada para avaliar o custo computacional de um modelo.
  • PSNR e SSIM: Métricas que indicam a qualidade visual de uma imagem reconstruída.
  • Convolução separável em profundidade: Técnica de otimização que divide o processo de convolução para reduzir custo e aumentar eficiência.

Últimas notícias

Instituto Sidia abre oportunidades em Manaus para tecnologia e IA

Ocean Lab abre inscrições para startups em Manaus