9.4k 9 分钟

# Mamba 串烧 # Mamba: Linear-Time Sequence Modeling with Selective State Spaces 本文核心内容与思想改编自该博文中的核心与精华:一文通透想颠覆 Transformer 的 Mamba:从 SSM、HiPPO、S4 到 Mamba_mamba 模型 - CSDN 博客。 # 状态空间与状态空间模型 SSM 想象一下我们正在穿过一个迷宫,图中每个小框代表迷宫中的一个位置,并附有某个隐式的信息,例如你距离出口有多远。 ​ 而上述迷宫可以简化建模为一个 “状态空间表示 state space...
6.3k 6 分钟

# EnlightenGAN 论文详解 论文是 2019 年 IEEE 的 EnlightenGAN: Deep Light Enhancement without Paired Supervision. 这篇论文是低光增强领域无监督学习的开山之作。 论文链接如下:arxiv.org/pdf/1906.06972.pdf # 出发点 # 出发点 1:从监督学习的缺点入手。 it is very difficult or even impractical to simultaneously capture corrupted and ground truth images of the...
5.6k 5 分钟

# Retinexformer 论文详解 论文为 2023 年 ICCV 的 Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement。论文链接:browse.arxiv.org/pdf/2303.06705.pdf,代码链接:caiyuanhao1998/Retinexformer: "Retinexformer: One-stage Retinex-based Transformer for Low-light Image...
3.1k 3 分钟

# PairLIE 论文详解 论文为 2023CVPR 的 Learning a Simple Low-light Image Enhancer from Paired Low-light Instances. 论文链接如下: openaccess.thecvf.com/content/CVPR2023/papers/Fu_Learning_a_Simple_Low-Light_Image_Enhancer_From_Paired_Low-Light_Instances_CVPR_2023_paper.pdf # 出发点 1.However, collecting...