关键词:Image Super-Resolution、Video Super-Resolution
本专栏研究领域为【超分辨率重建】,涵盖图像超分、视频超分,实时超分,4K修复等方面。主要内容包括主流算法模型的论文精读、论文复现、毕业设计、涨点手段、调参技巧、论文写作、应用落地等方面。
算法模型从SRCNN开始更新至今,一般是一篇论文精读对应一篇论文复现。
论文精读详解理论,归化繁为简,归纳核心,积累词句,培养阅读论文和论文写作能力。
论文复现依托Pytorch代码,实现完整的模型训练流程,总结调参方法,记录碰到的bug,论文插图可视化,培养读写代码能力、做实验的能力、以及应用落地能力。在复现大量的算法后,专栏会更新涨点方法,帮助有需要的同学找到创新点。专栏中还会更新一些实用技术,帮助大家解决实际问题。此外,专栏会更新超分算法相关的毕业设计,以完整软件项目的形式呈现(UI界面+超分算法)。
建议:有科研需要的同学【论文精读】和【论文复现】都看,理论+实验;有做项目应用需要而不需要写论文的同学可以只看【论文复现】,有最优PSNR的模型文件,可以直接用,超分自己的图像。
宗旨:先仔细阅读文章,有问题再问。
基础薄弱的同学先学深度学习基础,搞明白框架和执行逻辑,重点为pytorch(数据处理DataLoader、模型实现nn、训练相关)、cv2和PIL等图像处理基础,有的问题搜一搜,查一查,把基础打好。
欢迎提出以下问题:
符合以上条件的,我知无不言,作为一名高校教师,我很愿意和友好的学生沟通!工作很忙,空闲时间看见了就会回复。
以下评论和问题不回:
订阅专栏后的答疑是作为附加的增值服务,我没有义务什么离谱的问题都回答你,即使你花了钱也不行,每个人的标准不同,求同存异,友好相处,有问题有意见可以提,但别找骂。
注:有的文章质量可能偏低,可能是我先发出来准备后面再完善的,大家不用担心,做事情先完成再完美。
笔者的项目环境:
pycharm专业版远程连接服务器运行。你可以根据自己的情况使用不同配置,结果不会差很多。
如果你的环境不同,请根据自己的情况修改部分代码。
例如,多个GPU就会用到torch.nn.parallel DataParallel,而且会model.to(device)或者to cuda。而你自己的环境是windows本地跑,只有一个GPU,那么就需要修改对应部分的代码。
仅做参考,相信大多数人的环境应该都能运行。实在不行,只能升级设备了。
超分辨率(Super-Resolution),顾名思义,是将低分率的图像变成高分辨率的图像。它是低级别(low-level)的图像复原任务(同级别的还有去噪)。但是,超分是病态的(ill-pose)。它是无中生有,凭空创造出来的。为的是改善视觉效果,提升后续工作的效率。
那么,图像是如何无中生有,从低分辨率到高分辨率的呢?
举一个分辨率放大2倍的例子。GT是Groud Truth,也是HR。作为标签(label)或者目标(target)指导低分率图像要向着什么目标努力。低分辨率图像是通过插值算法造出来的,常见的方法是用双三次插值缩小再放大(也可以添加高斯噪声)。当然,如果你自己有两个2倍关系的数据,低分辨率(LR)的是输入,高分辨率(HR)是GT。
这样,LR和HR之间有一个映射,通过损失函数最小化来得到最优的模型。
如上图所示,Input就是通过双三次插值(Bicubic)先缩小2倍(LR)再放大2倍的结果。Output是通过模型将LR超分的结果。
横向对比,一个是不同算法的对比,得出我们的模型更好的结论;一个是超分的结果与GT对比,得出我们的模型更接近于原图。质量评估,可视化看清晰度;量化评估,看PSNR和SSIM等指标。
常见的传统方法对比有:nearest,双线性,双三次,lanczos,sinc,spline等。
然而,实际应用场景中,想让图像从模糊变清晰,往往是给出模糊图像,而不是像上图中作为GT,也没有对应放大倍数后想达到的指导。超分之后,发现图像还是模糊。
这是为什么呢?
答:超分只是将图像的分辨率放大,模糊是因为失焦或图像大小变化导致的,超分才有效果。一定要分析模糊产生的原因,是因为噪声模糊(去噪模型)、运动模糊(有对应的去运动模糊的方法)还是大小变化模糊。
实际应用往往需要去噪、锐化、超分等多种图像复原手段共同作用才能产生比较好的效果。
所以,当你训练的超分模型效果不好时,不必气馁。需要写论文的只站在论文的角度思考有提升就可以;需要实际应用的调调数据或者换换模型,总会守得云开见月明,轻舟已过万重山。
超分也和其他深度学习任务相同,一般分为以下几步实现算法模型:
内容如下:
一些论文源码只给出了模型结构,训练和测试是基于上面这三个库的。所以,如果想在这些模型上用自己的数据集做对比实验,就必须掌握这三个框架的使用,以便跑出结果。如果还是在benchmark上做,只需要指标而不需要超分可视化结果(有的代码没给模型和可视化结果),又不以这些模型作为baseline,则无需会。总之,以哪个模型作为baseline,则学习哪个模型源码的框架,目前basicsr是主流,后两个框架未来应该也不太会用了。
EDSR-Pytorch是单独架构,BasicSR的很多脚本来自于KAIR,BasicSR属于完全体。有BasicSR自然不会再用KAIR了。
分类方法:以论文中实验部分的小标题为准,做了Lightweight就会收录到高效/轻量化超分中。
序号 | 题目 | 模型 | 出处和年份 | 关键词 | 精读 | 复现 |
---|---|---|---|---|---|---|
1 | Enhanced Deep Residual Networks for Single Image Super-Resolution | EDSR/MDSR | CVPRW 2017 | CNN | 点我跳转到精读文章 | 点我跳转到复现文章 |
1 | Deep Back-Projection Networks For Super-Resolution | DBPN | CVPR 2018 | CNN、反投影 | 点我跳转到精读文章 | |
1 | Second-order Attention Network for Single Image Super-Resolution | SAN | CVPR 2019 | CNN、Attention | 点我跳转到精读文章 | 点我跳转到复现文章 |
1 | Single Image Super-Resolution via a Holistic Attention Network | HAN | ECCV 2020 | CNN、Attention | 点我跳转到精读文章 | |
3 | ClassSR: A General Framework to Accelerate Super-Resolution Networks by Data Characterist | ClassSR | CVPR 2021 | 通用加速框架、图像分类引入SR任务 | 点我跳转到精读文章 | |
3 | Reflash Dropout in Image Super-Resolution | RDSR | CVPR 2022 | dropout提升泛化能力 | 点我跳转到精读文章 | |
1 | Cross Aggregation Transformer for Image Restoration | CAT | NeurIPS 2022 | Transformer、窗口自注意力改进 | 点我跳转到精读文章 | 点我跳转到复现文章 |
1 | Activating More Pixels in Image Super-Resolution Transformer | HAT | CVPR 2023 | Transformer、混合窗口自注意力 | 点我跳转到精读文章 | 点我跳转到复现文章 |
2 | Dual Aggregation Transformer for Image Super-Resolution | DAT | ICCV 2023 | Transformer、改进自注意力 | 点我跳转到精读文章 | 点我跳转到复现文章 |
3 | SRFormer: Permuted Self-Attention for Single Image Super-Resolution | SRFormer | ICCV 2023 | Transformer、窗口自注意力改进 | 点我跳转到精读文章 | 点我跳转到复现文章 |
4 | Attention Retractable Frequency Fusion Transformer for Image Super Resolution | ART | CVPRW 2023 | Transformer、改进自注意力、频域 | 点我跳转到精读文章 | |
4 | Accurate Image Restoration with Attention Retractable Transformer | ART | ICLR 2023 | Transformer、改进自注意力、Swin | 点我跳转到精读文章 | |
4 | DRCT: Saving Image Super-Resolution away from Information Bottleneck | DRCT | CVPRW 2024 | Transformer、密集残差链接、Swin | 点我跳转到精读文章 | 点我跳转到复现文章 |
4 | Recursive Generalization Transformer for Image Super-Resolution | RGT | ICLR 2024 | Transformer、改进自注意力 | 点我跳转到精读文章 | |
4 | MTKD: Multi-Teacher Knowledge Distillation for Image Super-Resolution | MTKD | ECCV 2024 | Transformer、蒸馏 | 点我跳转到精读文章 | |
4 | Multi-scale Attention Network for Single Image Super-Resolution | MAN-base | CVPRW 2024 | 全卷积网络,大核卷积 | 点我跳转到精读文章 | 点我跳转到复现文章 |
4 | Image Processing GNN: Breaking Rigidity in Super-Resolution | IPG | CVPR 2024 Award & Oral | 图卷积、Transformer | 点我跳转到精读文章 | |
5 | Progressive Focused Transformer for Single Image Super-Resolution | PFT | CVPR 2025 | Transformer、Attention(当前层利用前一层的Attention Map)、 | 点我跳转到精读文章 | 点我跳转到复现文章 |
序号 | 题目 | 模型 | 出处和年份 | 关键词 | 精读 | 复现 |
---|---|---|---|---|---|---|
1 | Learning Continuous Image Representation with Local Implicit Image Function | LIIF | CVPR 2021 Oral | 图像的连续表示、自监督 | 点我跳转到精读文章 | |
2 | Local Implicit Wavelet Transformer for Arbitrary-Scale Super-Resolution | LIWT | BMVC 2024 Oral | 小波变换 | 点我跳转到精读文章 | |
2 | Chain-of-Zoom: Extreme Super-Resolution via Scale Autoregression and Preference Alignment | CoZ | arXiv 2025 | 与模型无关、GRPO、VLM、无损放大256倍 | 点我跳转到精读文章 |
方法汇总:
轻量化超分常见手段:
文章列表:
序号 | 题目 | 模型 | 出处和年份 | 关键词 | 精读 | 复现 |
---|---|---|---|---|---|---|
1 | Learning a Single Convolutional Super-Resolution Network for Multiple Degradations | SRMD | CVPR 2018 | CNN、引入噪声映射 | 点我跳转到精读文章 | |
1 | Fast, Accurate, and Lightweight Super-Resolution with Cascading Residual Network | CARN | ECCV 2018 | CNN、残差块 | 点我跳转到精读文章 | |
1 | Lightweight Image Super-Resolution with Information Multi-distillation Network | IMDN | ACM MM 2019 | CNN、蒸馏 | 点我跳转到精读文章 | |
1 | Fakd: Feature-Affinity Based Knowledge Distillation for Efficient Image Super-Resolution | FAKD | ICIP 2020 | CNN、蒸馏 | 点我跳转到精读文章 | |
1 | Multi-Attention Based Ultra Lightweight Image Super-Resolution | MAFFSRN | ECCVW 2020 | CNN、Attention | 点我跳转到精读文章 | |
1 | Learning with Privileged Information for Efficient Image Super-Resolution | PISR | ECCV 2020 | CNN、蒸馏 | 点我跳转到精读文章 | |
1 | LatticeNet: Towards Lightweight Image Super-resolution with Lattice Block | LatticeNet | ECCV 2020 | CNN、改进残差块 | 点我跳转到精读文章 | |
1 | Residual Feature Aggregation Network for Image Super-Resolution | RFANet | CVPR 2020 | 残差特征融合、Attention、ESA模块出处 | 点我跳转到精读文章 | 只有ESA模块代码 |
1 | Residual Feature Distillation Network for Lightweight Image Super-Resolution | RFDN | ECCVW 2020 | CNN、蒸馏 | 点我跳转到精读文章 | 点我跳转到复现文章 |
2 | Efficient Image Super-Resolution Using Pixel Attention | PAN | ECCV 2020 | CNN、Attention | 点我跳转到精读文章 | 点我跳转到复现文章 |
2 | LAPAR: Linearly-Assembled Pixel-Adaptive Regression Network for Single Image Super-Resolution and Beyond | LAPAR | NeurlPS 2021 | CNN | 点我跳转到精读文章 | |
2 | Exploring Sparsity in Image Super-Resolution for Efficient Inference | SMSR | CVPR 2021 | CNN、稀疏性 | 点我跳转到精读文章 | |
2 | Edge-oriented Convolution Block for Real-time Super Resolution on Mobile Devices | ECBSR | ACM MM 2021 | CNN、重参数化 | 点我跳转到精读文章 | |
2 | Lightweight Bimodal Network for Single-Image Super-Resolution via Symmetric CNN and Recursive Transformer | LBNet | IJCAI 2022 | CNN + Transformer | 点我跳转到精读文章 | |
4 | Blueprint Separable Residual Network for Efficient Image Super-Resolution | BSRN | CVPRW 2022 | CNN、BSConv、Attention | 点我跳转到精读文章 | 点我跳转到精读文章 |
5 | Edge-enhanced Feature Distillation Network for Efficient Super-Resolution | EFDN | CVPRW 2022 | CNN、蒸馏、重参数化 | 点我跳转到精读文章 | |
5 | Residual Local Feature Network for Efficient Super-Resolution | RLFN | CVPRW 2022 | CNN、残差块、Attention | 点我跳转到精读文章 | |
5 | A Hybrid Network of CNN and Transformer for Lightweight Image Super-Resolution | HNCT | CVPRW 2022 | CNN + Transformer | 点我跳转到精读文章 | |
6 | Fast and Memory-Efficient Network Towards Efficient Image Super-Resolution | FMEN | CVPRW 2022 | CNN、Attention、重参数化 | 点我跳转到精读文章 | 点我跳转到复现文章 |
7 | Transformer for Single Image Super-Resolution | ESRT | CVPRW 2022 | CNN块+Transformer块 | 点我跳转到精读文章 | 点我跳转到复现文章 |
8 | Efficient Image Super-Resolution using Vast-Receptive-Field Attention | VapSR | ECCVW 2022 | CNN、DWConv、Attention | 点我跳转到精读文章 | 点我跳转到复现文章 |
9 | Efficient Long-Range Attention Network for Image Super-resolution | ELAN | ECCV 2022 | Transformer、改进自注意力 | 点我跳转到精读文章 | |
9 | Feature Distillation Interaction Weighting Network for Lightweight Image Super-Resolution | FDIWN | AAAI 2022 | CNN、蒸馏 | 点我跳转到精读文章 | |
9 | ShuffleMixer: An Efficient ConvNet for Image Super-Resolution | ShuffleMixer | NeurIPS 2022 | CNN、卷积替代自注意力 | 点我跳转到精读文章 | 点我跳转到复现文章 |
10 | Multi-level Dispersion Residual Network for Efficient Image Super-Resolution | MDRN | CVPRW 2023 | CNN、Attention | 点我跳转到精读文章 | |
10 | Reparameterized Residual Feature Network For Lightweight Image Super-Resolution | RepRFN | CVPRW 2023 | CNN、重参数化、傅里叶损失 | 点我跳转到精读文章 | |
11 | DIPNet: Efficiency Distillation and Iterative Pruning for Image Super-Resolution | DIPNet | CVPRW 2023 | 蒸馏、重参数化 | 点我跳转到精读文章 | |
11 | Large Kernel Distillation Network for Efficient Single Image Super-Resolution | LKDN/LKDN-S | CVPRW 2023 | 大核卷积、蒸馏、新优化器Adan | 点我跳转到精读文章 | 点我跳转到复现文章 |
12 | Omni Aggregation Networks for Lightweight Image Super-Resolution | Omni-SR | CVPR 2023 | 改进自注意力 | 点我跳转到精读文章 | 点我跳转到复现文章 |
13 | SRFormer: Permuted Self-Attention for Single Image Super-Resolution | SRFormer-light | ICCV 2023 | Transformer、窗口自注意力 | 点我跳转到精读文章 | 点我跳转到复现文章 |
14 | Spatially-Adaptive Feature Modulation for Efficient Image Super-Resolution | SAFMN | ICCV 2023 | 卷积替代Trans块 | 点我跳转到精读文章 | 点我跳转到复现文章 |
15 | Dual Aggregation Transformer for Image Super-Resolution | DAT-light | ICCV 2023 | Transformer、改进的自注意力 | 点我跳转到精读文章 | 点我跳转到复现文章 |
15 | Lightweight Image Super-Resolution with Superpixel Token Interaction | SPIN | ICCV 2023 | 超像素、多头Attention | 点我跳转到精读文章 | 点我跳转到复现文章 |
15 | DLGSANet: Lightweight Dynamic Local and Global Self-Attention Networks for Image Super-Resolution | DLGSANet | ICCV 2023 | Transformer、改进的自注意力 | 点我跳转到精读文章 | |
15 | Feature Modulation Transformer: Cross-Refinement of Global Representation via High-Frequency Prior for Image Super-Resolution | CRAFT | ICCV 2023 | CNN+Transformer | 点我跳转到精读文章 | |
15 | DDistill-SR: Reparameterized Dynamic Distillation Network for Lightweight Image Super-Resolution | DDistill-SR | TMM 2023 | CNN、重参数化、蒸馏 | 点我跳转到精读文章 | |
15 | Cross-receptive Focused Inference Network for Lightweight Image Super-Resolution | CFIN | TMM 2023 | CNN块+Transformer块 | 点我跳转到精读文章 | |
15 | Efficient Mixed Transformer for Single Image Super-Resolution | EMT | arXiv 2023 | Transformer、改进的自注意力 | 点我跳转到精读文章 | |
15 | From Coarse to Fine: Hierarchical Pixel Integration for Lightweight Image Super-Resolution | HPINet | AAAI 2023 | 改进的自注意力 | 点我跳转到精读文章 | |
15 | Efficient Information Modulation Network for Image Super-Resolution | EIMN | ECAI 2023 | 用CNN替代Transformer模拟自注意力 | 点我跳转到精读文章 | |
15 | PlainUSR: Chasing Faster ConvNet for Efficient Super-Resolution | PlainUSR | ACCV 2024 | CNN、UNet、MobileNetv3、重参数化、Attention | 点我跳转到精读文章 | |
15 | A Lightweight CNN and Spatial-Channel Transformer Hybrid Network for Image Super-Resolution | CSCTHN | ICME 2024 | CNN + Transformer | 点我跳转到精读文章 | |
15 | A scalable attention network for lightweight image super-resolution | SCAN | Journal of King Saud University - Computer and Information Sciences 2024 | CNN、Attention | 点我跳转到精读文章 | |
15 | Fully 1 × 1 Convolutional Network for Lightweight Image Super-Resolution | SCNet | MIR 2024 | CNN、全1×1卷积 | 点我跳转到精读文章 | 点我跳转到复现文章 |
16 | FreqFormer: Frequency-aware Transformer for Lightweight Image Super-resolution | FreqFormer | IJCAI 2024 | Transformer、改进自注意力块、频域 | 点我跳转到精读文章 | 点我跳转到复现文章 |
17 | SMFANet: A Lightweight Self-Modulation Feature Aggregation Network for Efficient Image Super-Resolution | SMFANet | ECCV 2024 | Transformer、Attention、特征聚合 | 点我跳转到精读文章 | 点我跳转到复现文章 |
18 | HiT-SR: Hierarchical Transformer for Efficient Image Super-Resolution | HiT-SR | ECCV 2024 | Transformer、改进窗口自注意力 | 点我跳转到精读文章 | 点我跳转到复现文章 |
19 | Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach | CFSR | TIP 2024 | Transformer、大核卷积替代自注意力 | 点我跳转到精读文章 | 点我跳转到复现文章 |
19 | Efficient Image Super-Resolution with Feature Interaction Weighted Hybrid Network | FIWHN | TMM 2024 | CNN+Transformer | 点我跳转到精读文章 | |
20 | Swift Parameter-free Attention Network for Efficient Super-Resolution | SPAN | CVPRW 2024 | Attention、对称激活函数 | 点我跳转到精读文章 | 点我跳转到复现文章 |
20 | Large Kernel Frequency-enhanced Network for Efficient Single Image Super-Resolution | LKFN/LKFN-S | CVPRW 2024 | 频域、FFT、baseline为LKDN | 点我跳转到精读文章 | 点我跳转到复现文章 |
21 | Multi-scale Attention Network for Single Image Super-Resolution | MAN-tiny/light | CVPRW 2024 | 全卷积网络,大核卷积 | 点我跳转到精读文章 | 点我跳转到复现文章 |
21 | Partial Large Kernel CNNs for Efficient Super-Resolution | PLKSR | arXiv 2024 | 卷积网络,大核卷积,Attention | 点我跳转到精读文章 | |
21 | Unifying Dimensions: A Linear Adaptive Approach to Lightweight Image Super-Resolution | LAMNet | arXiv 2024 | Transformer、卷积替代自注意力、Attention | 点我跳转到精读文章 | |
21 | See More Details: Efficient Image Super-Resolution by Experts Mining | SeemoRe | ICML 2024 | 卷积网络、特征融合 | 点我跳转到精读文章 | |
21 | Transcending the Limit of Local Window: Advanced Super-Resolution Transformer with Adaptive Token Dictionary | ATD-light | CVPR 2024 | Transformer、改进的自注意力、交叉注意力 | 点我跳转到精读文章 | |
21 | GRFormer: Grouped Residual Self-Attention for Lightweight Single Image Super-Resolution | GRFormer | ACM MM 2024 | CNN、卷积替代自注意力、频域 | 点我跳转到精读文章 | |
21 | SRConvNet: A Transformer-Style ConvNet for Lightweight Image Super-Resolution | SRConvNet | IJCV 2024 | Transformer、改进的自注意力、交叉注意力 | 点我跳转到精读文章 | |
21 | Image Super-Resolution via Efficient Transformer Embedding Frequency Decomposition With Restart | FDRNet | TIP 2024 | Transformer、Octave卷积 | 点我跳转到精读文章 | |
21 | Asymmetric Large Kernel Distillation Network for efficient single image super-resolution | ALKDNet | Frontiers in Neuroscience 2024 | 非对称大核卷积 | 点我跳转到精读文章 | |
21 | CubeFormer: A Simple yet Effective Baseline for Lightweight Image Super-Resolution | CubeFormer | arXiv 2024 | Transformer、改进自注意力、baseline是Omni-SR | 点我跳转到精读文章 | |
21 | OSFFNet: Omni-Stage Feature Fusion Network for Lightweight Image Super-Resolution | OSFFNet | AAAI 2024 | CNN、特征融合、蒸馏 | 点我跳转到精读文章 | |
22 | Dual-domain Modulation Network for Lightweight Image Super-Resolution | DMNet | TMM 2025 在审 | 频域(傅里叶域+小波域) | 点我跳转到精读文章 | |
22 | Efficient Attention-Sharing Information Distillation Transformer for Lightweight Single Image Super-Resolution | ASID | AAAI 2025 | Attention、蒸馏 | 点我跳转到精读文章 | |
22 | CATANet: Efficient Content-Aware Token Aggregation for Lightweight Image Super-Resolution | CATANet | CVPR 2025 | Transformer、Attention、特征聚合 | 点我跳转到精读文章 | 点我跳转到复现文章 |
22 | Emulating Self-attention with Convolution for Efficient Image Super-Resolution | ESC | ICCV 2025 | 大核卷积、卷积替代自注意力 | 点我跳转到精读文章 | 点我跳转到复现文章 |
23 | Progressive Focused Transformer for Single Image Super-Resolution | PFT-light | CVPR 2025 | Transformer、Attention(当前层利用前一层的Attention Map) | 点我跳转到精读文章 | 点我跳转到复现文章 |
23 | Distillation-Supervised Convolutional Low-Rank Adaptation for Efficient Image Super-Resolution | DSCF/DSCLoRA | CVPRW 2025 | CNN、蒸馏、LoRA | 点我跳转到精读文章 | |
23 | DiMoSR: Feature Modulation via Multi-Branch Dilated Convolutions for Efficient Image Super-Resolution | DiMoSR | arXiv 2025 | CNN模拟自注意力、膨胀卷积 | 点我跳转到精读文章 | |
23 | Structural Similarity-Inspired Unfolding for Lightweight Image Super-Resolution | SSIU | TIP 2025 | CNN、展开范式 | 点我跳转到精读文章 | |
23 | MAT: Multi-Range Attention Transformer for Efficient Image Super-Resolution | MAT | TCSVT 2025 | Transformer,改进自注意力 | 点我跳转到精读文章 | |
23 | Semantic-Guided Global-Local Collaborative Networks for Lightweight Image Super-Resolution | SGGLC-Net | arXiv 2025(看文章应该投的是TIM,有仪器相关的描述) | CNN+Transformer,语义引导,Omni-SR为baseline | 点我跳转到精读文章 | |
23 | Efficient Star Distillation Attention Network for Lightweight Image Super-Resolution | SDAN | arXiv 2025 | CNN,大核卷积,星型蒸馏 | 点我跳转到精读文章 | |
23 | SAAT: Synergistic Alternating Aggregation Transformer for Image Super-Resolution | SAAT | arXiv 2025 | Transformer,自注意力部分用双分支 | 点我跳转到精读文章 | |
23 | Transformer-Style Convolutional Network for Efficient Natural and Industrial Image Superresolution | TSCN | TII 2025 | Transformer-Style,CNN | 点我跳转到精读文章 |
序号 | 题目 | 模型 | 出处和年份 | 关键词 | 精读 | 复现 |
---|---|---|---|---|---|---|
1 | SRFormer: Permuted Self-Attention for Single Image Super-Resolution | SRFormer-light | ICCV 2023 | Transformer、窗口自注意力 | 点我跳转到精读文章 | 点我跳转到复现文章 |
1 | Deep Constrained Least Squares for Blind Image Super-Resolution | DCLS | CVPR 2022 | CNN、模糊核、Attention | 点我跳转到精读文章 |
说明:通用图像恢复模型(All-in-One),实验中涉及超分。
序号 | 题目 | 模型 | 出处和年份 | 关键词 | 精读 | 复现 |
---|---|---|---|---|---|---|
1 | A Comparative Study of Image Restoration Networks for General Backbone Network Design | X-Restormer | ECCV 2024 | 点我跳转到精读文章 |
看懂论文,学习算法知识,拓宽思路,提升科研写作能力。
【图像超分】主流算法:
视频超分:
其他领域:
跑通代码,学习超分算法实现流程,复现论文中性能,提升代码能力。
注:上述链接是本人在学习超分的过程中觉得有用的资料,分享给大家,侵删。
本小节汇总遇到的问题,不定期更新。
答:可以,但不符合超分的做法。因为超分的含义就是提升分辨率,没办法训练scale=1的模型,scale=1就变成其他问题了(想变清晰是去模糊image deblurring)。但可以放大完再缩小。也有输入输出图像大小一致的模型,但不是scale=1训练出来的。总之,有很多手段可以不放大,只变清晰。但不是scale=1。跟图像大小没关系,超分主要是学习不同分辨率图像之间的映射关系,实际上不是图像大小缩放而来的关系,也可以按照超分的流程训练找到LR和HR的关系,LR图像输入模型,模型推理出对应的HR。缩放倍数只是一种得到LR的手段,一种提前设定好的关系。
【深度思考】为什么评价指标PSNR、SSIM和论文中的不一样?一文搞清超分辨率主流benchmarks测试集Set5等的PSNR、SSIM的计算方式以及python与matlab的imresize差别
what is the difference between opencv’s and matlab’s bicubic algorithm?
https://github.com/spnova12/SR_bicubic_test-matlab-vs-cv2
超分交流Q.Q.群:750414192
v.x.:shixiaodayyds(可加v.x.交流群,注明来意,已订阅的备注CSDN昵称)
关注下方公众号【十小大的底层视觉工坊】,公众号将更新精炼版论文,帮助你用碎片化时间快速掌握论文核心内容。