预训练模型是其他人为解决类似问题而创建的模型。我们可以使用针对其他问题训练的模型作为起点,而不是从头开始构建模型来解决类似问题。预训练模型在您的应用程序中可能不是 100% 准确。
例如,如果你想建造一辆自学习汽车。您可以花费数年时间从头开始构建一个像样的图像识别算法,也可以采用 Google 的初始模型(预先训练的模型),该模型基于ImageNet数据构建来识别这些图片中的图像。
您可以使用Netron查看每个模型的网络架构的可视化。
型号名称 | 描述 | 框架 | 执照 |
---|---|---|---|
物体检测 | 定位和识别单个图像中的多个对象。 | Tensorflow |
阿帕奇许可证 |
Mask R-CNN | 该模型为图像中对象的每个实例生成边界框和分割掩模。它基于特征金字塔网络 (FPN) 和 ResNet101 主干网。 | Tensorflow |
麻省理工学院许可证 (MIT) |
更快的RCNN | 这是 Faster RCNN 的实验性 Tensorflow 实现,Faster RCNN 是一个带有区域提议网络的用于对象检测的卷积网络。 | Tensorflow |
麻省理工学院许可证 |
YOLO TensorFlow | 这是 YOLO:实时对象检测的张量流实现。 | Tensorflow |
风俗 |
YOLO TensorFlow ++ | “YOLO:实时对象检测”的 TensorFlow 实现,经过训练并实际支持在移动设备上实时运行。 | Tensorflow |
GNU 通用公共许可证 |
移动网络 | MobileNet 在延迟、大小和准确性之间进行权衡,同时与文献中的流行模型进行比较。 | Tensorflow |
麻省理工学院许可证 (MIT) |
深度实验室 | 用于语义图像分割的深度标记。 | Tensorflow |
阿帕奇许可证 |
彩色网 | 神经网络对灰度图像进行着色。 | Tensorflow |
未找到 |
SRGAN | 使用生成对抗网络的逼真单图像超分辨率。 | Tensorflow |
未找到 |
深度OSM | 使用 OpenStreetMap 功能和卫星图像训练 TensorFlow 神经网络。 | Tensorflow |
麻省理工学院许可证 (MIT) |
域名转移网络 | 无监督跨域图像生成的实现。 | Tensorflow |
麻省理工学院许可证 |
展示、出席和讲述 | 基于注意力的图像标题生成器。 | Tensorflow |
麻省理工学院许可证 |
android-yolo | 使用由 TensorFlow 提供支持的 YOLO 网络在 Android 上进行实时对象检测。 | Tensorflow |
阿帕奇许可证 |
DCSCN超分辨率 | 这是“使用 Skip Connection 和 Network in Network 的 Deep CNN 实现快速准确的图像超分辨率”的张量流实现,这是一种基于深度学习的单图像超分辨率 (SISR) 模型。 | Tensorflow |
未找到 |
甘肃CLS | 这是合成图像的实验性张量流实现。 | Tensorflow |
未找到 |
优网 | 用于脑肿瘤分割。 | Tensorflow |
未找到 |
改进的 CycleGAN | 未配对的图像到图像翻译。 | Tensorflow |
麻省理工学院许可证 |
Im2txt | 用于图像字幕的图像到文本神经网络。 | Tensorflow |
阿帕奇许可证 |
苗条的 | TF-Slim 中的图像分类模型。 | Tensorflow |
阿帕奇许可证 |
德福考试 | 用于图像匹配和检索的深层局部特征。 | Tensorflow |
阿帕奇许可证 |
压缩 | 使用预先训练的残差 GRU 网络压缩和解压缩图像。 | Tensorflow |
阿帕奇许可证 |
注意力OCR | 现实世界图像文本提取的模型。 | Tensorflow |
阿帕奇许可证 |
型号名称 | 描述 | 框架 | 执照 |
---|---|---|---|
Mask R-CNN | 该模型为图像中对象的每个实例生成边界框和分割掩模。它基于特征金字塔网络 (FPN) 和 ResNet101 主干网。 | Keras |
麻省理工学院许可证 (MIT) |
VGG16 | 用于大规模图像识别的超深卷积网络。 | Keras |
麻省理工学院许可证 (MIT) |
VGG19 | 用于大规模图像识别的超深卷积网络。 | Keras |
麻省理工学院许可证 (MIT) |
残差网络 | 用于图像识别的深度残差学习。 | Keras |
麻省理工学院许可证 (MIT) |
残网50 | 用于图像识别的深度残差学习。 | Keras |
麻省理工学院许可证 (MIT) |
纳斯内特 | NASNet 指的是神经架构搜索网络,是通过直接在感兴趣的数据集上学习模型架构来自动设计的一系列模型。 | Keras |
麻省理工学院许可证 (MIT) |
移动网络 | Keras 的 MobileNet v1 模型。 | Keras |
麻省理工学院许可证 (MIT) |
移动网V2 | 适用于 Keras 的 MobileNet v2 模型。 | Keras |
麻省理工学院许可证 (MIT) |
移动网V3 | 适用于 Keras 的 MobileNet v3 模型。 | Keras |
麻省理工学院许可证 (MIT) |
高效网 | 重新思考卷积神经网络的模型缩放。 | Keras |
麻省理工学院许可证 (MIT) |
图像类比 | 使用神经匹配和混合生成图像类比。 | Keras |
麻省理工学院许可证 (MIT) |
流行的图像分割模型 | Segnet、FCN、UNet等模型在Keras中的实现。 | Keras |
麻省理工学院许可证 |
超声神经分割 | 本教程展示如何使用 Keras 库构建用于超声图像神经分割的深度神经网络。 | Keras |
麻省理工学院许可证 |
DeepMask 对象分割 | 这是 DeepMask 的基于 Keras 的 Python 实现,DeepMask 是一个用于学习对象分割掩模的复杂深度神经网络。 | Keras |
未找到 |
单语和多语图像字幕 | 这是带有神经序列模型的多语言图像描述附带的源代码。 | Keras |
BSD-3 条款许可证 |
像素到像素 | Keras 使用条件对抗网络实现图像到图像转换,作者:Phillip Isola、Jun-Yan Zhu、Tinghui Zhou、Alexei A. | Keras |
未找到 |
彩色图像着色 | 黑白到彩色。 | Keras |
未找到 |
循环GAN | 使用循环一致对抗网络实现不成对的图像到图像转换。 | Keras |
麻省理工学院许可证 |
双GAN | DualGAN的实现:图像到图像翻译的无监督双重学习。 | Keras |
麻省理工学院许可证 |
超分辨率 GAN | 使用生成对抗网络实现照片级真实感单图像超分辨率。 | Keras |
麻省理工学院许可证 |
型号名称 | 描述 | 框架 | 执照 |
---|---|---|---|
探测器2 | Detectron2 是 Facebook AI Research 的下一代软件系统,可实现最先进的对象检测算法 | PyTorch |
阿帕奇许可证 2.0 |
快速照片风格 | 真实感图像风格化的封闭式解决方案。 | PyTorch |
知识共享署名-非商业性-相同方式共享 4.0 国际公共许可 |
pytorch-CycleGAN-和-pix2pix | 真实感图像风格化的封闭式解决方案。 | PyTorch |
BSD 许可证 |
maskrcnn-基准 | PyTorch 中实例分割和对象检测算法的快速、模块化参考实现。 | PyTorch |
麻省理工学院许可证 |
深度图像先验 | 使用神经网络恢复图像但不进行学习。 | PyTorch |
阿帕奇许可证 2.0 |
星GAN | StarGAN:用于多域图像到图像转换的统一生成对抗网络。 | PyTorch |
麻省理工学院许可证 |
更快的rcnn.pytorch | 该项目是更快的 R-CNN 实现,旨在加速更快的 R-CNN 目标检测模型的训练。 | PyTorch |
麻省理工学院许可证 |
像素2像素高清 | 使用条件 GAN 合成和操作 2048x1024 图像。 | PyTorch |
BSD 许可证 |
增强器 | 用于机器学习的 Python 图像增强库。 | PyTorch |
麻省理工学院许可证 |
蛋白表达 | 快速图像增强库。 | PyTorch |
麻省理工学院许可证 |
深度视频分析 | 深度视频分析是一个用于从视频和图像中索引和提取信息的平台 | PyTorch |
风俗 |
语义分割-pytorch | Pytorch 在 MIT ADE20K 数据集上实现语义分割/场景解析。 | PyTorch |
BSD 3 条款许可证 |
用于基于图像的序列识别的端到端可训练神经网络 | 该软件实现了卷积循环神经网络 (CRNN),它是 CNN、RNN 和 CTC 损失的组合,适用于基于图像的序列识别任务,例如场景文本识别和 OCR。 | PyTorch |
麻省理工学院许可证 (MIT) |
单元 | 用于无监督图像到图像转换的耦合 VAE-GAN 算法的 PyTorch 实现。 | PyTorch |
知识共享署名-非商业性-相同方式共享 4.0 国际公共许可证 |
神经序列标记模型 | 序列标记模型在许多 NLP 任务中非常流行,例如命名实体识别 (NER)、词性 (POS) 标记和分词。 | PyTorch |
阿帕奇许可证 |
更快的循环神经网络 | 这是 Faster RCNN 的 PyTorch 实现。该项目主要基于py-faster-rcnn和TFFRCNN。有关 R-CNN 的详细信息,请参阅 Shaoqing Ren、Kaiming He、Ross Girshick、Jian Sun 的论文 Faster R-CNN: Towards Real-Time ObjectDetection with Region Proposal Networks。 | PyTorch |
麻省理工学院许可证 |
pytorch 语义分割 | 用于语义分割的 PyTorch。 | PyTorch |
麻省理工学院许可证 |
EDSR-PyTorch | 论文“Enhanced Deep Residual Networks for Single Image Super-Resolution”的 PyTorch 版本。 | PyTorch |
麻省理工学院许可证 |
图像分类移动 | 在 ImageNet-1K 上预训练的分类模型集合。 | PyTorch |
麻省理工学院许可证 |
推子网络公司 | Fader Networks:通过滑动属性操作图像 - NIPS 2017。 | PyTorch |
知识共享署名-非商业4.0国际公共许可证 |
Neurotalk2-pytorch | pytorch 中的图像字幕模型(with_finetune 分支中的可微调 cnn)。 | PyTorch |
麻省理工学院许可证 |
兰德线神经网络 | 实施:“探索用于图像识别的随机连线神经网络”。 | PyTorch |
未找到 |
堆栈GAN-v2 | 用于在 StackGAN++ 论文中重现 StackGAN_v2 结果的 Pytorch 实现。 | PyTorch |
麻省理工学院许可证 |
用于物体检测的 Detectron 模型 | 此代码允许使用 Facebook AI Research 的一些 Detectron 模型与 PyTorch 进行对象检测。 | PyTorch |
阿帕奇许可证 |
DEXTR-PyTorch | 本文探索使用对象中的极值点(最左、最右、顶部、底部像素)作为输入来获得图像和视频的精确对象分割。 | PyTorch |
GNU 通用公共许可证 |
点网.pytorch | “PointNet:用于 3D 分类和分割的点集深度学习”的 Pytorch 实现。 | PyTorch |
麻省理工学院许可证 |
自我批评.pytorch | 该存储库包括图像字幕的非官方实施自我批评序列训练以及图像字幕和视觉问答的自下而上和自上而下的注意。 | PyTorch |
麻省理工学院许可证 |
vnet.pytorch | V-Net 的 Pytorch 实现:用于体积医学图像分割的全卷积神经网络。 | PyTorch |
BSD 3 条款许可证 |
皮威斯 | 使用 pytorch 对 VOC2012 数据集进行像素级分割。 | PyTorch |
BSD 3 条款许可证 |
pspnet-pytorch | PSPNet 分割网络的 PyTorch 实现。 | PyTorch |
未找到 |
pytorch-SRResNet | 使用生成对抗网络实现照片级真实单图像超分辨率的 Pytorch 实现。 | PyTorch |
麻省理工学院许可证 (MIT) |
PNASNet.pytorch | PNASNet-5 在 ImageNet 上的 PyTorch 实现。 | PyTorch |
阿帕奇许可证 |
img_classification_pk_pytorch | 快速将您的图像分类模型与最先进的模型进行比较。 | PyTorch |
未找到 |
深度神经网络很容易被愚弄 | 对无法识别的图像进行高置信度预测。 | PyTorch |
麻省理工学院许可证 |
pix2pix-pytorch | “使用条件对抗网络的图像到图像转换”的 PyTorch 实现。 | PyTorch |
未找到 |
NVIDIA/语义分割 | 通过视频传播和标签松弛改进语义分割的 PyTorch 实现,CVPR2019。 | PyTorch |
CC BY-NC-SA 4.0 许可证 |
神经图像评估 | 神经图像评估的 PyTorch 实现。 | PyTorch |
未找到 |
炬X射线视觉 | 用于胸部 X 射线 (CXR) 病理学预测的预训练模型。医疗、保健、放射学 | PyTorch |
阿帕奇许可证 |
pytorch-图像模型 | PyTorch 图像模型、脚本、预训练权重 - (SE)ResNet/ResNeXT、DPN、EfficientNet、MixNet、MobileNet-V3/V2、MNASNet、Single-Path NAS、FBNet 等 | PyTorch |
阿帕奇许可证 2.0 |
型号名称 | 描述 | 框架 | 执照 |
---|---|---|---|
开放姿势 | OpenPose 是第一个在单张图像上联合检测人体、手部和面部关键点(总共 130 个关键点)的实时多人系统。 | Caffe |
风俗 |
用于语义分割的全卷积网络 | 用于语义分割的全卷积模型。 | Caffe |
未找到 |
彩色图像着色 | 彩色图像着色。 | Caffe |
BSD-2 条款许可证 |
R-FCN | R-FCN:通过基于区域的全卷积网络进行对象检测。 | Caffe |
麻省理工学院许可证 |
美国有线电视新闻网 | 受 Google 最近的 Inceptionism 博客文章的启发,cnn-vis 是一款开源工具,可让您使用卷积神经网络生成图像。 | Caffe |
麻省理工学院许可证 (MIT) |
反卷积网络 | 学习用于语义分割的反卷积网络。 | Caffe |
风俗 |
型号名称 | 描述 | 框架 | 执照 |
---|---|---|---|
更快的 RCNN | 区域提议网络将对象检测作为回归问题来解决。 | MXNet |
Apache 许可证,版本 2.0 |
固态硬盘 | SSD 是使用单个网络进行对象检测的统一框架。 | MXNet |
麻省理工学院许可证 |
更快的 RCNN+Focal Loss | 该代码是密集物体检测的焦点损失的非官方版本。 | MXNet |
未找到 |
CNN-LSTM-CTC | 我实现了三种不同的文本识别模型,它们都由CTC损失层组成,以实现文本图像的无分割。 | MXNet |
未找到 |
Faster_RCNN_for_DOTA | 这是论文DOTA:航空图像中对象检测的大型数据集的官方存储库。 | MXNet |
阿帕奇许可证 |
视网膜网 | 密集物体检测的焦点损失。 | MXNet |
未找到 |
移动网络V2 | 这是 MobileNetV2 架构的 MXNet 实现,如论文“反转残差和线性瓶颈:用于分类、检测和分割的移动网络”中所述。 | MXNet |
阿帕奇许可证 |
神经元选择性转移 | 该代码是论文Like What You Like: Knowledge Distill via Neuron Selectivity Transfer中 imagenet 分类实验的重新实现。 | MXNet |
阿帕奇许可证 |
移动网络V2 | 这是 MobileNetV2 架构的 Gluon 实现,如论文“反转残差和线性瓶颈:用于分类、检测和分割的移动网络”中所述。 | MXNet |
阿帕奇许可证 |
稀疏结构选择 | 该代码是论文《深度神经网络的数据驱动稀疏结构选择》中 imagenet 分类实验的重新实现。 | MXNet |
阿帕奇许可证 |
快速照片风格 | 真实感图像风格化的封闭式解决方案。 | MXNet |
知识共享署名-非商业性-相同方式共享 4.0 国际公共许可证 |
随时欢迎您的贡献!请看一下contributing.md