公开模型
我的模型
  • 全部
  • $vue{item}
  • 全部
  • $vue{item}
复制使用
复制使用
复制使用

inception_resnet_v2_2016_08_30.tar.gz

论文链接: https://arxiv.org/abs/1602.07261

查看来源: https://github.com/tensorflow/models/tree/master/research/slim

复制使用
复制使用

resnet_v1_101_2016_08_28.tar.gz

论文链接: https://arxiv.org/abs/1512.03385

查看来源: https://github.com/tensorflow/models/tree/master/research/slim

复制使用

resnet_v1_152_2016_08_28.tar.gz

论文链接: https://arxiv.org/abs/1512.03385

查看来源: https://github.com/tensorflow/models/tree/master/research/slim

复制使用
复制使用

resnet_v2_101_2017_04_14.tar.gz

论文链接: https://arxiv.org/abs/1603.05027

查看来源: https://github.com/tensorflow/models/tree/master/research/slim

复制使用

resnet_v2_152_2017_04_14.tar.gz

论文链接: https://arxiv.org/abs/1603.05027

查看来源: https://github.com/tensorflow/models/tree/master/research/slim

复制使用

resnet_v2_200_2017_04_14.tar.gz

论文链接: https://arxiv.org/abs/1603.05027

查看来源: https://github.com/tensorflow/models/tree/master/research/slim

复制使用
复制使用
复制使用
复制使用
复制使用
复制使用
复制使用
复制使用

nasnet-a_mobile_04_10_2017.tar.gz

论文链接: https://arxiv.org/abs/1707.07012

查看来源: https://github.com/tensorflow/models/tree/master/research/slim

复制使用

nasnet-a_large_04_10_2017.tar.gz

论文链接: https://arxiv.org/abs/1707.07012

查看来源: https://github.com/tensorflow/models/tree/master/research/slim

复制使用

pnasnet-5_large_2017_12_13.tar.gz

论文链接: https://arxiv.org/abs/1712.00559

查看来源: https://github.com/tensorflow/models/tree/master/research/slim

复制使用

pnasnet-5_mobile_2017_12_13.tar.gz

论文链接: https://arxiv.org/abs/1712.00559

查看来源: https://github.com/tensorflow/models/tree/master/research/slim

复制使用

BERT-Base, Uncased: 12-layer, 768-hidden, 12-heads, 110M parameters

论文链接: https://arxiv.org/abs/1810.04805

查看来源: https://github.com/google-research/bert

复制使用

BERT-Large, Uncased: 24-layer, 1024-hidden, 16-heads, 340M parameters

论文链接: https://arxiv.org/abs/1810.04805

查看来源: https://github.com/google-research/bert

复制使用

BERT-Base, Cased: 12-layer, 768-hidden, 12-heads , 110M parameters

论文链接: https://arxiv.org/abs/1810.04805

查看来源: https://github.com/google-research/bert

复制使用

BERT-Large, Cased: 24-layer, 1024-hidden, 16-heads, 340M parameters

论文链接: https://arxiv.org/abs/1810.04805

查看来源: https://github.com/google-research/bert

复制使用

BERT-Base, Multilingual Cased (New, recommended): 104 languages, 12-layer, 768-hidden, 12-heads, 110

论文链接: https://arxiv.org/abs/1810.04805

查看来源: https://github.com/google-research/bert

复制使用

BERT-Base, Chinese: Chinese Simplified and Traditional, 12-layer, 768-hidden, 12-heads, 110M paramet

论文链接: https://arxiv.org/abs/1810.04805

查看来源: https://github.com/google-research/bert

复制使用

BERT-Base, Uncased: 12-layer, 768-hidden, 12-heads, 388M parameters

论文链接: https://arxiv.org/abs/1810.04805

查看来源: https://github.com/google-research/bert

复制使用

BERT-Large, Uncased: 24-layer, 1024-hidden, 16-heads, 1.16GB parameters

论文链接: https://arxiv.org/abs/1810.04805

查看来源: https://github.com/google-research/bert

复制使用

$vue{item.model_name}

论文链接: $vue{item.model_paper}

查看来源: $vue{item.model_source}

复制使用
审核中
快去上传适合自己的开源预训练模型吧~
< >
上传预训练模型
限时奖励说明

·上传并审核成功可获得 600FAI GPU资源

·已有重复性内容上传无法获得奖励