• 贪心学院计算机视觉CV训练营


    贪心学院计算机视觉CV训练营

    任务 Notes 其他
    任务1:机器学习、深度学习简介 Note1
    任务2:深度学习的发展历史 Note2
    任务3:现代深度学习的典型例子 Note3
    任务4:深度学习在计算机视觉中的应用 Note4
    任务5:深度学习的总结 Note5
    任务6:开发环境的配置 Note6
    任务7:GPU驱动程序安装 Note7
    任务8:CUDA的安装 Note8
    任务9:cuDNN的安装 Note9
    任务10:问答环节 Note10
    任务11:环境安装 Note11
    任务12:二元分类问题 Note12
    任务13:逻辑函数 Note13
    任务14:指数与对数、逻辑回归 Note14
    任务15:示例 Note15
    任务16:损失函数 Note16
    任务17:损失函数推演 Note17
    任务18:梯度下降法 Note18
    任务19:应用 Note19
    任务20:直播答疑 Note20
    任务21:自动驾驶方向盘预测论文分析 Note21
    任务22:使用PyCharm Keras建立深度网络模型 Note22
    任务23:数据预处理 数据增强 Note23
    任务24:建立BatchGenerator高效读取数据 Note24
    任务25:训练网络 保存训练的中间过程数据 Note25
    任务26:查看网络训练过程
    判断网络是否过拟合 欠拟合
    Note26
    任务27:神经网络分类问题的经典数据(集鸢尾花数据集)介绍,
    神经网络Python库Keras的介绍
    Note27
    任务28:使用Pandas读取鸢尾花数据集,
    使用LabelEncoder对类别标签进行编码
    Note28
    任务29:使用Keras创建一个用于鸢尾花分类识别的神经网络 Note29
    任务30:训练用于鸢尾花分类的神经网络,
    解读训练输出的日志,了解如何评价神经网络的性能
    Note30
    任务31:神经网络数学原理(1):
    神经网络的结点,权值,激活函数
    Note31
    任务32:神经网络数学原理(2):
    神经网络的前馈(Feed Forward)算法
    Note32
    任务33:神经网络数学原理(3):
    神经网络的前馈(Feed Forward)算法续,
    Softmax层的数值问题
    Note33
    任务34:神经网络数学原理(4):
    神经网络BP(误差反向传播)算法
    Note34
    任务35:神经网络数学原理(5):
    神经网络BP(误差反向传递)算法续
    Note35
    任务36:神经网络数学原理(6):
    手动演算神经网络BP算法(误差向后传递)
    Note36
    任务37:神经网络数学原理(7):
    手动演算神经网络BP算法(误差向后传递)续
    Note37
    任务38:Neural.Network.Loss-直播01 Note38
    任务39:Neural.Network.Loss-直播02 Note39
    任务40:Neural.Network.Loss-直播03 Note40
    任务41:梯度消亡 Note41
    任务42:梯度消亡问题分析 Note42
    任务43:梯度消亡解决方案 Note43
    任务44:过拟合 Note44
    任务45:DropOut训练 Note45
    任务46:正则化 Note46
    任务47:最大范数约束 神经元的初始化 Note47
    任务48:作业讲解与答疑-01 Note48
    任务49:作业讲解与答疑-02 Note49
    任务50:为什么需要递归神经网络? Note50
    任务51:递归神经网络介绍 Note51
    任务52:语言模型 Note52
    任务53:RNN的深度 Note53
    任务54:梯度爆炸和梯度消失 Note54
    任务55:Gradient Clipping Note55
    任务56:LSTM的介绍 Note56
    任务57:LSTM的应用 Note57
    任务58:Bi-Directional LTSM Note58
    任务59:Gated Recurrent Unit Note59
    任务60:机器翻译 Note60
    任务61:Multimodal Learning Note61
    任务62:Seq2Seq模型 Note62
    任务63:回顾RNN与LSTM Note63
    任务64:Attention for Image Captioning Note64
    任务65:Attention for Machine Translation Note65
    任务66:Self-Attention Note66
    任务67:Attention总结 Note67
    任务68:neural network optimizer直播-01 Note68
    任务69:neural network optimizer直播-02 Note69
    任务70:neural network optimizer直播-03 Note70
    任务71:项目介绍 Note71
    任务72:看图说话任务一-01 Note72
    任务73:看图说话任务一-02 Note73
    任务74:看图说话任务一-03 Note74
    任务75:任务介绍 Note75
    任务76:如何实现 load_img_as_np_array 这个函数 Note76
    任务77:如何实现“load_vgg16_model”函数 Note77
    任务78:如何实现“extract_features”函数 Note78
    任务79:创建Tokenizer 01 Note79
    任务80:创建Tokenizer02 Note80
    任务81:产生模型需要的输入数据01 Note81
    任务82:产生模型需要的输入数据02 Note82
    任务83:任务的概述 Note83
    任务84:Input Embedding和Dropout层介绍 Note84
    任务85:LSTM Add层的介绍 Note85
    任务86:如何训练模型 Note86
    任务87:如何使用深度神经网络模型做预测
    产生标题 完成generate_caption函数01
    Note87
    任务88:如何使用深度神经网络模型做预测 产生标题 完成generate_caption函数02 Note88
    任务89:如何调用generate_caption函数 Note89
    任务90:如何评价标题生成模型的性能 Note90
    任务91:读取和显示数字图像 Note91
    任务92:数字图像大小缩放 Note92
    任务93:数字图像直方图均衡 Note93
    任务94:图像去噪声 Note94
    任务95:图像边缘检测 Note95
    任务96:图像关键点检测 Note96
    任务97:道路行车道检测简介 Note97
    任务98:Canny边缘检测 Note98
    任务99:霍夫变换用于直线检测 Note99
    任务100:道路行车道检测代码讲解 Note100
    任务101:在图像和视频上面演示道路行车道检测 Note101
    任务102:项目介绍 Note102
    任务103:交通指示牌识别的简介 Note103
    任务104:交通指示牌识别课程的编程任务 Note104
    任务105:如何分析数据 (util.py 的详细介绍) Note105
    任务106:如何预处理图像数据、建立神经网络模型、
    训练网络模型 (train.py 的详细介绍)01
    Note106
    任务107:如何预处理图像数据、建立神经网络模型、
    训练网络模型 (train.py 的详细介绍)02
    Note107
    任务108:色彩空间转换 Note108
    任务109:直方图均衡 Note109
    任务110:图像标准化 Note110
    任务111:使用ImageDataGenerator做图像增强 Note111
    任务112:作业上传的要求 Note112
    任务113:介绍经典交通指示牌卷积神经网络模型 Note113
    任务114:代码实现经典交通指示牌识别卷积神经网络模型 Note114
    任务115:卷积神经网络的数学原理01 Note115
    任务116:卷积神经网络的数学原理02 Note116
    任务117:深度学习调参-直播-01 Note117
    任务118:深度学习调参-直播-02 Note118
    任务119:深度学习调参-直播-03 Note119
    任务120:卷积层的启发 Note120
    任务121:卷积层的定量分析 Note121
    任务122:单通道输入 单通道输出的卷积层的实例 Note122
    任务123:多通道输入 多通道输出的卷积层的实例 Note123
    任务124:池化层的原理 定量分析 Note124
    任务125:卷积神经网络和全连接神经网络的比较 Note125
    任务126:卷积神经网络在围棋 语言识别和自然语言处理中的应用 Note126
    任务127:基于深度学习的图像分类历史回顾 Note127
    任务128:AlexNet的结构分析 Note128
    任务129:ZFNet的结构分析 Note129
    任务130:VGG的结构分析 Note130
    任务131:GoogleNet Inception的结构分析 Note131
    任务132:Inception V3的结构分析 Note132
    任务133:ResNet的结构分析 Note133
    任务134:ResNet的代码实现 Note134
    任务135:基于内容的图像搜索理论基础 Note135
    任务136:基于去噪自动编码器的图像搜索代码实现 Note136
    任务137:使用卷积神经网络进行语义图像嵌入
    在目标检测 自动驾驶 图像超分辨率重构 工业探伤等等领域的应用
    Note137
    任务138:项目1-看图说话(助教)讲解和答疑-01 Note138
    任务139:项目1-看图说话(助教)讲解和答疑-02 Note139
    任务140:项目介绍www.rejoiceblog.com Note140
    任务141:自动驾驶方向盘转动方向预测的背景知识 Note141
    任务142:如何收集训练数据 Note142
    任务143:理解分析训练数据 Note143
    任务144:自动驾驶方向盘转动方向预测的网络结构和网络训练代码讲解 Note144
    任务145:提高网络性能的思路 图像处理、数据增强、网络结构优化 Note145
    任务146:探索数据01 Note146
    任务147:探索数据02 Note147
    任务148:图像增强01 Note148
    任务149:图像增强02 Note149
    任务150:解决数据不平衡的问题 DataGenerator的应用 Note150
    任务151:网络结构实例 Note151
    任务152: 图像增强部分的代码讲解 Note152
    任务153:DataGenerator部分的代码讲解 Note153
    任务154:网络结构实现部分的代码讲解 Note154
    任务155:方向盘转动方向预测网络模型的性能评估方法 Note155
    任务156:使用模拟器定性的判断网络性能的方法以及代码讲解 Note156
    任务157:模拟器自动驾驶的展示 Note157
    任务158:通过损失函数的变化判断网络性能、识别和解决过拟合和欠拟合的问题 Note158
    任务159:如何安装Python连接模拟器的Python 库 Note159
    任务160:windows 下面使用自动驾驶模拟器的教程 Note160
    任务161:mac 下面使用自动驾驶模拟器的教程 Note161
    任务162:目标识别综述 Note162
    任务163:基于HOG(梯度直方图)的目标识别 Note163
    任务164:Non-Max Suppression IoU 和 Hard Negative Mining Note164
    任务165:R-CNN的工作原理 Note165
    任务166:R-CNN中的边界框(Bounding Box)预测原理 Note166
    任务167:R-CNN的不足之处 Note167
    任务168:Fast R-CNN详解 Note168
    任务169:Faster R-CNN Region Proposal Network Note169
    任务170:R-CNN Fast R-CNN Faster R-CNN的总结 Note170
    任务171:目标识别 R-CNN家族的回顾 Note171
    任务172:SSD的简介 SSD与R-CNN的比较 Note172
    任务173:SSD的网络结构(1) Note173
    任务174:如何使用卷积作为最后的预测层 Note174
    任务175:SSD的训练过程 Note175
    任务176:SSD的实验结果分析 Note176
    任务177:VGG16到SSD网络的演化 L2Normalization层的实现 Note177
    任务178:SSD各个技术对失败率的影响 Atrous卷积层的原理 Note178
    任务179:使用卷积作为最后的预测层详解 Note179
    任务180:SSD定位损失函数详解 Note180
    任务181:SSD中Anchor尺寸 宽高比 中心位置的确定 Note181
    任务182:SSD中分类损失函数详解 Note182
    任务183:Non-Max Suppression的原理 Note183
    任务184:SSD和YOLO的比较 SSD的总结 Note184
    任务185:图像分割简介 Note185
    任务186:基于深度学习的图像分割U-Net的原理 Note186
    任务187:Transposed Convolution原理与运用 Note187
    任务188:U-Net的代码讲解 Note188
    任务189:图像生成的原理 Note189
    任务190:使用深度学习自动图像生成手写数字的代码讲解 Note190
    任务191:图像风格转移的原理 Note191
    任务192:使用深度学习实现图像风格转移的代码讲解 Note192
    任务193:SSD的原理回顾 Note193
    任务194:编程项目的训练数据介绍 Note194
    任务195:对SSD模型对产生Anchor有影响的参数讲解 Note195
    任务196:对候选框精选处理有影响的参数讲解 Note196
    任务197:对输入模型参数的合法性检测和转换 Note197
    任务198:具有7层的SSD的网络结构讲解 Note198
    任务199:编译模型 使用模型做预测 Note199
    任务200:SSD解码的实现 Note200
    任务201:帮助函数IoU 坐标转换 SSD损失函数
    Non-Max-Suppression的实现
    Note201
    任务202:二值化神经网络的简介 Note202
    任务203:二值化网络的前向后向传播 梯度计算原理www.rejoiceblog.com Note203
    任务204:二值化网络的训练算法 Note204
    任务205:二值化网络的实验结果 Note205
    任务206:二值化全连接网络的代码讲解 Note206
    任务207:DropoutNoScale层的实现 Note207
    任务208:BinaryDense层的实现 Note208
    任务209:二值化卷积神经网络的代码讲解 Note209
    任务210:项目作业要求 Note210
    任务211:神经网络在实际应用中面临的挑战 轻量级深度神经网络的必要性 Note211
    任务212:MobileNet Depthwise Seperable Convolution的原理计算量分析 Note212
    任务213:ShuffleNet Group Convolution Channel Shuffle的原理 Note213
    任务214:EffNet Spatial Seperable Convolution的原理计算量分析和实验效果 Note214
    任务215:lightweight-network答疑时间 Note215
    任务216:回顾EffNet的原理 Note216
    任务217:EffNet的代码讲解 Note217
    任务218:One-Shot Learning 的意义和工作原理 Note218
    任务219:用于One-Shot Learning 的Siamese 深度神经网络的介绍 Note219
    任务220:Siamese 深度神经网络的实验和结果分析 Note220
    任务221:Transposed Convolution 的应用 算法回顾 以及使用矩阵乘法实现 Note221
    任务222:Transposed Convolution 的梯度推导 Note222
    任务223:将卷积核转换为Toeplitz Matrix用于矩阵乘法实现Transposed Note223
    任务224:同学对课程的效果反馈调查 Note224
    任务225:使用 Siamese 网络做门禁卡系统的入门介绍 数据集的介绍 Note225
    任务226:PyTorch 基础教程 Note226
    任务227:Siamese One-Shot learning 知识回顾 Note227
    任务228:使用 PyTorch torchvision 库高效读取数据 Note228
    任务229:使用 PyTorch 定义 Siamese 网络结构 Note229
    任务230:使用 PyTorch 写训练网络的代码 Note230
    任务231:使用 PyTorch 写测试网络的代码 Note231
    Talk is cheap. Show me the code
  • 相关阅读:
    APUE学习笔记:第四章 文件和目录
    APUE学习笔记:第三章 文件I/O
    APUE学习笔记:第二章 UNIX标准化及实现
    APUE学习笔记:第一章 UNUX基础知识
    《数据库系统概念》学习笔记2
    go语言下载地址
    Centos7 编译 android4.4
    剑侠情缘新进展
    ubuntu server 14.04手动安装svn
    ubuntu server 14.04 lts显示乱码的问题
  • 原文地址:https://www.cnblogs.com/lx17746071609/p/14781675.html
Copyright © 2020-2023  润新知