runxinzhi.com
首页
百度搜索
从Python到水一篇AI论文(核心 or Sci三区+)(目录)
博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看
配套 github 链接:https://github.com/nickchen121/shui-water--paper
配套博客链接:https://www.cnblogs.com/nickchen121/p/16470443.html
目录
第一篇 快速学完 Python
第二篇 数学基础知识概要(待续)
第三篇 机器学习(待续)
第四篇 Sklearn(待续)
第五篇 深度学习(待续)
第六篇 Pytorch(待续)
第七篇 Transformer
Transformer、GPT、BERT,预训练语言模型的前世今生(理论)
通过 Pytorch 构建 Transformer 框架(真实战,不做调包侠)
第八篇 Latex(待续)
第九篇 相关杂篇
第十篇 导师不敢和你说的水论文隐藏技巧
推荐阅读
第一篇 快速学完 Python
001 (Python+水论文合集)为什么录这个合集,这个合集会讲哪些内容?
002 Typora 的使用(markdown 的使用)
003 计算机基础之编程和编程语言
004 计算机五大组成(计算机组成原理)
005 计算机操作系统(什么是文件和应用程序)
006 编程语言分类(我总不能扣内存条用计算机吧)
007 Python、Anaconda、pip、Pycharm、Jupyter都是啥?
008 Python、Anaconda、pip、Pycharm、Jupyter 的下载
009 Pycharm的使用(各种骚操作和快捷键)
010 Python 重中之重的变量
011 Python 的打印(花式变色打印)和注释(为什么加个#号就能注释)
012 Python约定俗称的常量
013 Python 变量的内存管理(学点底层东西显得你异于常人)
014 Python 的数据类型(数字、字符串、列表、字典)
015 Python 的输入输出和字符串格式化(终于可以和计算机交流了)
016 Python 中的基本运算符.py
017 Python 流程控制之 if 判断
018 人生中第一次用 Python 写的一个小程序_猜年龄(再次强调,重视基础)
第二篇 数学基础知识概要(待续)
第三篇 机器学习(待续)
第四篇 Sklearn(待续)
第五篇 深度学习(待续)
第六篇 Pytorch(待续)
第七篇 Transformer
Transformer、GPT、BERT,预训练语言模型的前世今生(理论)
00 预训练语言模型的前世今生(全文 24854 个词)
03 什么是预训练(Transformer 前奏)
04 统计语言模型(n元语言模型)
05 神经网络语言模型(独热编码+词向量的起源)
06 Word2Vec模型(第一个专门做词向量的模型,CBOW和Skip-gram)
07 预训练语言模型的下游任务改造简介(如何使用词向量)
08 ELMo模型(双向LSTM模型解决词向量多义问题)
09 什么是注意力机制(Attention )
10 Self-Attention(自注意力机制)
1001 Attention 和 Self-Attention 的区别(还不能区分我就真的无能为力了)
11 Self-Attention相比较 RNN和LSTM的优缺点
12 Masked Self-Attention(掩码自注意力机制)
13 Multi-Head Self-Attention(从空间角度解释为什么做多头)
14 Positional Encoding (为什么 Self-Attention 需要位置编码)
1401 位置编码公式详细理解补充
15 Transformer 框架概述
16 Transformer 的编码器(Encodes)——我在做更优秀的词向量
17 Transformer 的解码器(Decoders)——我要生成一个又一个单词
18 Transformer 的动态流程
19 Transformer 解码器的两个为什么(为什么做掩码、为什么用编码器-解码器注意力)
通过 Pytorch 构建 Transformer 框架(真实战,不做调包侠)
00 通过 Pytorch 实现 Transformer 框架完整代码
000 通过 Pytorch 实现 Transformer 框架完整代码(带注释)
02 Transformer 中 Add&Norm (残差和标准化)代码实现
0201 为什么 Pytorch 定义模型要有一个 init 和一个 forward,两者怎么区分
03 Transformer 中的多头注意力(Multi-Head Attention)Pytorch代码实现
04 Transformer 中的位置编码的 Pytorch 实现
05 Transformer 中的前馈神经网络(FFN)的实现
第八篇 Latex(待续)
第九篇 相关杂篇
00 你想要学习的 AI+Python,捷径在这里
01 如何具备编程思想(以 Python 举例)
第十篇 导师不敢和你说的水论文隐藏技巧
01 水一篇论文该如何“创新”,如何判断?
03 模型复现后,性能低了怎么办?
04 论文模型需不需要继承
05 没有继承且无法复现论文模型怎么办?如何做一个好的学术裁缝
06 顶刊、顶会、水刊的论文读哪个,如何做一个称职的学术裁缝
07 毕业论文,小论文和综述的区别,三者怎么进行换汤不换药转换
08 研一新生和学术摆烂党不听这一期,我直摇头,哎~
推荐阅读
pytorch从入门到放弃(目录)
Python从入门到放弃(目录)
人工智能从入门到放弃(目录)
数据结构与算法-江西师范大学865(针对考研or面试)(目录)
十天快速入门Python(目录)
数据结构与算法-Python/C(目录)
Go从入门到放弃(目录)
TensorFlow2教程-旧(目录)
机器学习-项目杂记(目录)
Python能干啥-项目杂记(目录)
大数据分析和人工智能科普
人工智能(机器学习)学习之路推荐
推荐书单(网课)-人生/编程/Python/机器学习
曾Python培训讲师-Python开发无包装简历
相关阅读:
使用HttpClient发送请求、接收响应
jdbc操作
数据库通用Jdbc操作
将WSDL文件生成的Java文件
数据结构_线性表_链表实现
15年第六届蓝桥杯第七题_手链样式_(stl_string)
16年第七届蓝桥杯第九题_密码脱落_(贪心)
16年第七届蓝桥杯第七题_剪邮票
16年第七届蓝桥杯第三题_方格填数
Codeforces_789C_(dp)
原文地址:https://www.cnblogs.com/nickchen121/p/16470443.html
最新文章
puppet集群
Puppet部署:安装puppet server、client
gitlab使用
puppet使用rsync模块同步目录和文件
Linux系统故障排查和修复技巧
红帽Linux故障定位技术详解与实例(4)
红帽Linux故障定位技术详解与实例(3)
红帽Linux故障定位技术详解与实例(2)
红帽Linux故障定位技术详解与实例(1)
bat
热门文章
windows 7 下如何搭建FTP服务器
Windows 批处理程序
安装oralce11g后创建监听失败,缺失监听配置文件,也无法生成,提示TNS-04415
清除作业列表SQL
代码分析错误查询SQL
将字符串写进txt中方式
基本linux命令
XStream将xml文件拼成字符串
Java:String和Date、Timestamp之间的转换
如何将java代码生成一个bat文件
Copyright © 2020-2023
润新知