- 作 者: @空字符(微信:nulls8)
- 公众号: @月来客栈
- 知 乎: @月来客栈 https://www.zhihu.com/people/the_lastest
著名数学家华罗庚曾说:数无形时少直觉,形少数时难入微。本专栏所有算法介绍均会遵循先通过图示结构介绍其背后的思想原理,然后再通过代码来刻画其细节之处,做到真正的“数形”结合,让你真的能看得懂、学得会、写得出,无论你是初学者还是有一定经验的从业者,相信都能够从中获益! 每周二、四早更新,节假日不调休!
- 3.1 线性回归
- 3.2 线性回归简洁实现
- 3.3 梯度下降与反向传播
- 3.4 从零实现回归模型
- 3.5 从逻辑回归到Softmax回归
- 3.6 Softmax回归简洁实现
- 3.7 从零实现分类模型
- 3.8 回归模型评估指标
- 3.9 分类模型评估指标
- 3.10 过拟合与正则化
- 3.11 超参数与交叉验证
- 3.12 激活函数
- 4.1 卷积的概念
- 4.2 卷积的计算过程
- 4.3 填充和池化
- 4.4 LeNet5模型
- 4.5 AlexNet模型
- 4.6 VGG模型
- 4.7 NIN模型
- 4.8 GoogLeNet模型
- 4.9 ResNet模型
- 4.10 DenseNet模型
- 9.1 NLP介绍
- 9.2 Word2Vec模型
- 9.3 Word2Vec训练与使用
- 9.4 GloVe模型
- 9.5 词向量的微调使用
- 9.6 FastText模型
- 9.7 序列到序列模型
- 9.8 序列模型评估指标
- 9.9 NMT模型
- 9.10 注意力机制
- 9.11 含注意力的NMT模型
- 9.12 含注意力的RNN模型
- 10.1 ELMo模型
- 10.2 Transformer模型
- 10.3 Transformer网络结构
- 10.4 从零实现Transformer
- 10.5 Transfromer对联模型
- 10.6 BERT模型
- [10.7 从零实现BERT]
- [10.8 BERT文本分类模型]
- [10.9 BERT问题选择模型]
- [10.10 BERT问题回答模型]
- [10.11 BERT命名体识别模型]
- [10.12 BERT从零训练]
- [10.13 GPT-1模型]
- [10.14 GPT-2与GPT-3模型]
- [10.15 基于GPT-2的中文预训练模型]
- [10.16 InstractGPT与ChatGPT]
- [10.17 ChatGPT使用]
- [10.18 百川大模型使用]
- [10.19 百川大模型实现]
- [10.20 GPT-4与GPTs介绍]