Skip to content

Commit

Permalink
update readme
Browse files Browse the repository at this point in the history
  • Loading branch information
SwordYork committed Mar 15, 2017
1 parent ddb2333 commit d9e01d3
Show file tree
Hide file tree
Showing 3 changed files with 70 additions and 68 deletions.
6 changes: 2 additions & 4 deletions Chapter16/structured_probabilistic_modelling.tex
Original file line number Diff line number Diff line change
Expand Up @@ -1212,10 +1212,8 @@ \subsection{实例:\glsentrytext{RBM}}
对于二元的\gls{RBM},我们可以得到:
\begin{align}
\label{eqn:1613}
\begin{aligned}
p(\RSh_i = 1\mid\RVv) = \sigma\big(\RVv^{\top}\MW_{:,i} + b_i\big),\\
p(\RSh_i = 0\mid\RVv) = 1 - \sigma\big(\RVv^{\top}\MW_{:,i} + b_i\big).\\
\end{aligned}
p(\RSh_i = 1\mid\RVv) &= \sigma\big(\RVv^{\top}\MW_{:,i} + b_i\big),\\
p(\RSh_i = 0\mid\RVv) &= 1 - \sigma\big(\RVv^{\top}\MW_{:,i} + b_i\big).
\end{align}
结合这些属性可以得到高效的\firstgls{block_gibbs_sampling},它在同时采样所有$\Vh$和同时采样所有$\Vv$之间交替。
\glssymbol{RBM}~模型通过~\gls{gibbs_sampling}产生的样本展示在\figref{fig:rbm_sample}中。
Expand Down
18 changes: 9 additions & 9 deletions Chapter2/linear_algebra.tex
Original file line number Diff line number Diff line change
Expand Up @@ -170,8 +170,8 @@ \section{矩阵和向量相乘}
不同于标量乘积,矩阵乘积\emph{并不}满足交换律($\MA\MB=\MB\MA$的情况并非总是满足)。
然而,两个向量的\firstgls{dot_product}满足交换律:
\begin{equation}
\label{eq:2.8}
\Vx^\top\Vy=\Vy^\top\Vx.
\label{eq:2.8}
\end{equation}


Expand All @@ -190,8 +190,8 @@ \section{矩阵和向量相乘}

现在我们已经知道了足够多的线性代数符号,可以表达下列线性方程组:
\begin{equation}
\label{eq:2.11}
\MA\Vx=\Vb
\label{eq:2.11}
\end{equation}
其中$\MA\in \SetR^{m\times n}$是一个已知矩阵,$\Vb\in\SetR^m$是一个已知向量,$\Vx\in\SetR^n$是一个我们要求解的未知向量。
向量$\Vx$的每一个元素$\Sx_i$都是未知的。
Expand Down Expand Up @@ -241,13 +241,13 @@ \section{单位矩阵和逆矩阵}
\centerline{\includegraphics{figure.pdf}}
\else
\centering
\begin{equation}
\begin{equation*}
\begin{bmatrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1 \\
\end{bmatrix}
\end{equation}
\end{equation*}
\fi
\caption{单位矩阵的一个样例:这是$\MI_3$。}
\label{fig:chap2_empty2}
Expand Down Expand Up @@ -367,8 +367,8 @@ \section{范数}
在机器学习中,我们经常使用被称为\firstgls{norm}的函数衡量向量大小。
形式上,$L^p$范数定义如下
\begin{equation}
\label{eq:2.30}
\norm{\Vx}_p = \left( \sum_i |x_i|^p \right)^{\frac{1}{p}}
\label{eq:2.30}
\end{equation}
其中$p\in \SetR$$p\geq 1$

Expand Down Expand Up @@ -706,8 +706,8 @@ \section{迹运算}
若不使用求和符号,有些矩阵运算很难描述,而通过矩阵乘法和迹运算符号,可以清楚地表示。
例如,迹运算提供了另一种描述矩阵\gls{frobenius_norm}的方式:
\begin{equation}
\label{eq:2.49}
\norm{A}_F = \sqrt{\text{Tr}(\MA \MA^\top)}.
\label{eq:2.49}
\end{equation}


Expand All @@ -725,8 +725,8 @@ \section{迹运算}
\end{equation}
或者更一般地,
\begin{equation}
\label{eq:2.52}
\Tr(\prod_{i=1}^n \MF^{(i)})= \Tr(\MF^{(n)} \prod_{i=1}^{n-1} \MF^{(i)}).
\label{eq:2.52}
\end{equation}
即使循环置换后矩阵乘积得到的矩阵形状变了,迹运算的结果依然不变。
例如,假设矩阵$\MA\in \SetR^{m\times n}$,矩阵$\MB\in \SetR^{n\times m}$,我们可以得到
Expand Down Expand Up @@ -850,8 +850,8 @@ \section{实例:\glsentrytext{PCA}}
\end{equation}
进一步使用矩阵乘法,我们也可以定义\,\glssymbol{PCA}\,重构操作:
\begin{equation}
\label{eq:2.67}
r(\Vx)=g(f(\Vx)) = \MD\MD^\top \Vx.
\label{eq:2.67}
\end{equation}


Expand All @@ -860,8 +860,8 @@ \section{实例:\glsentrytext{PCA}}
因为我们用相同的矩阵$\MD$对所有点进行解码,我们不能再孤立地看待每个点。
反之,我们必须最小化所有维数和所有点上的误差矩阵的\,\gls{frobenius_norm}:
\begin{equation}
\label{eq:2.68}
\MD^* = \underset{\MD}{\arg\min} \sqrt{\sum_{i,j}\left( \Vx_j^{(i)} - r(\Vx^{(i)})_j\right)^2} \text{ subject to } \MD^\top\MD = \MI_l.
\label{eq:2.68}
\end{equation}

为了推导用于寻求$\MD^*$的算法,我们首先考虑$l=1$的情况。
Expand Down
114 changes: 59 additions & 55 deletions README.md
Original file line number Diff line number Diff line change
@@ -1,9 +1,11 @@
# Deep Learning 中文翻译

公开1个多月,在众多网友的帮助下,草稿中的草稿慢慢变成了草稿。原本打算我们翻译人员先相互校对一遍再让网友校对,但由于时间不足,于是更改计划,打算一起校对。
在众多网友的帮助和校对下,草稿慢慢变成了初稿。尽管还有很多问题,但至少90%的内容是可读的,并且是准确的。
我们尽可能地保留了原书[Deep Learning](http://www.deeplearningbook.org/)中的意思并保留原书的语句。

[直译版](https://github.com/exacity/deeplearningbook-chinese/tree/literal)逐渐向意译版过渡,我们希望尽可能地保留原书[Deep Learning](http://www.deeplearningbook.org/)中的意思并保留原书的语句。
然而我们水平有限,哈姆雷特成千上万,我们无法消除众多读者的方差。我们需要大家的建议和帮助,一起减小翻译的偏差。
然而我们水平有限,我们无法消除众多读者的方差。我们仍需要大家的建议和帮助,一起减小翻译的偏差。

大家所要做的就是阅读,然后汇总你的建议,提issue(最好不要一个一个地提)。如果你确定你的建议不需要商量,可以直接发起PR。

对应的翻译者:
- 第1、4、7、10、14、20章及第12.4、12.5节由 @swordyork 负责
Expand All @@ -16,72 +18,82 @@
面向的读者
--------------------

请直接下载[PDF](https://github.com/exacity/deeplearningbook-chinese/releases/download/v0.4-alpha/dlbook_cn_v0.4-alpha.pdf.zip)阅读(已打包为zip,貌似现在不能上传PDF)。
虽然这一版准确性有所提高,但我们仍然建议英文好的同学或研究者直接阅读[原版](http://www.deeplearningbook.org/)
请直接下载[PDF](https://github.com/exacity/deeplearningbook-chinese/releases/download/v0.5-beta/dlbook_cn_v0.5-beta.pdf.zip)阅读(已打包为zip,貌似现在不能上传PDF)。

这一版准确性已经有所提高,读者可以以中文版为主、英文版为辅来阅读学习,但我们仍建议研究者阅读[原版](http://www.deeplearningbook.org/)



校对认领
出版及开源原因
--------------------

我们划分4个类别的校对人员。每个类别需要很多人。
- 负责人也就是对应的翻译者。
- 我们需要有人简单地阅读,最好是刚入门或者想入门的同学。有什么翻得不明白的地方可以直接指出,不用给出意见。或者可以对语句不通顺的地方提出修改意见。每章至少3人。
- 我们也需要有人进行中英对比,最好能排除少翻错翻的情况。最好是时间充足、能中英对应阅读、细心的同学。每章至少2人。
- ~~相关方向的校对者则需要纠正译者的错误理解。大家不要谦虚,阅读过相关论文的同学可以作为相关方向的人士。每章至少1人。~~ 这个目前来不及了,暂时搁置。
本书将由出版社出版,但我们不确定具体日期。所以大家可以先看PDF电子版,毕竟技术日新月异。

我们会在纸质版正式出版的时候,在书中致谢,正式感谢各位作出贡献的同学!
如果你觉得中文版PDF对你有所帮助,希望将来出版的时候你能支持下纸质正版书籍。
如果你觉得中文版不行,希望你能多提建议。非常感谢各位!

我们采用网上批注的形式(如果觉得不方便,可以在pdf中批注,然后发给我们)。Latex转成markdown后,图片和某些公式会错误,排版也会出问题。希望大家谅解。
具体批注方式:
1. 点开下表中对应的章节
2. 选取网页中的词语或语句,跳出来Annotate,点击就行了。需要注册一个帐号,注意批注得公开我们才能看到。

| 章节 | 负责人 | 简单阅读 | 中英对比 | 进度 |
| ------------ | ------------ | ------------ | ------------ | ------------ |
| [第一章 前言](https://exacity.github.io/deeplearningbook-chinese/Chapter1_introduction/) | @swordyork | lc, @SiriusXDJ, @corenel, @NeutronT | @linzhp | 完成合并 |
| [第二章 线性代数](https://exacity.github.io/deeplearningbook-chinese/Chapter2_linear_algebra/) | @liber145 | @SiriusXDJ, @angrymidiao | @badpoem | 完成合并 |
| [第三章 概率与信息论](https://exacity.github.io/deeplearningbook-chinese/Chapter3_probability_and_information_theory/) | @KevinLee1110 | @SiriusXDJ | @kkpoker | 完成合并 |
| [第四章 数值计算](https://exacity.github.io/deeplearningbook-chinese/Chapter4_numerical_computation/) | @swordyork | @zhangyafeikimi | @hengqujushi | 完成合并 |
| [第五章 机器学习基础](https://exacity.github.io/deeplearningbook-chinese/Chapter5_machine_learning_basics/) | @liber145 | @wheaio, @huangpingchun | @fairmiracle, @linzhp | 完成合并 |
| [第六章 深度前馈网络](https://exacity.github.io/deeplearningbook-chinese/Chapter6_deep_feedforward_networks/) | @KevinLee1110 | David_Chow, @linzhp, @sailordiary | | 完成合并 |
| [第七章 深度学习中的正则化](https://exacity.github.io/deeplearningbook-chinese/Chapter7_regularization/) | @swordyork | | | 完成合并 |
| [第八章 深度模型中的优化](https://exacity.github.io/deeplearningbook-chinese/Chapter8_optimization_for_training_deep_models/) | @liber145 | @happynoom, @codeVerySlow | @huangpingchun | 完成合并 |
| [第九章 卷积网络](https://exacity.github.io/deeplearningbook-chinese/Chapter9_convolutional_networks/) | @KevinLee1110 | @zhaoyu611, @corenel | @zhiding | 完成合并 |
| [第十章 序列建模:循环和递归网络](https://exacity.github.io/deeplearningbook-chinese/Chapter10_sequence_modeling_rnn/) | @swordyork | lc | @zhaoyu611, @yinruiqing | 完成合并 |
| [第十一章 实践方法论](https://exacity.github.io/deeplearningbook-chinese/Chapter11_practical_methodology/) | @liber145 | | | 完成合并 |
| [第十二章 应用](https://exacity.github.io/deeplearningbook-chinese/Chapter12_applications/) | @swordyork, @futianfan | | @corenel | 完成合并 |
| [第十三章 线性因子模型](https://exacity.github.io/deeplearningbook-chinese/Chapter13_linear_factor_models/) | @futianfan | @cloudygoose | @ZhiweiYang | 完成合并 |
| [第十四章 自编码器](https://exacity.github.io/deeplearningbook-chinese/Chapter14_autoencoders/) | @swordyork | | @Seaball, @huangpingchun | 完成合并 |
| [第十五章 表示学习](https://exacity.github.io/deeplearningbook-chinese/Chapter15_representation_learning/) | @liber145 | @cnscottzheng | | 完成合并 |
| [第十六章 深度学习中的结构化概率模型](https://exacity.github.io/deeplearningbook-chinese/Chapter16_structured_probabilistic_modelling/) | @futianfan | | | 完成合并 |
| [第十七章 蒙特卡罗方法](https://exacity.github.io/deeplearningbook-chinese/Chapter17_monte_carlo_methods/) | @futianfan | | @sailordiary | 完成合并 |
| [第十八章 面对配分函数](https://exacity.github.io/deeplearningbook-chinese/Chapter18_confronting_the_partition_function/) | @liber145 | | | 完成合并 |
| [第十九章 近似推断](https://exacity.github.io/deeplearningbook-chinese/Chapter19_approximate_inference/) | @futianfan | | @sailordiary, @hengqujushi | 完成合并 |
| [第二十章 深度生成模型](https://exacity.github.io/deeplearningbook-chinese/Chapter20_deep_generative_models/) | @swordyork | | | 完成合并 |
以下是开源的具体原因:

1. 我们不是文学工作者,不专职翻译。单靠我们,无法给出今天的翻译,众多网友都给我们提出了宝贵的建议,因此开源帮了很大的忙。出版社会给我们稿费(我们也不知道多少,可能2万左右),我们也不好意思自己用,商量之后觉得捐出是最合适的,以所有贡献过的网友的名义。
2. PDF电子版对于技术类书籍来说是很重要的,随时需要查询,拿着纸质版到处走显然不合适。国外很多技术书籍都有对应的电子版(虽然不一定是正版),而国内的几乎没有。个人认为这是出版社或者作者认为国民素质还没有高到主动为知识付费的境界,所以不愿意"泄露"电子版。时代在进步,我们也需要改变。特别是翻译作品普遍质量不高的情况下,要敢为天下先。
3. 深度学习发展太快,日新月异,所以我们希望大家更早地学到相关的知识。我觉得原作者开放PDF电子版也有类似的考虑,也就是先阅读后付费。我们认为中国人口素质已经足够高,懂得为知识付费。当然这不是付给我们的,是付给出版社的,出版社再付给原作者。虽然中文版销量的获利跟我们完全没有关系,但我们不希望中文版的销量因PDF电子版的存在而下滑。出版社只有值回了版权才能在以后引进更多的优秀书籍。我们这个开源翻译先例也不会成为一个反面案例,以后才会有更多的PDF电子版。

TODO
---------

1. 语句通顺
2. 排版

实在有问题,请发邮件至`echo c3dvcmQueW9ya0BnbWFpbC5jb20K | base64 -d`

致谢
--------------------

我们有3个类别的校对人员。
- 负责人也就是对应的翻译者。
- 简单阅读,对语句不通顺或难以理解的地方提出修改意见。
- 中英对比,进行中英对应阅读,排除少翻错翻的情况。

所有校对建议都保存在各章的`annotations.txt`文件中。

| 章节 | 负责人 | 简单阅读 | 中英对比 |
| ------------ | ------------ | ------------ | ------------ |
| [第一章 前言](https://exacity.github.io/deeplearningbook-chinese/Chapter1_introduction/) | @swordyork | lc, @SiriusXDJ, @corenel, @NeutronT | @linzhp |
| [第二章 线性代数](https://exacity.github.io/deeplearningbook-chinese/Chapter2_linear_algebra/) | @liber145 | @SiriusXDJ, @angrymidiao | @badpoem |
| [第三章 概率与信息论](https://exacity.github.io/deeplearningbook-chinese/Chapter3_probability_and_information_theory/) | @KevinLee1110 | @SiriusXDJ | @kkpoker |
| [第四章 数值计算](https://exacity.github.io/deeplearningbook-chinese/Chapter4_numerical_computation/) | @swordyork | @zhangyafeikimi | @hengqujushi |
| [第五章 机器学习基础](https://exacity.github.io/deeplearningbook-chinese/Chapter5_machine_learning_basics/) | @liber145 | @wheaio, @huangpingchun | @fairmiracle, @linzhp |
| [第六章 深度前馈网络](https://exacity.github.io/deeplearningbook-chinese/Chapter6_deep_feedforward_networks/) | @KevinLee1110 | David_Chow, @linzhp, @sailordiary | |
| [第七章 深度学习中的正则化](https://exacity.github.io/deeplearningbook-chinese/Chapter7_regularization/) | @swordyork | | |
| [第八章 深度模型中的优化](https://exacity.github.io/deeplearningbook-chinese/Chapter8_optimization_for_training_deep_models/) | @liber145 | @happynoom, @codeVerySlow | @huangpingchun |
| [第九章 卷积网络](https://exacity.github.io/deeplearningbook-chinese/Chapter9_convolutional_networks/) | @KevinLee1110 | @zhaoyu611, @corenel | @zhiding |
| [第十章 序列建模:循环和递归网络](https://exacity.github.io/deeplearningbook-chinese/Chapter10_sequence_modeling_rnn/) | @swordyork | lc | @zhaoyu611, @yinruiqing |
| [第十一章 实践方法论](https://exacity.github.io/deeplearningbook-chinese/Chapter11_practical_methodology/) | @liber145 | | |
| [第十二章 应用](https://exacity.github.io/deeplearningbook-chinese/Chapter12_applications/) | @swordyork, @futianfan | | @corenel |
| [第十三章 线性因子模型](https://exacity.github.io/deeplearningbook-chinese/Chapter13_linear_factor_models/) | @futianfan | @cloudygoose | @ZhiweiYang |
| [第十四章 自编码器](https://exacity.github.io/deeplearningbook-chinese/Chapter14_autoencoders/) | @swordyork | | @Seaball, @huangpingchun |
| [第十五章 表示学习](https://exacity.github.io/deeplearningbook-chinese/Chapter15_representation_learning/) | @liber145 | @cnscottzheng | |
| [第十六章 深度学习中的结构化概率模型](https://exacity.github.io/deeplearningbook-chinese/Chapter16_structured_probabilistic_modelling/) | @futianfan | |
| [第十七章 蒙特卡罗方法](https://exacity.github.io/deeplearningbook-chinese/Chapter17_monte_carlo_methods/) | @futianfan | | @sailordiary |
| [第十八章 面对配分函数](https://exacity.github.io/deeplearningbook-chinese/Chapter18_confronting_the_partition_function/) | @liber145 | | |
| [第十九章 近似推断](https://exacity.github.io/deeplearningbook-chinese/Chapter19_approximate_inference/) | @futianfan | | @sailordiary, @hengqujushi |
| [第二十章 深度生成模型](https://exacity.github.io/deeplearningbook-chinese/Chapter20_deep_generative_models/) | @swordyork | | |

致谢
---------
我们会在纸质版正式出版的时候,在书中致谢,正式感谢各位作出贡献的同学!

如果我们采用了大家的建议,我们会列在这。具体见[acknowledgments_github.md](https://github.com/exacity/deeplearningbook-chinese/blob/master/acknowledgments_github.md)
还有很多同学提出了不少建议,我们都列在此处

@tttwwy @tankeco @fairmiracle @GageGao @huangpingchun @MaHongP @acgtyrant @yanhuibin315 @Buttonwood @titicacafz
@weijy026a @RuiZhang1993 @zymiboxpay @xingkongliang @oisc @tielei @yuduowu @Qingmu @HC-2016 @xiaomingabc
@bengordai @Bojian @JoyFYan @minoriwww @khty2000 @gump88 @zdx3578 @PassStory @imwebson @wlbksy @roachsinai @Elvinczp
@endymecy name:YUE-DaJiong @9578577 @linzhp @cnscottzheng @germany-zhu @zhangyafeikimi @showgood163 @gump88
@kangqf @NeutronT @badpoem @kkpoker @Seaball @wheaio @angrymidiao @ZhiweiYang @corenel @zhaoyu611 @SiriusXDJ @dfcv24 EmisXXY FlyingFire vsooda @friskit-china

如有遗漏,请务必通知我们,可以发邮件至`echo c3dvcmQueW9ya0BnbWFpbC5jb20K | base64 -d`
这是我们必须要感谢的,所以不要不好意思。


TODO
---------

1. 排版



注意
-----------
Expand All @@ -90,16 +102,8 @@ TODO
- 由于版权问题,我们不能将图片和bib上传,请见谅。
- Due to copyright issues, we would not upload figures and the bib file.
- 可用于学习研究目的,不得用于任何商业行为。谢谢!
- 大家不要watch啊,邮箱可能会炸。
- **先不要打印,这一版不值得打印,浪费钱** 打印版仅供学习参考和找茬纠错,正式出版后,希望大家多多支持纸质正版书籍。



笔记
---------
为帮助小白学得轻松一点,希望大家多多贡献笔记,单靠我们估计要大半年才能写出不错的笔记,而且时间不允许。
笔记见各章文件夹内的`README.md`



Markdown格式
Expand Down

0 comments on commit d9e01d3

Please sign in to comment.