尽管机器学习的历史可以追溯到1959年年,但目前,这个领域正以前所未有的速度发展。最近,我一直在网上寻找关于机器学习和自然语言处理各方面的好资源,为了帮助到和我有相同需求的人,我整理了一份迄今为止我发现的最好的教程内容列表。
通过教程中的简介内容讲述一个概念。避免了包括书籍章节涵盖范围广,以及研究论文在教学理念上做的不好的特点。
我把这篇文章分成四个部分:机器学习,自然语言处理,巨蟒和数学。
每个部分中都包含了一些主题文章,但是由于材料巨大,每个部分不可能包含所有可能的主题,我将每个主题限制在5到6个教程中。(由于微信不能插入外链,请点击“阅读原文”查看原文)
机器学习
-
机器学习很有趣!(medium.com/@ageitgey)
-
机器学习速成课程:第一部分,第二部分,第三部分(柏克莱机器学习)
-
机器学习理论及其应用介绍:带示例的可视化教程(toptal.com)
-
机器学习的温柔指南(monkeylearn.com)
-
我应该使用哪种机器学习算法?(sas.com)
激活和损失函数
-
乙状神经元(neuralnetworksanddeeplearning.com)
-
激活函数在神经网络中的作用是什么?(quora.com)
-
神经网络中激活函数的综合列表(stats.stackexchange.com)
-
激活功能和它的类型 - 哪个更好?(medium.com)
-
让对数损失感(exegetic.biz)
-
损失函数(斯坦福CS231n)
-
L1与L2损失函数(rishy.github.io)
-
交叉熵代价函数(neuralnetworksanddeeplearning.com)
偏压
-
偏差在神经网络中的作用(*.com)
-
神经网络中的偏置节点(makeyourownneuralnetwork.blogspot.com)
-
什么是人工神经网络的偏见?(quora.com)
感知器
-
感知器(neuralnetworksanddeeplearning.com)
-
感知(natureofcode.com)
-
单层神经网络(感知器)(dcu.ie)
-
从感知器到深度网络(toptal.com)
回归
-
线性回归分析介绍(duke.edu)
-
线性回归(ufldl.stanford.edu)
-
线性回归(readthedocs.io)
-
Logistic回归(readthedocs.io)
-
简单的线性回归教程机器学习(machinelearningmastery.com)
-
机器学习的Logistic回归教程(machinelearningmastery.com)
-
Softmax回归(ufldl.stanford.edu)
梯度下降算法
-
学习梯度下降(neuralnetworksanddeeplearning.com)
-
渐变下降(iamtrask.github.io)
-
如何理解渐变下降算法(kdnuggets.com)
-
梯度下降优化算法概述(sebastianruder.com)
-
优化:随机梯度下降(斯坦福CS231n)
生成式学习
-
生成式学习算法(Stanford CS229)
-
朴素贝叶斯分类器(monkeylearn.com)的实际解释
支持向量机
-
支持向量机(SVM)简介(monkeylearn.com)
-
支持向量机(Stanford CS229)
-
线性分类:支持向量机,Softmax(斯坦福231n)
反向传播
-
是的,你应该了解backprop(medium.com/@karpathy)
-
你能否给出神经网络的反向传播算法的视觉解释?(github.com/rasbt)
-
反向传播算法如何工作(neuralnetworksanddeeplearning.com)
-
反向传播通过时间和消失的渐变(wildml.com)
-
一个简单的介绍时间反向传播(machinelearningmastery.com)
-
反向传播,直觉(斯坦福CS231n)
深度学习
-
深入学习(nikhilbuduma.com)
-
深度学习教程(Quoc V. Le)
-
什么是深度学习?(machinelearningmastery.com)
-
人工智能,机器学习和深度学习有什么区别?(nvidia.com)
优化和降维
-
数据维度降低的七种技术(knime.org)
-
主成分分析(斯坦福CS229)
-
辍学:改善神经网络的简单方法(Hinton @ NIPS 2012)
-
如何训练你的深度神经网络(rishy.github.io)
长短期记忆网络
-
专家长期短期记忆网络介绍(machinelearningmastery.com)
-
了解LSTM网络(colah.github.io)
-
探索LSTMs(echen.me)
-
任何人都可以学习用Python编写LSTM-RNN(iamtrask.github.io)
卷积神经网络
-
介绍卷积网络(neuralnetworksanddeeplearning.com)
-
深度学习和卷积神经网络(medium.com/@ageitgey)
-
Conv Nets:模块化视角(colah.github.io)
-
了解卷积(colah.github.io)
递归神经网络
-
复发神经网络教程(wildml.com)
-
注意和增广循环神经网络(distill.pub)
-
复发神经网络的不合理有效性(karpathy.github.io)
-
深入研究复发神经网络(nikhilbuduma.com)
强化学习
-
简单的初学者指南强化学习及其实施(analyticsvidhya.com)
-
强化学习教程(mst.edu)
-
学习强化学习(wildml.com)
-
深度强化学习:从像素中傍(karpathy.github.io)
生成对抗网络
-
What’s a Generative Adversarial Network? (nvidia.com)
-
Abusing Generative Adversarial Networks to Make 8-bit Pixel Art(medium.com/@ageitgey)
-
An introduction to Generative Adversarial Networks (with code in - TensorFlow) (aylien.com)
-
Generative Adversarial Networks for Beginners (oreilly.com)
多任务学习
-
An Overview of Multi-Task Learning in Deep Neural Networks(sebastianruder.com)
自然语言处理
-
A Primer on Neural Network Models for Natural Language Processing (Yoav Goldberg)
-
The Definitive Guide to Natural Language Processing (monkeylearn.com)
-
Introduction to Natural Language Processing (algorithmia.com)
-
Natural Language Processing Tutorial (vikparuchuri.com)
-
Natural Language Processing (almost) from Scratch (arxiv.org)
深入学习和NLP
-
Deep Learning applied to NLP (arxiv.org)
-
Deep Learning for NLP (without Magic) (Richard Socher)
-
Understanding Convolutional Neural Networks for NLP (wildml.com)
-
Deep Learning, NLP, and Representations (colah.github.io)
-
Embed, encode, attend, predict: The new deep learning formula for state-of-the-art NLP models (explosion.ai)
-
Understanding Natural Language with Deep Neural Networks Using Torch(nvidia.com)
-
Deep Learning for NLP with Pytorch (pytorich.org)
词向量
-
Bag of Words Meets Bags of Popcorn (kaggle.com)
-
On word embeddings Part I, Part II, Part III (sebastianruder.com)
-
The amazing power of word vectors (acolyer.org)
-
word2vec Parameter Learning Explained (arxiv.org)
-
Word2Vec Tutorial — The Skip-Gram Model, Negative Sampling(mccormickml.com)
Encoder-Decoder
-
Attention and Memory in Deep Learning and NLP (wildml.com)
-
Sequence to Sequence Models (tensorflow.org)
-
Sequence to Sequence Learning with Neural Networks (NIPS 2014)
-
机器学习很有趣第5部分:深度学习的语言翻译和序列的魔力(medium.com/@ageitgey)
-
如何使用编码器 - 解码器LSTM来回显随机整数序列(machinelearningmastery.com)
-
tf-seq2seq(google.github.io)
蟒蛇
-
使用Python掌握机器学习的7个步骤(kdnuggets.com)
-
一个机器学习笔记本的例子(nbviewer.jupyter.org)
例子
-
如何在Python中从头开始实现感知器算法(machinelearningmastery.com)
-
在Python中从头开始实现神经网络(wildml.com)
-
一个11行Python中的神经网络(iamtrask.github.io)
-
使用Python实现自己的k-最近邻算法(kdnuggets.com)
在Python中使用长的短期内存网络演示内存(machinelearningmastery.com ) -
如何学习回应随机整数长期短期记忆递归神经网络(machinelearningmastery.com)
-
如何学习使用seq2seq递归神经网络添加数字(machinelearningmastery.com)
SciPy的和numpy的
-
Scipy讲义(scipy-lectures.org)
-
Python Numpy教程(斯坦福CS231n)
-
Numpy和Scipy(UCSB CHE210D)介绍
-
Python科学家的速成课程(nbviewer.jupyter.org)
scikit学习
-
PyCon scikit-learn教程索引(nbviewer.jupyter.org)
-
scikit-learn分类算法(github.com/mmmayo13)
-
scikit-learn教程(scikit-learn.org)
-
简洁的scikit-learn教程(github.com/mmmayo13)
Tensorflow
-
Tensorflow教程(tensorflow.org)
-
TensorFlow介绍 - CPU vs GPU(medium.com/@erikhallstrm)
-
TensorFlow:引物(metaflow.fr)
-
Tensorflow中的RNN(wildml.com)
-
在TensorFlow中实现CNN进行文本分类(wildml.com)
-
如何使用TensorFlow运行文本摘要(surmenok.com)
PyTorch
-
PyTorch教程(pytorch.org)
-
PyTorch的简介(gaurav.im)
-
教程:PyTorch的深度学习(iamtrask.github.io)
-
PyTorch示例(github.com/jcjohnson)
-
PyTorch教程(github.com/MorvanZhou)
-
PyTorch深度学习研究者教程(github.com/yunjey)
数学
-
数学机器学习(ucsc.edu)
-
数学机器学习(UMIACS CMSC422)
线性代数
-
线性代数的直观指南(betterexplained.com)
-
程序员矩阵乘法的直觉(betterexplained.com)
-
了解交叉产品(betterexplained.com)
-
了解点积(betterexplained.com)
-
线性代数机器学习(美国布法罗CSE574)
-
线性代数作弊表(深度学习)(medium.com)
-
线性代数回顾与参考(斯坦福大学CS229)
概率
-
理解贝叶斯定理与比率(betterexplained.com)
-
概率论概论(斯坦福大学CS229)
-
机器学习的概率论回顾(斯坦福大学CS229)
-
概率论(美国布法罗CSE574)
-
机器学习概率论(多伦多CSC411)
微积分
-
如何理解衍生物:商数规则,指数和对数(betterexplained.com)
-
如何理解衍生品:产品,权力和连锁规则(betterexplained.com)
-
矢量微积分:了解渐变(betterexplained.com)
-
微分学(Stanford CS224n)
-
微积分概述(readthedocs.io)