资源 | 机器学习、NLP、Python和Math最好的150余个教程(建议收藏)

资源 | 机器学习、NLP、Python和Math最好的150余个教程(建议收藏)

尽管机器学习的历史可以追溯到1959年年,但目前,这个领域正以前所未有的速度发展。最近,我一直在网上寻找关于机器学习和自然语言处理各方面的好资源,为了帮助到和我有相同需求的人,我整理了一份迄今为止我发现的最好的教程内容列表。

通过教程中的简介内容讲述一个概念。避免了包括书籍章节涵盖范围广,以及研究论文在教学理念上做的不好的特点。

我把这篇文章分成四个部分:机器学习,自然语言处理,巨蟒和数学。

每个部分中都包含了一些主题文章,但是由于材料巨大,每个部分不可能包含所有可能的主题,我将每个主题限制在5到6个教程中。(由于微信不能插入外链,请点击“阅读原文”查看原文)


机器学习

  • 机器学习很有趣!(medium.com/@ageitgey)

  • 机器学习速成课程:第一部分,第二部分,第三部分(柏克莱机器学习)

  • 机器学习理论及其应用介绍:带示例的可视化教程(toptal.com)

  • 机器学习的温柔指南(monkeylearn.com)

  • 我应该使用哪种机器学习算法?(sas.com)

激活和损失函数

  • 乙状神经元(neuralnetworksanddeeplearning.com)

  • 激活函数在神经网络中的作用是什么?(quora.com)

  • 神经网络中激活函数的综合列表(stats.stackexchange.com)

  • 激活功能和它的类型 - 哪个更好?(medium.com)

  • 让对数损失感(exegetic.biz)

  • 损失函数(斯坦福CS231n)

  • L1与L2损失函数(rishy.github.io)

  • 交叉熵代价函数(neuralnetworksanddeeplearning.com)

偏压

  • 偏差在神经网络中的作用(*.com)

  • 神经网络中的偏置节点(makeyourownneuralnetwork.blogspot.com)

  • 什么是人工神经网络的偏见?(quora.com)

感知器

  • 感知器(neuralnetworksanddeeplearning.com)

  • 感知(natureofcode.com)

  • 单层神经网络(感知器)(dcu.ie)

  • 从感知器到深度网络(toptal.com)

回归

  • 线性回归分析介绍(duke.edu)

  • 线性回归(ufldl.stanford.edu)

  • 线性回归(readthedocs.io)

  • Logistic回归(readthedocs.io)

  • 简单的线性回归教程机器学习(machinelearningmastery.com)

  • 机器学习的Logistic回归教程(machinelearningmastery.com)

  • Softmax回归(ufldl.stanford.edu)

梯度下降算法

  • 学习梯度下降(neuralnetworksanddeeplearning.com)

  • 渐变下降(iamtrask.github.io)

  • 如何理解渐变下降算法(kdnuggets.com)

  • 梯度下降优化算法概述(sebastianruder.com)

  • 优化:随机梯度下降(斯坦福CS231n)

生成式学习

  • 生成式学习算法(Stanford CS229)

  • 朴素贝叶斯分类器(monkeylearn.com)的实际解释

支持向量机

  • 支持向量机(SVM)简介(monkeylearn.com)

  • 支持向量机(Stanford CS229)

  • 线性分类:支持向量机,Softmax(斯坦福231n)

反向传播

  • 是的,你应该了解backprop(medium.com/@karpathy)

  • 你能否给出神经网络的反向传播算法的视觉解释?(github.com/rasbt)

  • 反向传播算法如何工作(neuralnetworksanddeeplearning.com)

  • 反向传播通过时间和消失的渐变(wildml.com)

  • 一个简单的介绍时间反向传播(machinelearningmastery.com)

  • 反向传播,直觉(斯坦福CS231n)

深度学习

  • 深入学习(nikhilbuduma.com)

  • 深度学习教程(Quoc V. Le)

  • 什么是深度学习?(machinelearningmastery.com)

  • 人工智能,机器学习和深度学习有什么区别?(nvidia.com)

优化和降维

  • 数据维度降低的七种技术(knime.org)

  • 主成分分析(斯坦福CS229)

  • 辍学:改善神经网络的简单方法(Hinton @ NIPS 2012)

  • 如何训练你的深度神经网络(rishy.github.io)

长短期记忆网络

  • 专家长期短期记忆网络介绍(machinelearningmastery.com)

  • 了解LSTM网络(colah.github.io)

  • 探索LSTMs(echen.me)

  • 任何人都可以学习用Python编写LSTM-RNN(iamtrask.github.io)

卷积神经网络

  • 介绍卷积网络(neuralnetworksanddeeplearning.com)

  • 深度学习和卷积神经网络(medium.com/@ageitgey)

  • Conv Nets:模块化视角(colah.github.io)

  • 了解卷积(colah.github.io)

递归神经网络

  • 复发神经网络教程(wildml.com)

  • 注意和增广循环神经网络(distill.pub)

  • 复发神经网络的不合理有效性(karpathy.github.io)

  • 深入研究复发神经网络(nikhilbuduma.com)

强化学习

  • 简单的初学者指南强化学习及其实施(analyticsvidhya.com)

  • 强化学习教程(mst.edu)

  • 学习强化学习(wildml.com)

  • 深度强化学习:从像素中傍(karpathy.github.io)

生成对抗网络

  • What’s a Generative Adversarial Network? (nvidia.com)

  • Abusing Generative Adversarial Networks to Make 8-bit Pixel Art(medium.com/@ageitgey)

  • An introduction to Generative Adversarial Networks (with code in - TensorFlow) (aylien.com)

  • Generative Adversarial Networks for Beginners (oreilly.com)

多任务学习

  • An Overview of Multi-Task Learning in Deep Neural Networks(sebastianruder.com)

自然语言处理

  • A Primer on Neural Network Models for Natural Language Processing (Yoav Goldberg)

  • The Definitive Guide to Natural Language Processing (monkeylearn.com)

  • Introduction to Natural Language Processing (algorithmia.com)

  • Natural Language Processing Tutorial (vikparuchuri.com)

  • Natural Language Processing (almost) from Scratch (arxiv.org)

深入学习和NLP

  • Deep Learning applied to NLP (arxiv.org)

  • Deep Learning for NLP (without Magic) (Richard Socher)

  • Understanding Convolutional Neural Networks for NLP (wildml.com)

  • Deep Learning, NLP, and Representations (colah.github.io)

  • Embed, encode, attend, predict: The new deep learning formula for state-of-the-art NLP models (explosion.ai)

  • Understanding Natural Language with Deep Neural Networks Using Torch(nvidia.com)

  • Deep Learning for NLP with Pytorch (pytorich.org)

词向量

  • Bag of Words Meets Bags of Popcorn (kaggle.com)

  • On word embeddings Part I, Part II, Part III (sebastianruder.com)

  • The amazing power of word vectors (acolyer.org)

  • word2vec Parameter Learning Explained (arxiv.org)

  • Word2Vec Tutorial — The Skip-Gram Model, Negative Sampling(mccormickml.com)

Encoder-Decoder

  • Attention and Memory in Deep Learning and NLP (wildml.com)

  • Sequence to Sequence Models (tensorflow.org)

  • Sequence to Sequence Learning with Neural Networks (NIPS 2014)

  • 机器学习很有趣第5部分:深度学习的语言翻译和序列的魔力(medium.com/@ageitgey)

  • 如何使用编码器 - 解码器LSTM来回显随机整数序列(machinelearningmastery.com)

  • tf-seq2seq(google.github.io)

蟒蛇

  • 使用Python掌握机器学习的7个步骤(kdnuggets.com)

  • 一个机器学习笔记本的例子(nbviewer.jupyter.org)


例子


  • 如何在Python中从头开始实现感知器算法(machinelearningmastery.com)

  • 在Python中从头开始实现神经网络(wildml.com)

  • 一个11行Python中的神经网络(iamtrask.github.io)

  • 使用Python实现自己的k-最近邻算法(kdnuggets.com)
    在Python中使用长的短期内存网络演示内存(machinelearningmastery.com

  • 如何学习回应随机整数长期短期记忆递归神经网络(machinelearningmastery.com)

  • 如何学习使用seq2seq递归神经网络添加数字(machinelearningmastery.com)

SciPy的和numpy的

  • Scipy讲义(scipy-lectures.org)

  • Python Numpy教程(斯坦福CS231n)

  • Numpy和Scipy(UCSB CHE210D)介绍

  • Python科学家的速成课程(nbviewer.jupyter.org)

scikit学习

  • PyCon scikit-learn教程索引(nbviewer.jupyter.org)

  • scikit-learn分类算法(github.com/mmmayo13)

  • scikit-learn教程(scikit-learn.org)

  • 简洁的scikit-learn教程(github.com/mmmayo13)

Tensorflow

  • Tensorflow教程(tensorflow.org)

  • TensorFlow介绍 - CPU vs GPU(medium.com/@erikhallstrm)

  • TensorFlow:引物(metaflow.fr)

  • Tensorflow中的RNN(wildml.com)

  • 在TensorFlow中实现CNN进行文本分类(wildml.com)

  • 如何使用TensorFlow运行文本摘要(surmenok.com)

PyTorch

  • PyTorch教程(pytorch.org)

  • PyTorch的简介(gaurav.im)

  • 教程:PyTorch的深度学习(iamtrask.github.io)

  • PyTorch示例(github.com/jcjohnson)

  • PyTorch教程(github.com/MorvanZhou)

  • PyTorch深度学习研究者教程(github.com/yunjey)

数学

  • 数学机器学习(ucsc.edu)

  • 数学机器学习(UMIACS CMSC422)


线性代数


  • 线性代数的直观指南(betterexplained.com)

  • 程序员矩阵乘法的直觉(betterexplained.com)

  • 了解交叉产品(betterexplained.com)

  • 了解点积(betterexplained.com)

  • 线性代数机器学习(美国布法罗CSE574)

  • 线性代数作弊表(深度学习)(medium.com)

  • 线性代数回顾与参考(斯坦福大学CS229)


概率

  • 理解贝叶斯定理与比率(betterexplained.com)

  • 概率论概论(斯坦福大学CS229)

  • 机器学习的概率论回顾(斯坦福大学CS229)

  • 概率论(美国布法罗CSE574)

  • 机器学习概率论(多伦多CSC411)


微积分

  • 如何理解衍生物:商数规则,指数和对数(betterexplained.com)

  • 如何理解衍生品:产品,权力和连锁规则(betterexplained.com)

  • 矢量微积分:了解渐变(betterexplained.com)

  • 微分学(Stanford CS224n)

  • 微积分概述(readthedocs.io)

上一篇:《电子基础与维修工具核心教程》——2.6 节点分压原理


下一篇:Node.js学习笔记(十六、Express 框架)