今晚听了李文博士的报告“Domain Generalization and Adaptation using Low-Rank Examplar Classifiers”,讲的很精彩。自己第一次听说domain generalization和domain adaptation,故此简单记录一下。很多机器学习的任务都假设样本是独立同分布的(i.i.d),但是真实世界的数据往往不一样都满足。训练样本和测试样本之间分布可能存在偏差。这是因为数据集本身可能是存在biased,比如:比较经典的几个数据集imagenet,caltech等,都有各自的特点;还有就是真实的数据集是具有多样性的,用domain A的数据对一类物体进行训练,在domian B的同一类物体进行识别,表现往往都有下降。所以在模式识别、人脸识别、动作识别时候需要解决模型的泛化和自适应问题。
他们提出用examplar SVM进行分类,并且考虑到预测的稀疏性,融合了低秩矩阵的概念。为了加快训练,损失函数那块用exp替代log,用矩阵的block inverse来加快矩阵求逆。感觉工作量很充足,不愧是一篇TPAMI的文章。向大牛看齐。另外给出李文博士的个人主页:http://www.vision.ee.ethz.ch/~liwenw/