这个思路主要是来源于这篇论文论文
dim技术在处理抠图的时候可以的到发色级别的精细,但是dim的输入需要一个trimap.这篇论文便是提出了使用语义识别的方案在第一步产生trimap图片,作为第二步的输入
作者在论文中使用的语义分割用的是另一套源码,在此我测试用的是facebook的detectron2 github上有很多的开源代码,无论你使用哪个,最后只要能进行语义分割,产生相关的轮廓就可以.
得到轮廓之后,需要处理哪些是背景,哪些是前景.论文中作者只是通过类别进行区分,比如从中筛选人物的分类,实际使用中感觉有时候并不好使
第二步的dim在github上依然有很多开源项目,可以参考https://www.jianshu.com/p/91fc778cf4ed的说明.也有相关代码. 神经网络的代码都比较简单,但是训练起来非常费劲
测试地址 点滴抠图,效果如下