博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
论文研读:CVPR2020 相关文章
阅读量:2089 次
发布时间:2019-04-29

本文共 3046 字,大约阅读时间需要 10 分钟。

目录


What Can Be Transferred: Unsupervised Domain Adaptation for Endoscopic Lesions Segmentation(cvpr2020)

Author:Jiahua Dong,..., Xiaowei Xu

问题:迁移的时候对所有信息同等对待,有些信息会损耗目标网络。how to automatically capture transferable visual characterizations and semantic representations while neglecting irrelevant knowledge across domains

方法:
  • alternatively determine where and how to explore transferable domain-invariant knowledge。
  • 模块1:残差转化模块  residual transferability-aware bottleneck is developed for TD to highlight where to translate transferable
    visual information while preventing irrelevant translation。TD 不能保证俩domain的特征对齐。
    个人觉得类似于风格迁移
  • 模块2:Residual Attention on Attention Block (RA2B) is proposed to encode domain-invariant knowledge with high transferability scores, which assists TF in exploring how to augment transferable semantic features and boost the translation performance of module TD in return  用的Attention机制加强某些转化的特征
  • 环结构,参数交替更新。Our model could be regarded as a closed loop to alternatively update the parameters of T
    D
    and 
    TF
 

DEPARA: Deep Attribution Graph for Deep Knowledge Transferability(cvpr2020 oral)

Author:
Jie Song,..., Mingli Song
 
问题:迁移学习中,对目标任务来说,哪个预训练模型或layer更有用?最优的layer选择有许多因素:任务相关性、目标数据数量等
 
方法:
  1. probe data:无标注的目标数据
  2. Nodes:每一个data的attribution
  3. attribution计算=Gradient*Input,
  4. Edges:每两个点之间的cosine similarity
  5. 这样对于每一个任务都能有一个Graph,由此计算任务之间的相似性:
  6. 由于F是来自于不同模型、不同layer,所以也能计算选择哪一层作为迁移

 

Steering Self-Supervised Feature Learning Beyond Local Pixel Statistics

出发点:discriminate global image statistics.

亮点:

  1. local statistics are largely unchanged, while global statistics are clearly altered
  2. 最后的loss function中以inpainter为主,自监督训练和classifier不冲突:
    1. 这样做有以下好处:
    2. A separate tuning of training parameters is possible, 2) GAN tricks can be applied without affecting the classififier C, 3) GAN training can be stable even when the classififier wins

自监督方法框架:通过一个边框复原的方法复原的图像和原图差异是非常大的

其中的classifier模块:

 

Self-supervised Learning of Interpretable Keypoints from Unlabelled Videos

亮点:无监督关键点识别

方法:利用一个和目标数据集无关的其他参考pose,去拟合一个分布

 

Distilling Cross-Task Knowledge via Relationship Matching

问题:目前的蒸馏方法its dependence on the instance-label relationship restricts both teacher and student to the same label space.

通用蒸馏方法:

方法:emphasize the instance-instance relationship to bridge the knowledge transfer across different tasks

  1. 使用triplet,将T、S的特征层迁移过去。xi,xj,xk代表一组triple,P代表T和S各自产生的度量空间
  2. 迁移分类层:在每一个mini-batch中,让student的序号label1靠近Teacher的序号label1

 

Revisiting Knowledge Distillation via Label Smoothing Regularization

问题:对于传统知识蒸馏的探讨(大Teacher训练小Student)

发现:

  1. 小模型同样能促进大模型学习(Reversed KD
  2. poorly-trained teacher models with worse performance can also boost students.(Defective KD )
  3. Knowledge distillation is a learned label smoothing regularization(LSR) 
方法:本文在发现3的基础上提出了Teacher-free Knowledge Distillation (Tf-KD)。框架=
  + Soft targets
 
 

Unsupervised Domain Adaptation via Structurally Regularized Deep Clustering

we are motivated 
by the assumption of structural domain similarity, and pro
pose to directly uncover the intrinsic target discrimination
via discriminative clustering of target data.

转载地址:http://ryeqf.baihongyu.com/

你可能感兴趣的文章
比较常见的数据库SQL面试题以及答案
查看>>
MySQL与Oracle的区别
查看>>
关于Oracle数据库优化的几点总结
查看>>
69道Spring面试题和答案
查看>>
40个Java多线程问题总结
查看>>
Oracle数据库面试题
查看>>
java面试中的智力题
查看>>
本地如何连接hbase数据库
查看>>
Maven出错-Missing artifact org.apache.openejb:openejb-core:jar:4.1.0-SNAPSHOT:test
查看>>
dubbo配置文件xml校验报错
查看>>
eclipse生成export生成jar详解
查看>>
oracle 模糊查询忽略大小写
查看>>
Java项目导出可运行的jar文件
查看>>
Java文件夹操作,判断多级路径是否存在,不存在就创建(包括windows和linux下的路径字符分析),兼容Windows和Linux
查看>>
JAVA读取PROPERTIES配置文件
查看>>
Linux中执行shell脚本的4种方法总结
查看>>
BufferedInputStream(缓冲输入流)详解
查看>>
修改linux文件权限命令:chmod
查看>>
Linux vi/vim编辑器常用命令与用法总结
查看>>
如何使用Git Bash Here,将本地项目传到github上
查看>>