网页功能: 加入收藏 设为首页 网站搜索  
 业界新闻
  · IT要闻
  · IT业界
  · 通信
  · 互联网
  · 科学
  · 家电
  · IT评论
  · 数码资讯
  · 硬件行情
  · 手机
  · 笔记本
  · 软件下载
 当前位置: 立华软件园 - 业界新闻 - 科学
学界 | Ian Goodfellow最新论文:用于隐私训练数据的深度学习的半监督知识迁移
发表日期:2016-10-22作者:sohu.com 出处:it.sohu.com  

选自Arxiv.org

机器之心编译

参与:武竞

  

摘要

有些机器学习应用涉及敏感的训练数据,例如临床试验中患者的医疗史。一个模型可能无意中隐含地存储一些训练数据的信息;因此仔细分析模型可能会揭示其敏感信息。

为了解决这个问题,我们展示了一个普遍适用的方法,为训练数据提供了强大的隐私保证。该方法以黑盒的方式结合了用不相交数据集训练的多个模型,例如来自不同用户子集的记录。由于他们直接依赖敏感数据,因此这些模型不会公开,而是作为学生模型(student model)的教师(teacher)。学生模型的预测结果由所有教师模型的投票结果产生,学生模型不能直接访问单个教师模型或底层数据或参数。在差分隐私(differential privacy)方面,学生模型的隐私属性可以直观地(由于不知道单独的教师模型,因此学生模型无法反映单个数据集)和正式地被理解。即使敌手不仅可以查询学生模型,而且可以检查内部运作,这些隐私属性仍然成立。

与以前的工作相比,这种方法只加强了教师模型如何被训练的弱假设:它适用于任何模型,包括如 DNN 的非凸(non-convex)模型。由于使用了改进的隐私分析和半监督学习,我们在 MNIST 和 SVHN 上实现了最先进的隐私与实用的权衡。

©本文由机器之心编译,转载请联系本公众号获得授权

  ?------------------------------------------------

加入机器之心(全职记者/实习生):hr@almosthuman.cn

投稿或寻求报道:editor@almosthuman.cn

广告&商务合作:bd@almosthuman.cn

it.sohu.com true 机器之心mp http://it.sohu.com/20161021/n471003902.shtml report 1847 选自Arxiv.org机器之心编译参与:武竞摘要有些机器学习应用涉及敏感的训练数据,例如临床试验中患者的医疗史。一个模型可能无意中隐含地存储一些训练数据的信息;
上一篇:前沿 | 揭秘微软量子计算研究:拓扑量子计算机
下一篇:3D 骨头将成未来希望?

查看源文

  

关于我们 / 合作推广 / 给我留言 / 版权举报 / 意见建议 / 广告投放  
Copyright ©2003-2024 Lihuasoft.net webmaster(at)lihuasoft.net
网站编程QQ群   京ICP备05001064号 页面生成时间:0.00221