聊聊多任务学习

聊聊,多任务,学习 · 浏览次数 : 15

小编点评

**多任务学习** 多任务学习是指将多个相关(related)的任务(task)放在一起学习。这样做可以帮助机器学习模型更全面地学习每个任务,并获得更高的泛化效果。 **多任务学习的特点:** * 多任务学习中多个任务共享一些因素。 * 多任务学习比单任务学习能去的更好的泛化效果。 * 损失函数可以用来估量模型的预测值与真实值之间的差异。 **多任务学习的优势:** * 多任务学习可以帮助机器学习模型更全面地学习每个任务。 * 多任务学习可以获得更高的泛化效果。 * 多任务学习可以帮助机器学习模型在多个任务上获得更好的性能。

正文

最近翻译的一篇分享中,主要讲解了多任务学习的各个方面,很多的专业术语与概念都不清楚,因此简单的整理了下相关的知识,做个笔记。

概述

现在大多数机器学习任务都是单任务学习。对于复杂的问题,也可以分解为简单且相互独立的子问题来单独解决,然后再合并结果,得到最初复杂问题的结果。这样做看似合理,其实是不正确的,因为现实世界中很多问题不能分解为一个一个独立的子问题,即使可以分解,各个子问题之间也是相互关联的,通过一些共享因素或共享表示(share representation)联系在一起。把现实问题当做一个个独立的单任务处理,忽略了问题之间所富含的丰富的关联信息。多任务学习就是为了解决这个问题而诞生的。把多个相关(related)的任务(task)放在一起学习。这样做真的有效吗?答案是肯定的。多个任务之间共享一些因素,它们可以在学习过程中,共享它们所学到的信息,这是单任务学习所具备的。相关联的多任务学习比单任务学习能去的更好的泛化(generalization)效果。

损失函数

损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度。
机器学习算法系列(18):偏差与损失函数

专业词汇解释

CTR:Click-through rate,点击率
CVR:Conversion Rate,转化率
YSL:衍生率即点击后进入第二个页面后续的点击次数
BIAS:偏差,定义为学习算法的期望预测与真实结果的偏离程度
MMOE:

  1. 多任务学习的算法模型;全称 Multi-gate Mixture-of-Experts;
  2. 增加Expert层与gate层
  3. 参考
    1. 推荐系统(十五)多任务学习:谷歌MMoE(Multi-gate Mixture-of-Experts )
    2. 多任务学习(必读)

UWL:

  1. 多任务损失优化算法,全称: Uncertainty Weigh Losses
  2. 参考:
    1. 多任务损失优化
    2. 论文笔记:Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics

帕累托最优:

  1. 在帕累托最优下,多目标中的任何一个目标都不可能在不损害其他目标的前提下进行优化。
  2. 参考
    1. 个性化帕累托最优多目标推荐
    2. 多目标优化之帕累托最优

参考:
多目标推荐那些事儿(必读)

与聊聊多任务学习相似的内容:

聊聊多任务学习

最近翻译的一篇分享中,主要讲解了多任务学习的各个方面,很多的专业术语与概念都不清楚,因此简单的整理了下相关的知识,做个笔记。 ### 概述 现在大多数机器学习任务都是单任务学习。对于复杂的问题,也可以分解为简单且相互独立的子问题来单独解决,然后再合并结果,得到最初复杂问题的结果。这样做看似合理,其实

聊聊基于Alink库的随机森林模型

概述 随机森林(Random Forest)是一种集成学习(Ensemble Learning)方法,通过构建多个决策树并汇总其预测结果来完成分类或回归任务。每棵决策树的构建过程中都引入了随机性,包括数据采样和特征选择的随机性。 随机森林的基本原理可以概括如下: 随机抽样训练集:随机森林通过有放回抽

聊聊wireshark的进阶使用功能

emmm,说起网络知识学习肯定离不来wireshark工具,这个工具能够帮助我们快速地定位网络问题以及帮助正在学习网络协议这块的知识的同学验证理论与实际的一大利器,平时更多的只是停留在初步的使用阶段。也是利用部门内部的网络兴趣小组的讨论机会,私下对wireshark的一些进阶功能,比如专家模式、图表等功能进行调研,并结合实际场景抓包分析对功能进行对照说明。

聊聊JDK19特性之虚拟线程

在读《深入理解JVM虚拟机》这本书前两章的时候整理了JDK从1.0到最新版本发展史,其中记录了JDK这么多年来演进过程中的一些趣闻及引人注目的一些特性,在调研JDK19新增特性的时候了解到了虚拟线程这个概念,于是对虚拟线程进行学习整理内容如下。

冷知识:预处理字符串操作符

当年学习C语言的第一门课就提到过标记(Token)的概念,不过,相信在多年之后你再次听到这个术语时会一脸懵逼,比如我。那么就来聊聊比较冷门的预处理字符串操作符吧。

聊聊Mybatis集成Spring的原理

一般都是研究框架源码,我为什么要反过来研究集成原理呢? 在我自己看来,集成虽然比较简单,但要求的细节比较多,需要掌握根本性的东西才能做到集成。 Mybatis集成Spring用到了FactoryBean以及BeanDefinition注册的原理,从这两个维度来实现集成,而我们单独学习Spring时,

聊聊我认为的OpenFeign

此篇文章不从源码角度解析,网上一搜一大把。我个人的习惯是自己评估与思考下大概的设计思路是什么,然后看源码与博客佐证。否则一来就是使用然后看源码,一坨一坨的代码,真的看的头疼。以上仅是个人的学习方法。 聊聊OpenFeign,其实这个框架,之前用过,但没留意太多;说白了这个框架的出现就是为了让我们做R

[转帖]聊聊 ARM 与 RISC-V(转自邵巍的专栏《说透芯片》)

https://aijishu.com/a/1060000000218521 编者按:2个月前,我在《【揭秘半导体产业,助力中国芯】Winnie shao博士开课了!》中推荐过邵巍博士的这个专栏课程。今天再次推荐是因为全部内容已经连载完成。 可以看到,已经有1700多位读者朋友付费学习。由于时间等原

李沐:用随机梯度下降来优化人生!

大侠幸会,在下全网同名「算法金」 0 基础转 AI 上岸,多个算法赛 Top 「日更万日,让更多人享受智能乐趣」 今天我们来聊聊达叔 6 大核心算法之 —— 优化 算法。吴恩达:机器学习的六个核心算法! 梯度下降优化算法是机器学习和深度学习中最常用的优化算法之一。它通过不断调整模型参数,使得损失函数

Rsync原理的学习与总结

Rsync原理的简单学习 前言 工作这么多年, 感觉对自己帮助最大的是rsync. 用了很多rsync的脚本, 甚至因为这个脚本授权了两个专利. 但是昨天晚上在跟高手聊天时发现 自己对rsync 其实不了解. 对他底层的一些算法和实现,其实都是不清不楚的. 说实话感触挺深的. 以后自己用东西,还是必