Home » 监督式机器学习与无监督式机器学习

监督式机器学习与无监督式机器学习

在机器学习领域,基本区分为三个不同的类别:

监督学习中,对未来事件的结论和预测是基于结构化、历史输入和结果数据(例如用户数据和转换)做出的。输出值始终充当与独立输入变量相关的依赖“标签”。
据估计,目前大约 70% 的机器学习应用都属于这一研究充分的领域。营销中典型的监督式机器学习应用包括数据驱动监督式机器学的收入预测或将客户群划分为预定义的细分和类别(分类)。

这与无监督学习形成对比

这些算法和模型用于识别大量数据中的模式,而无需预定义的依赖性或相关性。例如,在在线营销中,这有助于准确地将网站访问者划分为不同的、尚未定义的群体,然后向他们发送针对他们的广告信息(聚类)。

强化学习中,机器学习过程 电报筛查 是通过与通常预定义的环境的交互进行的。积极的行为会得到奖励,并且鼓励系统在未来以同样的方式行事。目前,许多此类应用和发展都可以在游戏和机器人领域找到。

监督学习的挑战主要在于数据预处理以及提前提出系统应该学习的正确问题。该模型只能解决我们教导它的任务和问题,并且只能理解我们预先定义的相关性。因此,人类偏见在这里比在无监督学习中发挥更大的作用。谷歌等团队目前正在解决的一个问题:

甚至在学习过程之前,就可以

确保模型需要更少的计算能力,监督式机器学从而更快地提供可靠的结果。这里的调整示例包括删除不必要的列(例如关键字报告中的货币列)和标签编码字符串(关键字或位置等文本块),即将它们转换为系统更容易解释的数值。

通过在实际训练之前对监督式 将其品牌与行业内的巨头区分开来 机器学数据进行可视化,例如使用直方图或散点图,我们可以提前了解集合中是否有足够的数据供机器学习。这样,我们可以在早期阶段将模型的解释力质量引导到正确的方向,并避免过度拟合欠拟合等现象。

20世纪30年代,瑞士心理学家让·皮亚杰在他的后代中发现了一个有趣的现象。这些还很年幼的孩子们在与周围环境互动时取得了快速的学习和感官进步。他们将经验知识运用到新情况中以便了解新情况。

然而,他们已经监督式机器学形成的关于世界的最初观念最初只是被新的信息缓慢地改变或取代。今天我们说“更新”。

例如,如果一个孩子已经熟悉了狗的图式,然后第一次遇到一只猫,那么在他的眼里它也是一只狗,因为这种动物用四条腿走路,并且有毛。只有通过更频繁地接触猫来积累额外的经验,孩子才能够根据各种标准区分猫和狗。

皮亚杰将此称为同化(通过经验 联合王国数据 吸收知识)和顺应(知识被改变和替代)。

有趣的是,机器学习的过程与我们小时候经历的过程并没有太大的不同。事实上,未经训练的机器与小孩的比较在科学出版物中经常出现。
两者的共同点是经验相对有限,甚至完全没有。最初,可用来得出结论的数据很少,甚至不存在。

例如,具有可管理数据量的机器最初会非常有信心地将猫归类为狗。只有机器将动物视为一列又一列的数据,并通过计算和算法得出结论。随着经验的增加,通过进一步的数据输入和有关猫的更多信息,可靠地区分两种动物的能力将大大提高。机器的同化和适应失败

机器学习模型的学习过程总是经历四个步骤。所有 ML 模型和应用程序中都存在这一过程;从社交媒体信息流到自动驾驶汽车。

返回頂端