set,星河战队,性爱巴士

机器学习

在高层次上,机器学习只是研究教授计算机程序或算法如何逐步改进给定的任务。在研究方面,机器学习可以通过理论和数学模型来看待这个过程是如何工作的。然而,更实际的是,研究如何构建展示这种迭代改进的应用程序。有很多方法来构建这个想法,但主要有三个主要的认可类别:监督学习,无监督学习和强化学习。

在一个饱受人工智能,机器学习和过度热心谈论的世界中,学习理解和识别我们可能遇到的机器学紫藤伊莉娜习类型是很有趣的。对于普通计算机用户,这可以采取以下形式:了解机器学习的类型以及它们如何在我们使用的应用程序中展示自己。对于创建这些应用程序的从业者而言,了解机器学习的类型至关重要,这样,对于您可能遇到的任何特定任务,您可以创建适当的学习环境并理解您为什么工作。

监督学习

监督学习是机器学习最流行的范例。这是最容易理解和最简单的实现。这与使用闪存卡教孩子非常相似。

给定带有标签的示例形式的数据,我们可以逐个提供这些示例 - 标签对的学习算法,允许算法预测每个示仕途天才例的标签,并给出反馈是否预测正确的答案。随着时李天煜间的推移,算法将学习近似实例与其标签之间关系的确切性质。完全训练后,监督学习算法将能够观察一个新的,前所未见的例子,并为它预测一个好的标签。

因此,监督学习通常被描述为面向任务的。它高度专注于单一任务,为算法提供越来越多的示例,直到它能够准确地执行该任务。这是您最有可能遇到的学习类型,因为它在以下许多常见应用程序中展示:

  • 广告人气:选择表现良好的广告通常是受监督的学习任务。您在浏览互联网时看到的许多广告都放在那里,因为学习算法表明它们具有合理的受欢迎程度(和可点击性)。此外,它在某个网站上或与某个查询相关联的展示位置(如果您发现自己使用搜索引擎)主要是由于学习的算法表明广告和展示位置之间的匹配将是有效的。
  • 垃圾邮件分类:如果您使用的是现代电子邮件系统,则可能会遇到垃圾邮件过滤器。垃圾邮件过滤器是一种受监督的学习系统。美联储的电子邮件山东岳嘉电子有限公司示例和标签(垃圾邮件/非垃圾邮件),这些系统学习如何抢先过滤掉恶意电子邮件,以免他们的用户骚扰他们。其中许多也表现为用户可以向系统提供新标签并且可以学习用户偏好。
  • 面部识别:你使用Facebook吗?最有可能的是,您的面部已被用于珍宝斑马鱼受过监督的学习算法,该算法经过训练可识别您的面部。拥有一个拍摄照片,查找面孔和猜测照片中的人物(建议标签)的系统是一个受监督的过程。它有多层,找到面孔,然后识别它们,但仍然受到监督。

无监督学习

无监督学习与监督学习完全相反。它没有标签。相反,我们的算法将提供大量数据,并提供了理解数据属性的工具。从那里,它可以学习以一种方式对数据进行分组,聚类和/或组织,使得人(或其他智能算法)可以进入并理解新组织的数据。

无监督学习这样一个有趣领域的原因是,这个世界上绝大多数数据都没有标记。拥有智能算法可以获取我们的太字节和太字节无标川岛雪肤签数据并理解它,这是许多行业潜在利润的巨大来源。仅这一点就可以帮助提高许多领域的生产力。

例如,如果我们有一个包含所有研究论文的大型数据库,并且我们有一个无监督的学习算法,知道如何以这种方式对这些算法进行分组,以便您始终了解特定研究领域的当前进展。现在,您开始自己开始一个研究项目,将您的工作挂钩到算法可以看到的网络中。当您编写工作并记笔记时,算法会向您提供有关相关作品的通关手好吗建议,您可能六年级女孩希望引用的作品,以及甚至可以帮助您推动该研究领域的工作。使用这样的工具,您的工作效率可以得到极大提升。

因为无监督学习是基于数据及其属性,我们可以说无监督学习茜斯安是数据驱动的。无监督学习任务的结果由数据及其格式化方式控制。您可能会看到无监督学习的一些区域:

  • 推荐系统:如果你曾经使用过YouTube或Netflix,你很可能会遇到一个视频推荐系统。这些系统通常被置于无人监督的域中。我们了解视频,可能是长度,类型等。我们也了解许多用户的观看历史。考虑到已经观看了类似视频的用户,然后享受了您尚未看到的其他视频,推荐系统可以在数据中看到这种关系并提示您这样的建议。
  • 购买习惯:您的购买习惯很可能包含在某个地方的数据库中,此时数据正在被积极买卖。这些购买习惯可用于无监督学习算法,以将客户分组为类似的购买部分。这有助于公司向这些分组细分市场推广,甚至可以类似于推荐系统。
  • 对用户日志进行分组:面向用户较少,但仍然非常相关,我们可以使用无监督学习对用户日志和问题进行分组。通过改进产品或设计常见问题解答来处理常见问题,这可以帮助公司确定客户面临的问题的中心主题并纠正这些问题。无论哪种方式,它都是积极完成的事情,如果您女尿尿曾经提交产品问题或提交了错误报告,很可能是它被提供给无监督的学习算法,以便将其与其他类似问题进行聚类。马禄昌

强化学习

与监督和无监督学习相比,强化学习是完全不同的。在我们可以很容易地看到监督和无监督之间的关系(标签的存在与否),与强化学习的关系有点模糊。有些人试图通过将强化学习描述为一种依赖于时间依赖的标签序列的学习类型来将强化学习与两者联系那书总不完结起来,但是,我认为这只会让事情变得更加混乱。

我更愿意将强化学习视为从错误中吸取教训。将强化学撞见小偷机智送客习算法放入任何环境中,一开始就会犯很多错误。只要我们向算法提供某种信号,将良好的行为与正面信号联系起来,将不良行为与负面行为联系起情燃芦苇沟来,我们就可以强化我们的算法,使其偏好不良行为。随着时间的推移set,星河战队,性爱巴士,我们的学习算法学会了比以前更少的错误。

强化学习是行为驱千隆问屈术动的。它受到神经科学和心理学领域的影响。如果你听说过巴甫洛夫的狗,那么你可能已经熟悉了加强药剂的想法,尽管这是一种生物药剂。

但是,为了真正理解强化学习,让我们分解一个具体的例子。让我们来看一个代理人来玩马里奥游戏吧。

对于任何强化学习问题,我们需要一个代理和一个环境以及通过反馈循环连接两者的方法。为了将代理连接到环境,我们巨思特教育集团为它提供了一组可以影响环境的操作。为了将环境连接到代理,我们不断向代理发出两个信号:更新状态和奖励(我们的行为强化信号)。

在马里奥的游戏中,我们的代理是我们的学习算法,我们的环境就是游戏(很可能是亿博青春汇特定级别)。我们的代理人有一系列行动。这些将是我们的按钮状态。随着时间的推移,我们更新的状态将是每个游戏框架,我们的奖励信号将是分数的变化。只要我们将所有这些组件连接在一起,我们就会设置一个强化学习场景来玩Mario游戏。

在现实世界中强化学习在哪里?

  • 视频游戏:最常见的强化学习方法之一是学习玩游戏。看看谷歌的强化学习应用程序AlphaZero和AlphaGo,它们学会了玩游戏Go。我们的马里奥示例也是一个常见的例子。目前,我不知道任何具有强化学习代理作为其游戏AI的生产级游戏,但我可以想象这将很快成为游戏开发者使用的一个有趣选择。
  • 工业仿真:对于许多机器人应用(想想装配线),让我们的机器学会完成任务而不必对其进程进行硬编码是很有用的。这可以是更便宜和更安全的选择; 它甚至可以不那么容易失败。我们还可以激励我们的机器使用更少的电力,以节省我们的钱。更重要的是,我们可以在模拟中开始这一切,以便在我们可能破坏我们的机器时不浪费钱。
  • 资源管理:强化学习有助于导航复杂的环境。它可以满足平衡某些要求的需要。以Google的数据中心为例。他们使用强化学习来平衡满足我们的电力需求的需要,但尽可能有效地做到这一点,降低了主要成本。这对我们和普通人有何影响?我们的数据存储成本也更低,对我们共享的环境影响也更小。

将它们捆绑在一起

现在我们已经讨论了三种不同类型的机器学习,重要的是要注意很多时候这些类型的学习模糊之间的界限。更重要的是越南天团hkt,有很多任务可以很容易地被表述为一种学习类型,然后转变为另一种范式。

例如,采用推荐系统。我们将其作为无监督学习任务进行了讨论。它也可以很容易地被重新定义为监督任务。鉴于一大堆用户的观看历史记录,预测是否应该推荐某部电影。这样做的原因是,最终所有的学习都是学习。这就是我们如何说出问题陈述。某刘也行渣男些问题更容易以这种或那种方式表达。

这也突出了另一个有趣的想法。我们可以混合这些类型的学习,设计以某种方式学习的系统组件,但是在一个更大的算法中集成在一起。