AI-For-Beginners
第一章:人工智能简介
第二章:知识表征和专家系统
本文档使用 WYMF 发布
-
+
首页
第一章:人工智能简介
![Summary of Introduction of AI content in a doodle](https://github.com/microsoft/AI-For-Beginners/raw/main/lessons/sketchnotes/ai-intro.png) ## 简介 **人工智能(Artificial Intelligence)** 是一门令人振奋人心的科学学科。它主要研究如何让计算机表现出智能的行为。例如,做一些人类比较得心应手的事。 起初,计算机是由 Charles Babbage 发明的,被用于按照特定的指令流程(即算法)对数字进行运算。现在的计算机已经很先进了,但是其仍然符合最初的设计目的。因此计算机一般用来执行一些目标明确且执行步骤可拆解的重复性工作。 ![Photo of a person](https://github.com/microsoft/AI-For-Beginners/raw/main/lessons/1-Intro/images/dsh_age.png) > Photo by [Vickie Soshnikova](http://twitter.com/vickievalerie) 在现实生活中,我们经常会遇到一些我们不知道如何通过确切的步骤去解决的问题。比如通过照片去判断一个人的年龄。人们之所以能做到,是因为他们见过很多不同年龄段的人。但是不能够确切的解释如何做到的,且无法利用计算机来模拟。而这样的任务,就是人工智能所要解决的。 ## Weak AI vs. Strong AI | Weak AI | Strong AI | | --- | --- | | Weak AI 指的是一些被用于特定任务集合所设计的 AI 系统 | Strong AI, or 通用人工智能 (AGI)是指需要 AI 系统具备人类级别的理解能力和智能程度 | | 这样的 AI 系统不具备通用智能,他们在特定任务上表现的突出,但是缺乏理解和认知 | 这样的 AI 系统有能力完成一些人类能够做到的智能化任务,不限于特定领域。并且具备一些认知和自我意识。 | | Weak AI 的例子包括像 Siri 这样的语音助手、推荐算法、一些特定任务服务的聊天机器人 | 实现 Strong AI 是人工智能领域里的长期目标,需要不断的开发 AI 系统的推理、学习、理解和适应不同环境、不同任务的能力 | |Weak AI 是高度定制化的,并不具备像人一样具备自我认知,也不具备非特定领域外的通用任务解决能力 |Strong AI 目前还是一个理论上的概念,还没有系统能够达到这个程度 | 更多 AGI 的信息可以查阅 **[Artificial General Intelligence](https://en.wikipedia.org/wiki/Artificial_general_intelligence)** ## 智能的定义和图灵测试 智能(Intelligence)这个词,本身就没有一个明确的定义。我们经常把智能和自我意识和抽象的思维联系到一起,但是并不能给出合理的定义。 ![Photo of a Cat](/media/202401/2024-01-13_1100000.725002379266596.png) > [Photo](https://unsplash.com/photos/75715CVEJhI) by [Amber Kipp](https://unsplash.com/@sadmax) from Unsplash 要进一步的去思考这个词的歧义性,不妨看一个问题“猫是聪明的么?”,不同的人会给出这个问题不同的答案。但是没有一种测试能够证明这类断言到底是真还是假,如果你认为有的话,你可以训练你的猫通过 IQ 测试看看。 当我们讨论 AGI 的时候,我们需要一些手段来判断是否我们创造了一个具备真正智能的系统。[Alan Turing](https://en.wikipedia.org/wiki/Alan_Turing) 给出了他的测试方法叫做图灵测试,可以类似的被看做一个智能的定义。这个测试大致的意思是让人类来判决和自己沟通的系统究竟是真的人还是计算机系统,当这个判决人无法给出确切的判断时,系统则通过了图灵测试,说明具备智能能力。 ## 实现人工智能的方法 如果我们想让计算机表现的像人类一样,那么我们需要在计算机内部对人的思维方式进行模拟。因此,我们必须要知道人是怎么表现的智能的? > 为了能够将智能编程到机器中,我们需要了解我们自己的决策过程是如何运作的。 如果你做一点自我反省,你会意识到有些过程是在潜意识中发生的——例如。 我们无需思考就可以区分猫和狗,而其他一些则需要推理。 对应这个问题存在两种可行性的方案 | 自上而下的方法(符号推理) | 自下而上的方法(神经网络) | | --- | --- | | 自上而下的方法模拟了人们推理解决问题的方式,它涉及从人类身上提取知识,并将其以计算机可读的形式表示。 我们还需要开发一种在计算机内部建模推理的方法。 | 自下而上的方法模拟人脑的结构,由大量神经元组成。 每个神经元的行为就像其输入的加权平均值,我们可以通过提供训练数据来训练神经元网络来解决有用的问题。 | 也有一些其他的实现智能的方法: 这块需要后续重点研究下。 ## 自上而下的方法 在自上而下的方法中,我们尝试对我们的推理进行建模。 因为我们在推理时可以遵循我们的想法,所以我们可以尝试将这个过程形式化并在计算机内部进行模拟,这被称为符号推理。 人们的头脑中往往有一些规则来指导他们的决策过程。 例如,当医生在诊断病人时,他或她可能会意识到一个人发烧了,因此体内可能存在一些炎症。 通过将大量规则应用于特定问题,医生也许能够得出最终诊断。 这种方法很大程度上依赖于知识表征和推理。 从人类专家那里获取知识可能是最困难的部分,因为在许多情况下,医生无法确切知道他或她为何会做出特定的诊断。 有时,解决方案只是在他或她的脑海中出现,而没有经过明确的思考。 有些任务,例如根据照片确定一个人的年龄,根本不能简化为操纵知识。 ## 自下而上的方法 相对于自上而下,我们可以尝试对大脑内最简单的元素(神经元)进行建模。 我们可以在计算机内部构建一个所谓的人工神经网络,然后尝试通过举例来教它解决问题。 这个过程类似于新生儿通过观察来了解周围环境的过程。 ## AI历史的简介 人工智能作为一个领域开始于二十世纪中叶。 最初,符号推理是一种流行的方法,它取得了很大程度的成功,例如专家系统——能够在某些有限问题领域充当专家的计算机程序。 然而,很快我们就发现这种方法无法很好地扩展。 从专家那里提取知识,将其表示在计算机中,并保持知识库的准确性是一项非常复杂的任务,而且在许多情况下成本太高而不实用。 这导致了 20 世纪 70 年代所谓的“人工智能冬天”。 [AI Winter](https://en.wikipedia.org/wiki/AI_winter) ![Brief History of AI](https://github.com/microsoft/AI-For-Beginners/raw/main/lessons/1-Intro/images/history-of-ai.png) > 图片由 [Dmitry Soshnikov](http://soshnikov.com/) 提供 随着时间的推移,计算资源变得越来越便宜,可用数据也越来越多,神经网络方法开始在许多领域(例如计算机视觉或语音理解)与可以达到比人类更出色的性能。 在过去的十年中,人工智能一词主要被用作神经网络的同义词,因为我们听到的大多数人工智能成功都是基于它们。 我们可以追溯下整个研究的变化,例如,在创建下棋程序时: - 早期的国际象棋程序基于搜索——程序明确地尝试估计对手在给定数量的下一步行动中可能采取的行动,并根据几次行动中可以达到的最佳位置选择最佳行动。 它导致了所谓的 alpha-beta 剪枝搜索算法的发展。 - 在游戏即将结束的时候,搜索策略效果很好,此时搜索空间会比较小。 然而,在游戏开始时,搜索空间巨大,可以通过学习人类玩家之间的现有比赛来改进算法。 随后的实验采用了所谓的基于案例的推理,程序在知识库中寻找与游戏中当前位置非常相似的案例。 - 超越人类玩家的现代程序都是基于神经网络和强化学习,其中程序仅通过长时间与自己对弈并从自己的错误中学习来学习如何下棋——就像人类学习下国际象棋时所做的那样。 然而,计算机程序可以在更短的时间内玩更多的游戏,因此可以更快地学习。 同样,我们可以看到构建“talking programs”(可能通过图灵测试)的方法是如何变化的: - 早期的此类程序(例如 Eliza)基于非常简单的语法规则以及对输入的内容进行重述。 - Cortana、Siri 或 Google Assistant 等现代助手都是混合系统,它们使用神经网络将语音转换为文本并识别我们的意图,然后采用一些推理或显式算法来执行所需的操作。 - 未来,我们可能期望一个完整的基于神经的模型能够自行处理对话。 最近的 GPT 和 Turing-NLG 系列神经网络在这方面取得了巨大成功。 ![the Turing test's evolution](https://github.com/microsoft/AI-For-Beginners/raw/main/lessons/1-Intro/images/turing-test-evol.png) ## 最近AI方面的研究 神经网络研究最近的巨大增长始于 2010 年左右,当时大型公共数据集开始可用。 ImageNet 是一个庞大的图像集合,其中包含约 1400 万张带注释的图像,催生了 ImageNet 大规模视觉识别挑战赛。 ![ILSVRC Accuracy](https://github.com/microsoft/AI-For-Beginners/raw/main/lessons/1-Intro/images/ilsvrc.gif) > 图片由 [Dmitry Soshnikov](http://soshnikov.com/) 提供 2012 年,卷积神经网络首次应用于图像分类,分类错误率显着下降(从近 30% 降至 16.4%)。 2015年,微软研究院的ResNet架构实现了人类级别的准确率。 在过去的几年里,我们见证了 BERT 和 GPT-3 等大型语言模型的巨大成功。 发生这种情况的主要原因是,有大量通用文本数据可供使用,这些数据使我们能够训练模型来捕获文本的结构和含义,在通用文本集合上对它们进行预训练,然后将这些模型专门用于更具体的任务 。 我们将在本课程稍后部分了解有关自然语言处理(NLP)的更多信息。
我有魔法
2024年1月20日 20:11
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
分享
链接
类型
密码
更新密码