论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com技术社区
»
论坛
›
大数据
›
数据仓库与分析
›
机器学习 第一章 绪论
机器学习 第一章 绪论
种地
论坛元老
|
2025-4-2 21:08:30
|
显示全部楼层
|
阅读模式
楼主
主题
1710
|
帖子
1710
|
积分
5130
电子书地址:
https://jingyuexing.github.io/Ebook/Machine_Learning/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0_%E5%91%A8%E5%BF%97%E5%8D%8E.pdf
1.1 引言
机器学习的目标就是构建函数的过程,通过x和y努力找到f(x)。
假设x为经验,以数据的方式存在,也就说,机器学习就是是
使用“学习算法”将数据中的经验抽取到模型(盘算流程=y怎样通过x得到=f(x))中的过程。
“学习算法”就是有学习能力的黑箱,那我们肯定就期望得到学习能力非常强大的黑箱,所以机器学习就是研究“学习算法”的学问。
1.2 根本术语
一、关于数据的术语
不消特殊记忆,看名字就知道是啥,个别没见过的瞅瞅
1.数据集(D):x与y的聚集
编号
大小
颜色
敲声
好瓜
1
大
黄
脆
是
2
小
黄
脆
是
3
大
绿
闷
否
4
大
绿
脆
是
5
小
绿
闷
否
2.示例/样本:每条记录(行),也就是关于一个对象/事件(西瓜)的描述
3.属性/特性(x):也就是反应某方面的特性,其取值成为属性值
4.属性空间/样本空间/输入空间:属性张量的空间,也就是全部特性为坐标张成的空间
一个示例成为一个特性向量,如上图中的一个点
5.样本空间
:全部可能属性的取值
下图虚线围发展方体中的全部点
6.维数(d):属性个数
7.练习/学习:实行某个学习算法,从数据中学得模型的过程
8.练习数据/练习集:在数据集中划分一些数据来用于练习,用于练习的数据称为练习数据/练习集
9.练习样本:练习中的每一个样本
10.假设:学习后已经得出的规律,也就是f(x),不知道是不是对的,全部称为假设,我们假设是如许的
11.真相/真实:真正的f(x)
12.学习器:模型,就那个黑盒子
13.预测:已经练习(学习)完之后,得到了f(x),通过x预测y的过程
14.测试样本:被测试的样本,我们上面已经划分了练习集,剩下的数据用于预测(预测的数据肯定不能被练习过,比如我们高中模拟考的时候肯定不能出现高考原题)
15.标志:预测出的y
16.标志空间/输出空间
:全部y的取值种类
二、关于任务的术语
三、关于评估的术语
1.泛化:学习模型闻一知十的能力,实用新样本的能力
2.独立同分布:
1.3 假设空间
归纳(induction)与演绎(deduction)是科学推理的两大根本手段
归纳——>泛化,train的过程(从特殊到一样平常)
演绎——>特化,predict的过程(从一样平常到特殊)
我们现阶段机器学习的研究根本都为“从样本中学习”,即“归纳的过程”,因此也称为“归纳学习”,这是广义上归纳学习的定义
狭义上归纳学习的定义为:从练习数据中得到概念,这很难,全部我们现阶段和此书都研究广义上的归纳学习
归纳学习的过程就是在
全部假设组成的空间
中进行搜索的过程
假设空间:以任务竣事的全部可能性种类组成的空间
比如我们的任务是找好瓜,那么我们任务的竣事就是找到大概没找到好瓜,找到好瓜的环境很多,得到好瓜全部的环境种类加上没找到好瓜就是假设空间的大小。
假设空间规模:全部好瓜的取值+1(未找到好瓜)
1.4 归纳偏好
每次我们学习的过程都会找到很多个f(x),我们必须选一个来用于表示,这个选择的过程被称为“偏好/归纳偏好”
比如我们现在在一片大雾的山谷中行走,我们要从x点到y点走最短的路,我们会从全部我们以为可能是最短的路中选择一条走。
那么我们如何从好几条可能最短的路中选一条呢?——这如同我们“代价观”的选择
归纳偏好可看作学习算法自身在一个可能很巨大的假设空间中对假设进行选择的启发式或“代价观”.那么,有没有一样平常性的原则来引导算法建立“精确的”偏好呢?——类比社会主义焦点代价观,这是我们代价观的原则
“奥卡姆剃刀”(Occam's razor)是一种常用的、自然科学研究中最根本的原则,即“若有多个假设与观察划一,则选最简朴的那个”,
就好相比合的时候我们会选择最平滑的曲线
但是我们怎么就能知道最简朴的那个就一定更好呢?很有可能复杂的那种环境才更好,这个时候我们引入练习集外的误差来算算到底哪个更好:
我们全假设最简朴的环境,样本空间(全部x组合的可能)和假设空间(全部y组合的可能)都是离散的
我们表达出总的错误率也就表达出了练习集外的误差,那么我们错误率就为:全部样本推测错误的概率乘以样本本身出现的概率,再乘以全部(这个样本用什么模型推测出来的)本身的这个模型被选择的概率。
末了面这句我们再仔细表明一下,就是比如我们每个人面对每场考试的同一个题,有可能会做出来的结果不一样,所以每次我们练习之后得出的函数模型也可能差别,那么这个模型本身选择的这个函数h(x)的出现也是有概率的。
现在我们表达出了总误差,我们现在来简化以下这个误差看看这个误差和什么有关,还是假设最简朴的可能,现在我们只思量二分类题目,进一步:
进一步化简我们发现,末了的错误率中h约没了,这说明错误率与这个函数无关。
当然这是不可能的,因为假设条件是f是均匀出现的,这个假设本身不成立,那对于好门生肯定想出来更好方法的概率要比没想出来的方法的概率大的。
这引出了下面的启示,“没有免费的午餐”定理
周志华老师告诉我们:脱离具体谈“什么算法好毫偶然义”,我们要根据具体实际选择合适的算法模型
1.5 发展历程
人工智能的发展历程:
1.“推理期”:机器逻辑推理
2.“知识期”:人民把大量知识总结出来教给机器
3."机器学习时期":三个流派(1)联结主义(2)符号主义(3)统计学习
现在我们研究的是统计学习流派中"从样例中学习"
闻名代表(1)归纳逻辑步伐设计:让机器写代码(2)基于神经网络的联结主义学习(3)支持向量机(4)深度学习:很多层的神经网络
值得一提的是深度学习在上个世纪末因为算力的范围难以办理很多题目,当时被人称为垃圾,被骂的不可,现在他又成为了我们最高潮的领域,被称为“通用人工智能”(可自主学习知识)的曙光。
历史真的是个圈,或许我们之后也会陷入相同处境,我们本身能做的当然之只能是保持清醒,不要受他人指点而放弃。
1.6 应用介绍
本身看看
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
种地
论坛元老
这个人很懒什么都没写!
楼主热帖
Beta 阶段事后分析
mac下配置Charles,安装证书,连接iOS ...
为什么 SQL 语句使用了索引,但却还是 ...
图的基本术语,邻接矩阵、邻接表表示方 ...
python经典习题(一)
Archlinux scarlett solo driver insta ...
DOS窗口命令和单表简单查询
5.返回值IDCANCEL和CommDlgExtendedErr ...
利用kubernetes中的leader选举机制来完 ...
MySQL实战45讲 10
标签云
AI
运维
CIO
存储
服务器
浏览过的版块
物联网
SQL-Server
快速回复
返回顶部
返回列表