机器学习第十二讲:特征选择 → 选最重要的考试科目做录取判断

机器学习第十二讲:特征选择 → 选最重要的考试科目做录取判断

资料取自《零基础学机器学习》
查看总目录:学习大纲

关于DeepSeek本地部署指南可以看下我之前写的文章:DeepSeek R1本地与线上满血版部署:超详细手把手指南


一、学霸选科法则 📚(特征选择基础逻辑,材料2的3.章节2-3

比喻:某大学要从200科成绩中选出关键指标:

全科成绩
数学/语文超强相关性
地理成绩波动大
体育课异常值多
选主科为特征
删除无效特征
清洗噪声数据

通过计算发现:数学与录取结果相关系数0.85(强相关),书法课仅0.07(可忽略)[2]


二、教务主任三把尺 📏(特征选择方法,材料2+6综合[2-3][6-4.6.2]

  1. 相关性筛选 → 用成绩关联表

    科目与录取的相关系数
    数学▶▶▶ 0.92
    语文▶▶ 0.78
    生物▶ 0.32
    保留前30%高关联科目(材料6的4.6.2优化思路)[6-4.6.2]
  2. 决策树评估 → 看科目权重

    45% 30% 20% 5% 各科目信息增益值 数学 语文 英语 美术

    美术科信息增益≤5%可剔除(材料2的特征工程原则)2-3

  3. 主成分萃取 → 提炼超级科目
    数学→逻辑能力因子
    语文→理解能力因子
    合并相关科目降维(类似材料6的MNIST像素压缩)[6-4载入MNIST数据集]


三、典型陷阱警示 ⚠️(材料4的过拟合问题[4-4.6.2]

某中学过分关注奥林匹克竞赛得分导致:

只录金牌学生
训练集准确率98%
实际录取频繁误判

这就是典型的过拟合(材料4的过拟合图示)[4-4.6.2],需平衡特征数量


四、招生办实操手册 📋(材料5混淆矩阵应用[5]

经过特征选择后的录取模型验证:

from sklearn.feature_selection import SelectKBest
from sklearn.metrics import confusion_matrix

# 选择数学语文两科(k=2)
selector = SelectKBest(k=2) 
X_new = selector.fit_transform(X_scores, y_admission)

# 混淆矩阵显示效果提升
print(confusion_matrix(y_true, y_pred))
"""
标准化前:[[70 30]
          [25 75]] 
精选后: [[85 15]
         [10 90]]
"""

准确率从72.5%→87.5%(材料5的评估方法)[5]


五、知识验证小测试 ✅

Q: 某模型用身高+星座预测成绩是否合理?
A: ❌ 星座属于无关特征应删除(材料2的特征提取原则)2-3


目录:总目录
上篇文章:机器学习第十一讲:标准化 → 把厘米和公斤单位统一成标准值
下篇文章:机器学习第十三讲:独热编码 → 把红黄蓝颜色变成001等的数字格式


[4-4.6.2]: 过拟合现象与平衡原则(4.6.2 欠拟合和过拟合)
[5]: 模型效果评估工具(混淆矩阵应用章节)
[6-4载入MNIST数据集]: 数据降维处理范例(MNIST数据处理流程)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

kovlistudio

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值