《Python机器学习基础教程》第一章机器学习入门1.5 scikit-learn简介:为什么scikit-learn是机器学习初学者的首选库

在这里插入图片描述

1.5 scikit-learn简介:为什么scikit-learn是机器学习初学者的首选库

1.5.1 什么是scikit-learn
1.5.2 scikit-learn的主要功能模块
1.5.3 scikit-learn的优势
1.5.4 scikit-learn与其他库的比较
1.5.5 实操案例分析
  • 1.5.1 什么是scikit-learn
  • 1.5.2 scikit-learn的主要功能模块
  • 1.5.3 scikit-learn的优势
  • 1.5.4 scikit-learn与其他库的比较
  • 1.5.5 实操案例分析

1.5.1 什么是scikit-learn

scikit-learn是一个基于Python的开源机器学习库,它建立在NumPy、SciPy和Matplotlib之上。scikit-learn提供了简单而有效的工具,用于数据挖掘和数据分析。该库的设计目标是让机器学习变得简单易用,同时保持高性能。

历史背景

scikit-learn最初由David Cournapeau于2007年创建,并于2010年首次公开发布。自那时以来,它已经成为最流行的机器学习库之一,广泛应用于学术研究和工业应用中。

主要特点

  • 简单易用:scikit-learn的API设计简洁明了,易于上手。
  • 高效性能:底层使用高效的数值计算库(如NumPy和SciPy),保证了算法的执行效率。
  • 广泛的算法支持:涵盖了从分类、回归到聚类、降维等多种常用机器学习算法。
  • 强大的社区支持:活跃的社区提供了大量的文档、教程和示例代码。

1.5.2 scikit-learn的主要功能模块

scikit-learn包含多个主要功能模块,每个模块都提供了一系列相关的算法和工具。以下是这些模块的概述:

数据预处理

  • 数据标准化:将数据转换为均值为0,标准差为1的标准正态分布。
  • 数据归一化:将数据缩放到[0, 1]区间。
  • 特征选择:选择对模型最有影响力的特征。
  • 特征提取:从原始数据中提取有用的特征。

监督学习

  • 分类:包括逻辑回归、支持向量机(SVM)、决策树、随机森林等。
  • 回归:包括线性回归、岭回归、Lasso回归等。
  • 模型选择:包括交叉验证、网格搜索、超参数调优等。

无监督学习

  • 聚类:包括K-Means、DBSCAN、层次聚类等。
  • 降维:包括主成分分析(PCA)、独立成分分析(ICA)等。

模型评估

  • 指标计算:包括准确率、召回率、F1分数等。
  • 交叉验证:通过分割数据集来评估模型的泛化能力。
  • 混淆矩阵:用于评估分类模型的性能。

模型持久化

  • 保存和加载模型:可以将训练好的模型保存到文件中,并在需要时重新加载。

1.5.3 scikit-learn的优势

scikit-learn之所以成为机器学习初学者的首选库,有以下几个主要原因:

简洁的API设计

scikit-learn的API设计非常简洁一致,所有算法都遵循类似的接口。这使得开发者可以快速上手,并且容易在不同算法之间切换。例如,以下是一个简单的线性回归模型的训练和预测过程:

from sklearn.linear_model import LinearRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error

# 加载数据
X, y = load_data()

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建线性回归模型
model = LinearRegression()

# 训练模型
model.fit(X_train, y_train)

# 预测
y_pred = model.predict(X_test)

# 评估模型
mse = mean_squared_error(y_test, y_pred)
print(f"Mean Squared Error: {mse}")

丰富的算法库

scikit-learn提供了多种常用的机器学习算法,涵盖了从监督学习到无监督学习的各个方面。无论你是进行分类、回归、聚类还是降维,都可以找到合适的算法。

强大的社区支持

scikit-learn拥有一个庞大的用户社区,提供了丰富的文档、教程和示例代码。此外,GitHub上有许多开源项目和贡献者,不断改进和完善库的功能。

高效的性能

scikit-learn底层使用高效的数值计算库(如NumPy和SciPy),保证了算法的执行效率。对于大规模数据集,scikit-learn也能表现出良好的性能。

1.5.4 scikit-learn与其他库的比较

虽然scikit-learn在机器学习领域表现出色,但其他库如TensorFlow、PyTorch和R也有其独特的优势。以下是对几种流行库的比较:

scikit-learn vs TensorFlow

  • 易学性:scikit-learn的API更简洁,适合初学者;TensorFlow的学习曲线较陡峭,更适合深度学习任务。
  • 性能:TensorFlow在大规模数据集和高并发场景下的性能优于scikit-learn。
  • 库资源:scikit-learn适用于传统的机器学习任务;TensorFlow适用于深度学习和大规模数值计算。

scikit-learn vs PyTorch

  • 易学性:scikit-learn的API更简洁,适合初学者;PyTorch的学习曲线较陡峭,但灵活性更高。
  • 性能:PyTorch在某些计算密集型任务中的性能优于scikit-learn。
  • 库资源:scikit-learn适用于传统的机器学习任务;PyTorch适用于深度学习和动态计算图。

scikit-learn vs R

  • 易学性:scikit-learn的语法更简洁,适合初学者;R的语法较为复杂,更适合统计学家。
  • 社区支持:scikit-learn社区更大,资源更多;R在统计分析领域有很强的支持。
  • 库资源:scikit-learn的库资源更丰富,特别是对于机器学习和深度学习;R在统计分析和可视化方面有优势。

1.5.5 实操案例分析

接下来我们将通过一系列具体的例子来演示如何运用scikit-learn进行数据预处理、模型训练和评估。

示例1: 数据预处理 - 标准化

from sklearn.preprocessing import StandardScaler
import numpy as np

# 生成模拟数据
data = np.array([[1, 2], [3, 4], [5, 6]])

# 创建标准化器
scaler = StandardScaler()

# 计算均值和标准差
scaler.fit(data)

# 标准化数据
scaled_data = scaler.transform(data)
print("标准化后的数据:")
print(scaled_data)

示例2: 数据预处理 - 归一化

from sklearn.preprocessing import MinMaxScaler
import numpy as np

# 生成模拟数据
data = np.array([[1, 2], [3, 4], [5, 6]])

# 创建归一化器
scaler = MinMaxScaler()

# 计算最小值和最大值
scaler.fit(data)

# 归一化数据
normalized_data = scaler.transform(data)
print("归一化后的数据:")
print(normalized_data)

示例3: 特征选择 - 选择最佳特征

from sklearn.datasets import load_iris
from sklearn.feature_selection import SelectKBest, f_classif

# 加载鸢尾花数据集
data = load_iris()
X, y = data.data, data.target

# 选择最佳的2个特征
selector = SelectKBest(score_func=f_classif, k=2)
X_new = selector.fit_transform(X, y)
selected_features = X.columns[selector.get_support()]
print("选择的最佳特征:")
print(selected_features)

示例4: 分类 - 逻辑回归

from sklearn.datasets import load_iris
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score

# 加载鸢尾花数据集
data = load_iris()
X, y = data.data, data.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建逻辑回归模型
model = LogisticRegression()

# 训练模型
model.fit(X_train, y_train)

# 预测
y_pred = model.predict(X_test)

# 评估模型
accuracy = accuracy_score(y_test, y_pred)
print(f"Accuracy: {accuracy}")

示例5: 回归 - 线性回归

from sklearn.datasets import make_regression
from sklearn.linear_model import LinearRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error

# 生成模拟数据
X, y = make_regression(n_samples=100, n_features=1, noise=0.1)

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建线性回归模型
model = LinearRegression()

# 训练模型
model.fit(X_train, y_train)

# 预测
y_pred = model.predict(X_test)

# 评估模型
mse = mean_squared_error(y_test, y_pred)
print(f"Mean Squared Error: {mse}")

示例6: 聚类 - K-Means

from sklearn.datasets import make_blobs
from sklearn.cluster import KMeans
import matplotlib.pyplot as plt

# 生成模拟数据
X, _ = make_blobs(n_samples=300, centers=4, cluster_std=0.60, random_state=0)

# 创建K-Means模型
kmeans = KMeans(n_clusters=4)

# 训练模型
kmeans.fit(X)

# 获取聚类结果
labels = kmeans.labels_
centroids = kmeans.cluster_centers_

# 绘制聚类结果
plt.scatter(X[:, 0], X[:, 1], c=labels, s=50, cmap='viridis')
plt.scatter(centroids[:, 0], centroids[:, 1], c='red', s=200, alpha=0.5)
plt.show()

示例7: 降维 - PCA

from sklearn.datasets import load_iris
from sklearn.decomposition import PCA
import matplotlib.pyplot as plt

# 加载鸢尾花数据集
data = load_iris()
X, y = data.data, data.target

# 创建PCA模型
pca = PCA(n_components=2)

# 降维
X_reduced = pca.fit_transform(X)

# 绘制降维后的数据
plt.scatter(X_reduced[:, 0], X_reduced[:, 1], c=y, cmap='viridis')
plt.xlabel('Principal Component 1')
plt.ylabel('Principal Component 2')
plt.show()

示例8: 模型选择 - 交叉验证

from sklearn.datasets import load_iris
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import cross_val_score

# 加载鸢尾花数据集
data = load_iris()
X, y = data.data, data.target

# 创建逻辑回归模型
model = LogisticRegression()

# 使用交叉验证评估模型
scores = cross_val_score(model, X, y, cv=5)
print(f"Cross-validation scores: {scores}")
print(f"Mean score: {scores.mean()}")

示例9: 模型选择 - 网格搜索

from sklearn.datasets import load_iris
from sklearn.svm import SVC
from sklearn.model_selection import GridSearchCV

# 加载鸢尾花数据集
data = load_iris()
X, y = data.data, data.target

# 创建SVM模型
model = SVC()

# 定义参数网格
param_grid = {
    'C': [0.1, 1, 10],
    'gamma': [0.001, 0.01, 0.1]
}

# 创建网格搜索对象
grid_search = GridSearchCV(model, param_grid, cv=5)

# 执行网格搜索
grid_search.fit(X, y)

# 输出最佳参数
print(f"Best parameters: {grid_search.best_params_}")
print(f"Best score: {grid_search.best_score_}")

示例10: 模型评估 - 混淆矩阵

from sklearn.datasets import load_iris
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import confusion_matrix
import seaborn as sns
import matplotlib.pyplot as plt

# 加载鸢尾花数据集
data = load_iris()
X, y = data.data, data.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 创建逻辑回归模型
model = LogisticRegression()

# 训练模型
model.fit(X_train, y_train)

# 预测
y_pred = model.predict(X_test)

# 计算混淆矩阵
cm = confusion_matrix(y_test, y_pred)

# 绘制混淆矩阵
sns.heatmap(cm, annot=True, fmt='d', cmap='Blues')
plt.xlabel('Predicted')
plt.ylabel('True')
plt.show()

示例11: 模型持久化 - 保存和加载模型

from sklearn.datasets import load_iris
from sklearn.linear_model import LogisticRegression
import joblib

# 加载鸢尾花数据集
data = load_iris()
X, y = data.data, data.target

# 创建逻辑回归模型
model = LogisticRegression()

# 训练模型
model.fit(X, y)

# 保存模型
joblib.dump(model, 'logistic_regression_model.pkl')

# 加载模型
loaded_model = joblib.load('logistic_regression_model.pkl')

# 使用加载的模型进行预测
y_pred = loaded_model.predict(X)
print(f"Predictions: {y_pred}")
资料名称链接
scikit-learn官方文档https://scikit-learn.org/stable/index.html
scikit-learn教程https://scikit-learn.org/stable/tutorial/index.html
Introduction to Machine Learning with Pythonhttps://www.oreilly.com/library/view/introduction-to-machine/9781449369880/
Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlowhttps://www.oreilly.com/library/view/hands-on-machine-learning/9781492032632/
scikit-learn GitHub仓库https://github.com/scikit-learn/scikit-learn
Data Science and Machine Learning with Python – Hands On!https://realpython.com/tutorials/machine-learning/
Machine Learning Masteryhttps://machinelearningmastery.com/
Towards Data Sciencehttps://towardsdatascience.com/
Kaggle Tutorialshttps://www.kaggle.com/learn/overview
Coursera: Machine Learning by Andrew Nghttps://www.coursera.org/learn/machine-learning
### 使用 Scikit-Learn 进行鸢尾花数据集的操作 Scikit-learn 提供了一个简单而一致的方式来应用多种常用的机器学习算法[^1]。对于鸢尾花数据集,可以通过以下方式加载并执行基本的数据探索和建模。 #### 加载数据集 为了开始工作,首先需要加载鸢尾花数据集。这可以通过 `seaborn` 中的 `load_dataset` 函数完成: ```python import seaborn as sns # 加载鸢尾花数据集 iris = sns.load_dataset('iris') # 特征矩阵X(去掉类别标签) X_iris = iris.drop('species', axis=1) # 类别向量y y_iris = iris['species'] ``` 上述代码创建了两个对象:特征矩阵 `X_iris` 和目标变量 `y_iris`,它们分别包含了用于预测的输入特征以及对应的分类标签[^2]。 #### 数据降维 当面对高维度数据时,可能希望通过降低维度来简化分析过程而不显著损失重要信息。这里展示如何利用主成分分析(PCA)来进行这一操作: ```python from sklearn.decomposition import PCA from sklearn.preprocessing import StandardScaler # 对原始数据标准化处理 scaler = StandardScaler() iris_scaled = scaler.fit_transform(X_iris) # 创建PCA实例并拟合转换训练数据 pca_model = PCA(n_components=2).fit(iris_scaled) iris_pca = pca_model.transform(iris_scaled) print(f'Original shape: {X_iris.shape}') print(f'Reduced shape after PCA: {iris_pca.shape}') ``` 这段代码展示了完整的流程——从标准缩放到最终的应用PCA变换,从而减少了特征空间的复杂度[^3]。 #### 构建与评估模型 一旦完成了必要的预处理步骤,就可以构建一个简单的分类器并对性能进行评价。下面的例子使用K近邻(KNN)作为示范: ```python from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier from sklearn.metrics import accuracy_score # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split( iris_pca, y_iris, test_size=0.3, random_state=42) # 初始化KNN分类器 knn_classifier = KNeighborsClassifier() # 训练模型 knn_classifier.fit(X_train, y_train) # 预测新样本所属类别 predictions = knn_classifier.predict(X_test) # 打印准确率 accuracy = accuracy_score(y_test, predictions) print(f'Model Accuracy on Test Set: {accuracy:.2f}') ``` 此部分不仅涵盖了模型的选择、训练,还包括了对模型表现的一个初步衡量方法[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

精通代码大仙

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值