LTP Linux Test Project

   好久没有写博客了,主要是工作太杂了,很多东西内耗精力,这不,又出现一个内核问题,在LTP Linux Test Project 工具的时候,发现add-key 出现了问题。然后决定试一下这个syscall。

代码如下:

int  main(int argc, char *argv[]) {
    key_serial_t key;
    if (argc != 4) {
        fprintf(stderr, "Usage: %s type description payload\n",argv[0]);
        exit(EXIT_FAILURE);

    }
    key = add_key(argv[1], argv[2], argv[3], strlen(argv[3]), KEY_SPEC_SESSION_KEYRING);
    if (key == -1) {
        perror("add_key");
        exit(EXIT_FAILURE);
    }
    printf("Key ID is %lx\n", (long) key);
    exit(EXIT_SUCCESS);

}

然后:

gcc add_key.c -o add_key

发现报错:

fatal error: keyutils.h: No such file or directory
 #include <keyutils.h>

原来是内核没有,安装工具libkeyutils-dev、keyutils

然后还是有错:

undefined reference to `add_key'

肯定是没有找到库,需要编译的时候加参数,比如-lpthread,这下可为难了,什么参数啊,全网找个边也没有,后来在一堆错误里,找到了这个:

gcc add_key.c -o add_key -lkeyutils

写下来,让大家少走弯路吧。

### 使用CNN卷积神经网络进行MNIST手写数字识别 对于MNIST手写数字识别任务,采用卷积神经网络(CNN)能够更有效地捕捉图像中的局部特征[^1]。相比于全连接层(Dense Layer),CNN利用其特有的结构特性,在处理二维图像数据方面表现更为出色。 #### 数据准备与预处理 在着手建立模型之前,需先加载并预处理MNIST数据集。这一步骤涉及将图片像素值归一化至0到1之间以及对标签进行独热编码(one-hot encoding)[^3]。具体操作如下: ```python from keras.datasets import mnist import numpy as np (x_train, y_train), (x_test, y_test) = mnist.load_data() # 归一化 x_train = x_train.astype('float32') / 255. x_test = x_test.astype('float32') / 255. # 调整形状以适应CNN输入要求 x_train = np.expand_dims(x_train, axis=-1) x_test = np.expand_dims(x_test, axis=-1) # 将类别向量转换为二进制矩阵表示形式(One-Hot Encoding) y_train = keras.utils.to_categorical(y_train, num_classes=10) y_test = keras.utils.to_categorical(y_test, num_classes=10) ``` #### 构建CNN模型架构 接下来定义一个基础版本的CNN模型,该模型至少应包含两个主要组件——卷积层(Convolutional Layers)池化层(Pooling Layers),之后接上若干个全连接层(Fully Connected Layers)完成最后的分类工作[^4]。下面给出了一种可能的设计方案: ```python from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense, Dropout model = Sequential([ # 第一层卷积+最大池化 Conv2D(filters=32, kernel_size=(3, 3), activation='relu', input_shape=(28, 28, 1)), MaxPooling2D(pool_size=(2, 2)), # 第二层卷积+最大池化 Conv2D(filters=64, kernel_size=(3, 3), activation='relu'), MaxPooling2D(pool_size=(2, 2)), # 展平层(Flatten Layer) Flatten(), # 添加Dropout防止过拟合 Dropout(rate=0.5), # 输出层(Output Layer) Dense(units=10, activation='softmax') ]) ``` 此设计中包含了两轮卷积加池化的组合,每一轮都旨在逐步缩小空间尺寸的同时增强特征表达能力;随后通过展平层将多维张量转化为一维向量供后续全连接层使用;为了提升泛化性能还加入了随机失活(Dropout)机制来对抗潜在的过拟合现象[^5]。 #### 编译与训练模型 编译阶段指定了损失函数(Loss Function)、优化器(Optimizer)及评价指标(Metrics),而训练过程则是让机器不断调整内部参数直至达到预期效果的过程。这里选用交叉熵作为衡量标准,并配合Adam优化算法加快收敛速度。 ```python model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) history = model.fit(x=x_train, y=y_train, epochs=10, batch_size=128, validation_split=0.2) ``` 上述代码片段设置了验证集比例(validation_split)以便实时监控模型的表现变化趋势,从而更好地把握最佳停止时机。 #### 测试与评估 当训练完成后,可以调用`evaluate()`方法获取测试集上的准确率得分,以此检验整个系统的实际效能。 ```python test_loss, test_acc = model.evaluate(x=x_test, y=y_test) print(f'Test accuracy: {test_acc}') ``` 综上所述,借助Keras框架所提供的便捷接口,只需少量代码即可快速搭建起一套完整的CNN解决方案应用于MNIST手写字体辨识场景之中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值