L1-030 PAT一帮一 (15分)

本编程任务旨在实现一个自动分配“一帮一”学习小组的算法,根据学生排名和性别,将最高排名的学生与最低排名的异性配对。输入包括全班学生的排名和性别,输出为匹配的小组组合。示例输入为8名学生,输出展示了四组匹配结果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

“一帮一学习小组”是中小学中常见的学习组织方式,老师把学习成绩靠前的学生跟学习成绩靠后的学生排在一组。本题就请你编写程序帮助老师自动完成这个分配工作,即在得到全班学生的排名后,在当前尚未分组的学生中,将名次最靠前的学生与名次最靠后的异性学生分为一组。
输入格式:

输入第一行给出正偶数N(≤50),即全班学生的人数。此后N行,按照名次从高到低的顺序给出每个学生的性别(0代表女生,1代表男生)和姓名(不超过8个英文字母的非空字符串),其间以1个空格分隔。这里保证本班男女比例是1:1,并且没有并列名次。
输出格式:

每行输出一组两个学生的姓名,其间以1个空格分隔。名次高的学生在前,名次低的学生在后。小组的输出顺序按照前面学生的名次从高到低排列。
输入样例:

8
0 Amy
1 Tom
1 Bill
0 Cindy
0 Maya
1 John
1 Jack
0 Linda

输出样例:

Amy Jack
Tom Linda
Bill Maya
Cindy John

#include<iostream>
#include<string>

using namespace std;

struct student{
    int sex;
    string name;
};

int main(void){

    student stu[50];
    int number;

    cin>>number;

    for(int i=0;i<number;i++){
        cin>>stu[i].sex>>stu[i].name;
    }

    for(int i=0;i<number;i++){
        for(int j=number-1;j>=0;j--){
            //若两者加起来为1,则为异性
            if(stu[i].sex+stu[j].sex==1){
                cout<<stu[i].name<<" "<<stu[j].name<<endl;
                //已分组的将sex设置为-1
                stu[i].sex=stu[j].sex=-1;
            }
        }
    }
}
### Transformer 模型详解 #### 、Transformer 整体架构 Transformer 是种基于自注意力机制(Self-Attention Mechanism)的神经网络模型,旨在解决序列数据处理中的长期依赖问题。该模型摒弃了传统的循环神经网络(RNN) 和卷积神经网络(CNN),完全依靠自注意力机制来捕捉输入和输出之间的全局依赖关系[^1]。 整个架构由编码器(Encoder)和解码器(Decoder)两部组成: - **编码器**:负责接收输入序列并将其转换成高维向量表示; - **解码器**:根据编码器产生的上下文信息生成目标序列; 两者之间通过多头自注意层(Multi-head Self-Attention Layer)连接,在每层内部还包含了前馈神经网络(Feed Forward Neural Network, FFN)[^2]。 ```mermaid graph LR; A[Input Sequence] --> B{Encoder Stack}; subgraph Encoder Layers C[MHSA (Multi Head Self Attention)] --- D[Add & Norm]; E[FFN (Feed Forward Networks)] --- F[Add & Norm]; end G{Decoder Stack} <-- H[Memory from Encoders]; I[Output Sequence] <-- J{Decoder Layers} ``` #### 二、工作流程解析 当给定个源语言句子作为输入时,经过词后得到系列token组成的列表。这些tokens会被映射到对应的嵌入(embedding)空间中形成矩阵形式的数据。随后进入多个相同的编码单元堆叠而成的编码栈内进行特征提取操作。每个编码单元主要包含两个子模块——个多头自关注层用于计算query(Q), key(K), value(V)三者间的相似度得,并据此调整value权重获得新的context vector; 另个是全连接前馈网络用来进步变换维度大小以便更好地表达语义信息。 对于翻译任务而言,则需额外构建组类似的解码组件以逐步预测下个可能的目标单词直至结束符为止。值得注意的是,在训练阶段为了加速收敛速度通常会采用teacher forcing技术即利用真实的上步骤输出而非当前时刻所估计的结果参与后续迭代更新过程。 #### 三、核心特性阐述 ##### 自注意力机制 这是Transformer区别于其他传统RNN/CNN的最大亮点之。它允许模型在同时间步长下同时考虑所有位置的信息而不仅仅是相邻几个节点的影响范围。具体实现方式就是让每个position都能与其他任意处建立联系并通过softmax函数规范化后的概率布加权求和最终得出综合考量过全部因素的新状态描述。 ##### 多头设计 考虑到单head可能会丢失某些重要的局部模式匹配机会因此引入了multi-head策略使得不同heads可以专注于特定类型的关联性挖掘从而提高整体表现力。简单来说就是在同层次里平行运行若干组独立却又相互补充的小规模self-attention units然后把它们各自的输出拼接起来再送往下层继续加工处理直到最后刻才汇总输出最终结果。 ##### 前馈神经网络 除了上述提到的核心部件之外每层还会配备有个简单的线性变换+ReLU激活构成的标准MLP结构充当非线性的引入手段增强系统的表征能力同时也起到定的正则化作用防止过拟合现象发生。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值