- 博客(158)
- 收藏
- 关注
原创 【论文阅读】在调制分类中针对对抗性攻击的混合训练时和运行时防御
在深度学习在包括计算机视觉和自然语言处理在内的许多应用中的卓越性能的推动下,最近的几项研究侧重于应用深度神经网络来设计未来几代无线网络。然而,最近的几项工作指出,难以察觉且精心设计的对抗样本(攻击)会显着降低分类准确性。在这封信中,我们研究了一种基于训练时和运行时防御技术的防御机制,用于保护基于机器学习的无线电信号(调制)分类免受对抗性攻击。训练时防御包括对抗性训练和标签平滑,而运行时防御采用基于支持向量机的神经拒绝 (NR)。考虑到白盒场景和真实数据集,我们证明了我们提出的技术优于现有的最先进技术。
2025-05-07 10:10:16
1179
1
原创 【论文阅读】Substitute Model Generation for Black-Box Adversarial Attack Based on Knowledge Distillation
尽管深度卷积神经网络 (CNN) 在许多计算机视觉任务中表现良好,但当它受到对抗性攻击的扰动时,其分类机制非常脆弱。在本文中,我们提出了一种利用生成黑盒 CNN 模型的替代模型的新算法。所提出的算法将多个 CNN 教师模型提炼成一个紧凑的学生模型,作为其他要攻击的黑盒 CNN 模型的替代品。因此,通过使用各种白盒攻击方法,可以在此替代模型上生成黑盒对抗样本。根据我们在 ResNet18 和 DenseNet121 上的实验,我们的算法通过训练基于知识蒸馏的替代模型,将攻击成功率 (ASR) 提高了 20%
2025-05-06 15:26:19
470
1
原创 【论文阅读】APMSA: Adversarial Perturbation Against Model Stealing Attacks
训练深度学习 (DL) 模型需要专有数据和计算密集型资源。为了收回训练成本,模型提供商可以通过机器学习即服务 (MLaaS) 将 DL 模型货币化。通常,该模型部署在云中,同时为付费查询提供可公开访问的应用程序编程接口 (API) 以获得好处。然而,模型窃取攻击对这种模型货币化计划构成了安全威胁,因为它们窃取了模型,而没有为未来的大量查询付费。具体来说,攻击者通过对目标模型进行查询,获取输入输出对,从而通过对替代模型进行逆向工程来推断模型的内部工作机制,从而剥夺了模型所有者的商业优势,泄露了模型的隐私。
2025-04-30 15:02:09
1389
1
原创 【论文阅读】Examining of Shallow Autoencoder on Black-box Attack against Face Recognition
在本文中,我们提出了一种对人脸识别有效的。用于人脸识别的黑盒 A.E. 存在攻击成功概率低、攻击目标有限或计算复杂度大等多重问题,导致在许多实际场景中不切实际。因此,我们提出了一种更有效的利用黑盒 A.E. 攻击人脸识别系统的方法,基于 Huang 等人的 A.E. 生成方法,创建了一个适合人脸识别的。为了进行评估,该方法和公共数据集用于攻击在人脸识别系统中注册的任意和特定人员,指出了针对人脸识别系统进行黑盒对抗攻击的可能性。
2025-04-30 14:06:26
202
原创 【论文阅读】Partial Retraining Substitute Model for Query-Limited Black-Box Attacks
针对深度神经网络(DNN)分类器的黑盒攻击正受到越来越多的关注,因为它们在现实世界中比白盒攻击更实用。在黑盒环境中,对手对目标模型的了解有限。这使得难以估计用于制作对抗示例的梯度,从而无法将强大的白盒算法直接应用于黑盒攻击。因此,。然后,对手使用替代模型而不是未知目标模型来制作对手示例。。然而,模拟目标模型通常需要进行大量查询,因为从一开始就训练新的DNN。在这项研究中,我们提出了一种新的替代模型训练方法,以。我们认为查询数量是实施实际黑盒攻击的重要因素,因为现实世界的系统通常出于安全和财务目的限制查询。
2025-04-29 16:09:39
1119
1
原创 【论文阅读】Multi-Component Feature Extraction for Few-Sample Automatic Modulation Classification
随着深度学习 (DL) 的快速发展,自动调制分类 (AMC) 也取得了巨大的飞跃。基于 DL 的 AMC 方法能够通过训练大量标记样本来实现高精度。
2025-04-29 09:43:24
945
1
原创 【论文阅读】FE-DaST: Fast and effective data-free substitute training for black-box adversarial attacks
深度学习模型在计算机视觉(例如图像分类)中已显示出其优势,而众所周知,它们容易受到输入图像难以察觉的扰动,这称为对抗性攻击。最近提出了无数据替代训练 (DaST),这是一个基于多分支生成器的对抗框架,其中每个分支生成相应类别的图像以平衡合成图像,训练代理模型,无需任何真实图像即可进行基于传输的黑盒对抗攻击。但是,这个多分支框架过于冗余,无法快速收敛,并且仅限于少数类别的数据集。在本文中,我们提出了一种基于单分支生成器的更简单的对抗框架,以快速有效地训练替代模型,称为 FE-DaST。
2025-04-27 14:39:04
904
1
原创 【研究学习】小样本学习
Few-Shot Learning 泛指从少量标注数据中学习的方法和场景,理想情况下,一个能进行 Few-Shot Learning 的模型,也能快速地应用到新领域上。
2025-04-24 11:35:58
333
原创 【研究学习】知识蒸馏和模型蒸馏技术
Hinton在2015年提出知识蒸馏。(基础,奠定开山之作)使用教师模型的输出logits作为软标签,通过调整温度参数来让学生模型学习。论文:Distilling the Knowledge in a Neural Network结合量化与蒸馏的技术,这样可以在压缩模型大小的同时保持性能。论文:Model compression via distillation and quantization针对BERT模型的一种蒸馏方法,学生从教师多个中间层学习,不仅限于学习最后一层,属于中间层蒸馏的一种。参考
2025-02-19 15:38:55
798
原创 【环境配置】Jupyter Notebook切换虚拟环境
通过以上方法,你可以在Jupyter Notebook中灵活地切换和使用不同的虚拟环境。
2024-12-28 10:15:34
1486
2
原创 【论文阅读】小样本学习相关研究
不可靠的经验风险最小化器是FSL的核心问题。基于先验知识如何处理核心问题,可以将FSL分为三个角度:数据使用先验知识来增强监督经验,模型通过先验知识约束假设空间,算法使用先验知识改变对假设空间中最佳假设参数的搜索。这篇小样本学习综述论文从Data、Model、Algorithm三个方面介绍了现有的小样本学习领域内的方法,以数学的形式具体解释了小样本学习中的困难点。
2024-11-11 10:01:12
1104
1
原创 【论文阅读】信号调制识别的对抗样本攻防技术研究进展(2022)
模型窃取攻击也被称为探索性攻击,模型窃取攻击探索了解模型内部工作原理,攻击方通过收集训练数据摸清 DL 模型和算法的内部运作机理,并通过仿真相似的输入和输出数据来训练一个网络模型,作为替代模型[36‑37]。文献[40]指出用替代模型设计的对抗攻击具有一定的迁移性,对抗攻击会转移到目标模型。例如在无线通信场景中,可以通过探索空中频谱信息来了解通信系统的传输模式。另外,文献[23]研究了无线信道对替代模型的对抗攻击迁移性的影响。
2024-11-08 16:46:18
297
1
原创 【信号处理】绘制IQ信号时域图、星座图、功率谱
把输入的IQ信号定义为信号的实部和虚部(但实际上IQ两路信号都是实信号)将I和Q分别作为横轴和纵轴,那么在复平面上每两个IQ值可以对应一个固定的点,将坐标图画出来就叫做星座图。
2024-11-08 16:28:03
1506
原创 【信号处理】使用CNN对RF调制信号进行分类
Using CNN to classify RF modulation data.Dataset is from: DATA LINKpaper: Over the Air Deep Learning Based Radio Signal ClassificationData is processed. Column data are a two variable label composed of the Modulation and SNR, Row 0 is the binary encoded ve
2024-11-07 16:32:03
494
原创 【信号处理】基于联合图像表示的深度学习卷积神经网络
实验显示了哪种信号表示在被测试的信号中更好地分类。与眼图和AF相比,星座图获得了更好的精度。当结合信号表示,特别是星座图和眼图时,比单独使用它们获得了更好的结果。结合自动对焦和眼图,信号在-15 dB时略有改善。而使用自动对焦的星座图并没有改善结果。模糊函数描述了信号的两个维度(dimensions):延迟(delay)和多普勒(Doppler)。优化函数使用Adam Function。模型架构CNN,深度为7层。训练3个epochs。
2024-11-07 10:13:33
846
原创 【数据增强】Mixup
Mixup是发源于CV领域的一种数据增强技术,发展到现在不仅在CV领域,在NLP、时间序列预测等领域都有其踪影,是一种提分神器。存在问题:大型深度神经网络功能强大,但表现出不良行为,如对记忆和对抗性实例的敏感性。Mixup是一种简单有效的数据增强方法(学习原则),能够缓解这些问题。
2024-10-31 16:16:09
1305
原创 【LaTex】参考文献格式转换(bibtex到bibtem)
很多期刊给出的LaTeX模板中要求参考文献使用\bibitem格式,不能将参考文献放在.bib文件中,而是使用\bibitem{}命令,写在论文的.tex文件中。文献较多时手动添加显然不太实际,解决方法是通过bibtex实现批量处理。
2024-10-15 11:55:45
2523
原创 【论文阅读】基于真实数据感知的模型功能窃取攻击
模型功能窃取攻击是人工智能安全领域的核心问题之一,目的是利用有限的与目标模型有关的信息训练出性能接近的克隆模型,从而实现模型的功能窃取。针对此类问题,一类经典的工作是基于生成模型的方法,这类方法利用生成器生成的图像作为查询数据,在同一查询数据下对两个模型预测结果的一致性进行约束,从而进行模型学习。然而此类方法生成器生成的数据常常是人眼不可辨识的图像,不含有任何语义信息,导致目标模型的输出缺乏有效指导性。针对上述问题,提出一种新的模型窃取攻击方法,实现对图像分类器的有效功能窃取。
2024-10-01 22:10:53
738
2
原创 【论文阅读】一种基于元学习框架的针对智能网络入侵检测系统的快速模型窃取攻击技术
入侵检测系统越来越多地使用机器学习。虽然机器学习在识别恶意流量方面表现出了出色的性能,但它可能会增加隐私泄露的风险。本文重点关注对入侵检测系统实施模型窃取攻击。现有的模型窃取攻击很难在实际网络环境中实施,因为它们要么需要受害者数据集的私有数据,要么需要频繁访问受害者模型。在本文中,我们提出了一种称为快速模型窃取攻击(FMSA)的新颖解决方案来解决模型窃取攻击领域的问题。我们还强调了在网络安全中使用 ML-NIDS 的风险。首先,将元学习框架引入模型窃取算法中,以在黑盒状态下克隆受害者模型。
2024-10-01 22:09:44
483
1
原创 【PyTorch】生成对抗网络
Generative Adversarial Nets,简称GANGAN:生成对抗网络 —— 一种可以生成的模型。
2024-09-29 21:21:25
1116
3
原创 【PyTorch】环境配置
2017年1月,FAIR(Facebook AI Research)发布了PyTorch。PyTorch是在Torch基础上用python语言重新打造的一款。Torch是采用Lua语言作为接口的机器学习框架,但因为Lua语言较为小众,导致Torch知名度不高。
2024-09-27 16:00:56
1051
原创 【PyTorch】autograd与逻辑回归
线性回归是分析自变量x与因变量y(标量)之间关系的方法。逻辑回归是分析自变量x与因变量y(概率)之间关系的方法。
2024-09-20 17:45:23
558
原创 【PyTorch】计算图与动态图机制
深度学习就是对张量进行一系列的操作,随着操作种类和数量的增多,会出现各种值得思考的问题。比如多个操作之间是否可以并行,如何协同底层的不同设备,如何避免冗余的操作,以实现最高效的计算效率,同时避免一些 bug。因此产生了计算图 (Computational Graph)。
2024-09-20 16:53:44
533
原创 【PyTorch】张量操作与线性回归
功能:在维度dim上,按index索引数据返回值(依index索引数据拼接的张量)功能:逐元素计算 input + alpha × other。注意事项:当张量在内存中是连续时,新张量与input。注意事项:若不能整除,最后一份张量小于其他张量。(改变一个变量时,另一个变量也会被改变)。功能:2维张量转置,对矩阵而言,等价于。功能:将张量按维度dim进行平均切分。功能:按mask中的True进行索引。功能:将张量按维度dim进行拼接。功能:将张量按维度dim进行切分。功能:交换张量的两个维度。
2024-09-20 15:59:35
1518
原创 【PyTorch】Tensor(张量)介绍
Tensor 中文为张量。张量的意思是一个,它是标量、向量、矩阵的高维扩展。标量可以称为 0 维张量,向量可以称为 1 维张量,矩阵可以称为 2 维张量,RGB 图像可以表示 3 维张量。你可以把张量看作多维数组。
2024-09-20 08:50:40
2030
原创 【PyTorch】深入浅出PyTorch
Why learn PyTorchPyTorch日益增长的发展速度与深度学习时代的迫切需求构建知识体系熟悉知识分布对应查缺补漏
2024-09-19 19:38:35
620
原创 【PyTorch】逻辑回归
组织上面 4 个模块进行反复训练。包括观察训练效果,绘制 Loss/ Accuracy 曲线,用 TensorBoard 进行可视化分析。包括根据梯度使用某种优化器更新参数,管理模型参数,管理多个参数组实现不同学习率,调整学习率。包括数据读取,数据清洗,进行数据划分和数据预处理,比如读取图片如何预处理及数据增强。包括创建损失函数,设置损失函数超参数,根据不同任务选择合适的损失函数。包括构建模型模块,组织复杂网络,初始化网络参数,定义网络层。
2024-09-06 16:27:35
548
原创 【论文阅读】LLM4CP: Adapting Large Language Models for Channel Prediction(2024)
massive multi-input multi-output (m-MIMO),大规模多输入多输出。large language models (LLMs),大语言模型LLMs。该论文把大语言模型LLM用到物理层通信无线信道CSI预测上。channel prediction,信道预测。time-series,时间序列。fine-tuning,微调。
2024-09-05 14:27:45
1381
1
原创 【论文阅读】AugSteal: Advancing Model Steal With Data Augmentation in Active Learning Frameworks(2024)
设计了一个名为Fusion Augmentation的数据增强模块,整合了两种创新的损失函数计算方法,并引入了动态超参数调整策略。开发了一种自适应的主动学习选择策略,选择对不同黑盒模型具有重要信息增益的数据样本,提高攻击的特异性和有效性。开发了一种结合边际概率和聚类方法的主动学习选择策略(MPCL),专注于选择对模型训练非常有价值的样本。提出了一种基于主动学习的融合增强模型窃取框架(AugSteal),用于硬标签黑盒模型。提出了一种创新的数据集优化算法,有效消除混淆因素,同时保留样本的完整性。
2024-09-04 18:51:17
1321
1
原创 【数据集】RadioML2016.10a(RML2016.10a)
RML2016.10a数据集是一个用于无线电信号调制识别的数据集,它包含了多种数字和模拟调制方式的信号样本。这些样本是通过软件定义无线电(SDR)技术生成的,使用了GNURadio和Python编程语言。该数据集共有220000条样本,每个样本的size为(2, 128),即I/Q两路数据,每个样本的长度为128。信噪比为-20dB~18dB,间隔为2dB,即20种不同的信噪比环境。共有11种不同的调制方式。
2024-09-04 11:06:57
3041
原创 【论文阅读】DivTheft: An Ensemble Model Stealing Attack by Divide-and-Conquer(2023)
model stealing/extraction attack,模型窃取/提取攻击。Ensemble learning,集成学习。black-box attack,黑盒攻击。MLaaS,机器学习即服务。
2024-09-03 11:36:47
1091
1
原创 【论文阅读】SwiftTheft: A Time-Efficient Model Extraction Attack Framework(2024)
这份文件是一篇关于人工智能安全领域的研究论文,标题为“SwiftTheft: A Time-Efficient Model Extraction Attack Framework Against Cloud-Based Deep Neural Networks”,作者是来自中国武汉大学和浙江大学的研究人员
2024-09-03 11:24:31
893
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人