智善AI伦理安全平台体系
首页
(current)
人工智能风险与治理案例库
人工智能算法安全风险检测系统
人工智能模型公平性检测系统
关于
English
人工智能算法安全风险检测系统
本系统旨在测试人工智能算法的安全风险。
选择需要测试的神经网络模型和对抗性攻击算法,按下“提交”按钮,系统将进行对抗攻击测试,并返回测试报告。
开始检测
要开始测试,请选择要应用的对抗攻击算法和待测试神经网络模型。
请选择要使用的神经网络算法:
请选择一个神经网络算法...
ResNet18 - 感知人工神经网络
VGG16 - 感知人工神经网络
Rate Coding SNN - 感知脉冲神经网络
Direct Coding SNN - 感知脉冲神经网络
DQN - 决策类人工神经网络
SDQN - 决策类脉冲神经网络
选择数据集大小:
1
5
10
100
选择样本:
如果不选择样本,系统将随机选择其中一个作为样本
选择样本:
如果不选择样本,系统将随机选择其中一个作为样本
选择样本:
如果不选择样本,系统将随机选择其中一个作为样本
选择样本:
如果不选择样本,系统将随机选择其中一个作为样本
选择样本:
如果不选择样本,系统将随机选择其中一个作为样本
选择样本:
如果不选择样本,系统将随机选择其中一个作为样本
是否进行有目标攻击:
是
否
选择一个对抗攻击算法来进行攻击测试:
请选择一个对抗攻击算法...
FGSM
PGD
DeepFool
CW
SparseFool
Probabilistic Sampling
SpikeFool
Gradient Flip
RL-FGSM
Strategically-Timed Attack
提交
合作项目:
ARES (Adversarial Robustness Evaluation for Safety, 对抗攻击鲁棒性评估)