quandao92 commited on
Commit
386b2fe
·
verified ·
1 Parent(s): 40c4e77

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +69 -1
README.md CHANGED
@@ -310,7 +310,7 @@ AnomalyCLIP은 특정 객체에 의존하지 않는 텍스트 프롬프트를
310
  ```
311
 
312
 
313
- ### 모델 실행 단계:
314
 
315
  ### ✅Dataset configuration
316
 
@@ -474,5 +474,73 @@ parser.add_argument("--dpam", type=int, default=20, help="dpam size")
474
  ```
475
 
476
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
477
  # References
478
  - AnomalyCLIP: Object-agnostic Prompt Learning for Zero-shot Anomaly Detection [[github](https://github.com/zqhang/AnomalyCLIP.git)]
 
310
  ```
311
 
312
 
313
+ ## 모델 실행 단계:
314
 
315
  ### ✅Dataset configuration
316
 
 
474
  ```
475
 
476
 
477
+ # 모델 공격 취약점 분석
478
+ 본 문서는 AnomalyCLIP 모델의 취약점 분석 및 적대적 공격(Adversarial Attacks)에 대한 방어 대책을 체계적으로 수립하기 위해 작성되었습니다.
479
+ 모델의 신뢰성과 안정성을 확보하고 데이터 무결성을 유지하기 위해, 데이터 및 모델 수준의 방어 전략을 구현하고 성능을 평가한 결과를 포함합니다.
480
+ ## **1. 취약점 분석**
481
+ - ### ** 적대적 공격 시나리오**
482
+ 1. **Adversarial Examples:**
483
+ - **설명:** 입력 데이터에 작은 노이즈를 추가하여 모델의 예측을 왜곡.
484
+ - **예:** 정상 이미지를 결함 이미지로 예측하도록 유도.
485
+ 2. **Data Poisoning:**
486
+ - **설명:** 학습 데이터에 악의적 데이터를 삽입하여 모델 학습을 왜곡.
487
+ - **예:** 비정상 데이터를 정상 데이터로 학습시키는 경우.
488
+ 3. **Evasion Attacks:**
489
+ - **설명:** 추론 시 모델의 분류 결과를 조작.
490
+ - **예:** 결함 데이터를 정상으로 예측하도록 유도.
491
+
492
+ - ### **모델 및 데이터셋 영향**
493
+ - **성능 저하:** 적대적 샘플 입력 시 모델의 정확도 감소.
494
+ - **무결성 손상:** 데이터 변조로 인해 학습된 모델이 실제 환경에서 신뢰성을 상실.
495
+ - **악의적 활용 가능성:** 모델의 의사결정이 오작동하여 생산 품질 관리 실패 가능성 증가.
496
+
497
+ ## **2. 대응 방안**
498
+
499
+ - ### ** 데이터 수준 방어 대책**
500
+ 1. **데이터 정제:**
501
+ - 흐릿하거나 잘린 이미지 제거.
502
+ - 데이터 노이즈 제거 및 결함 복구.
503
+ - **결과:** 데이터 품질 강화로 적대적 노이즈 효과 감소.
504
+ 2. **데이터 증강(Data Augmentation):**
505
+ - 랜덤 회전, 크기 조정, 밝기 및 대비 조정.
506
+ - Gaussian Noise 및 Salt-and-Pepper Noise 추가.
507
+ - **결과:** 데이터 다양성 확보 및 모델 일반화 성능 강화.
508
+ 3. **데이터 무결성 검증:**
509
+ - 각 데이터 해시값(MD5) 저장 및 위변조 여부 확인.
510
+ - **결과:** 데이터셋 신뢰성 및 무결성 보장.
511
+
512
+ - ### **모델 수준 방어 대책**
513
+ 1. **Adversarial Training:**
514
+ - FGSM 기반의 적대적 샘플을 학습 데이터에 포함.
515
+ - **결과:** 적대적 샘플에서도 평균 정확도 5% 향상.
516
+ 2. **Gradient Masking:**
517
+ - 그래디언트를 숨겨 모델이 적대적 공격에 노출되지 않도록 방어.
518
+ 3. **Temperature Scaling:**
519
+ - 모델의 예측 확률을 조정하여 적대적 샘플 민감도 완화.
520
+
521
+ - ### **시스템 수준 방어 대책**
522
+ 1. **실시간 탐지 및 대응:**
523
+ - 입력 데이터의 이상 패턴을 실시간으로 탐지하는 시스템 구축.
524
+ - **결과:** 적대적 공격 발생 시 즉각적인 경고 및 대응 가능.
525
+ 2. **자동화된 방어 도구:**
526
+ - Adversarial Examples 생성 및 방어 테스트 자동화.
527
+
528
+ ## **3. 실험 결과**
529
+
530
+ - ### **평가 데이터**
531
+
532
+ - **데이터셋 구성:**
533
+ - 정상 데이터: 110건
534
+ - 결함 데이터: 10건
535
+ - 적대적 데이터(FGSM 공격): 100건
536
+
537
+ - ### **주요 성능 지표**
538
+ 메트릭 | 기본 데이터 | 적대적 데이터 | 변화율
539
+ -----------------|-------------|---------------|--------
540
+ Accuracy | 98% | 92% | -6%
541
+ F1 Score | 0.935 | 0.91 | -2.5%
542
+ False Positive | 2% | 5% | +3%
543
+ False Negative | 3% | 7% | +4%
544
+
545
  # References
546
  - AnomalyCLIP: Object-agnostic Prompt Learning for Zero-shot Anomaly Detection [[github](https://github.com/zqhang/AnomalyCLIP.git)]