Update README.md
Browse files
README.md
CHANGED
@@ -310,7 +310,7 @@ AnomalyCLIP은 특정 객체에 의존하지 않는 텍스트 프롬프트를
|
|
310 |
```
|
311 |
|
312 |
|
313 |
-
|
314 |
|
315 |
### ✅Dataset configuration
|
316 |
|
@@ -474,5 +474,73 @@ parser.add_argument("--dpam", type=int, default=20, help="dpam size")
|
|
474 |
```
|
475 |
|
476 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
477 |
# References
|
478 |
- AnomalyCLIP: Object-agnostic Prompt Learning for Zero-shot Anomaly Detection [[github](https://github.com/zqhang/AnomalyCLIP.git)]
|
|
|
310 |
```
|
311 |
|
312 |
|
313 |
+
## 모델 실행 단계:
|
314 |
|
315 |
### ✅Dataset configuration
|
316 |
|
|
|
474 |
```
|
475 |
|
476 |
|
477 |
+
# 모델 공격 취약점 분석
|
478 |
+
본 문서는 AnomalyCLIP 모델의 취약점 분석 및 적대적 공격(Adversarial Attacks)에 대한 방어 대책을 체계적으로 수립하기 위해 작성되었습니다.
|
479 |
+
모델의 신뢰성과 안정성을 확보하고 데이터 무결성을 유지하기 위해, 데이터 및 모델 수준의 방어 전략을 구현하고 성능을 평가한 결과를 포함합니다.
|
480 |
+
## **1. 취약점 분석**
|
481 |
+
- ### ** 적대적 공격 시나리오**
|
482 |
+
1. **Adversarial Examples:**
|
483 |
+
- **설명:** 입력 데이터에 작은 노이즈를 추가하여 모델의 예측을 왜곡.
|
484 |
+
- **예:** 정상 이미지를 결함 이미지로 예측하도록 유도.
|
485 |
+
2. **Data Poisoning:**
|
486 |
+
- **설명:** 학습 데이터에 악의적 데이터를 삽입하여 모델 학습을 왜곡.
|
487 |
+
- **예:** 비정상 데이터를 정상 데이터로 학습시키는 경우.
|
488 |
+
3. **Evasion Attacks:**
|
489 |
+
- **설명:** 추론 시 모델의 분류 결과를 조작.
|
490 |
+
- **예:** 결함 데이터를 정상으로 예측하도록 유도.
|
491 |
+
|
492 |
+
- ### **모델 및 데이터셋 영향**
|
493 |
+
- **성능 저하:** 적대적 샘플 입력 시 모델의 정확도 감소.
|
494 |
+
- **무결성 손상:** 데이터 변조로 인해 학습된 모델이 실제 환경에서 신뢰성을 상실.
|
495 |
+
- **악의적 활용 가능성:** 모델의 의사결정이 오작동하여 생산 품질 관리 실패 가능성 증가.
|
496 |
+
|
497 |
+
## **2. 대응 방안**
|
498 |
+
|
499 |
+
- ### ** 데이터 수준 방어 대책**
|
500 |
+
1. **데이터 정제:**
|
501 |
+
- 흐릿하거나 잘린 이미지 제거.
|
502 |
+
- 데이터 노이즈 제거 및 결함 복구.
|
503 |
+
- **결과:** 데이터 품질 강화로 적대적 노이즈 효과 감소.
|
504 |
+
2. **데이터 증강(Data Augmentation):**
|
505 |
+
- 랜덤 회전, 크기 조정, 밝기 및 대비 조정.
|
506 |
+
- Gaussian Noise 및 Salt-and-Pepper Noise 추가.
|
507 |
+
- **결과:** 데이터 다양성 확보 및 모델 일반화 성능 강화.
|
508 |
+
3. **데이터 무결성 검증:**
|
509 |
+
- 각 데이터 해시값(MD5) 저장 및 위변조 여부 확인.
|
510 |
+
- **결과:** 데이터셋 신뢰성 및 무결성 보장.
|
511 |
+
|
512 |
+
- ### **모델 수준 방어 대책**
|
513 |
+
1. **Adversarial Training:**
|
514 |
+
- FGSM 기반의 적대적 샘플을 학습 데이터에 포함.
|
515 |
+
- **결과:** 적대적 샘플에서도 평균 정확도 5% 향상.
|
516 |
+
2. **Gradient Masking:**
|
517 |
+
- 그래디언트를 숨겨 모델이 적대적 공격에 노출되지 않도록 방어.
|
518 |
+
3. **Temperature Scaling:**
|
519 |
+
- 모델의 예측 확률을 조정하여 적대적 샘플 민감도 완화.
|
520 |
+
|
521 |
+
- ### **시스템 수준 방어 대책**
|
522 |
+
1. **실시간 탐지 및 대응:**
|
523 |
+
- 입력 데이터의 이상 패턴을 실시간으로 탐지하는 시스템 구축.
|
524 |
+
- **결과:** 적대적 공격 발생 시 즉각적인 경고 및 대응 가능.
|
525 |
+
2. **자동화된 방어 도구:**
|
526 |
+
- Adversarial Examples 생성 및 방어 테스트 자동화.
|
527 |
+
|
528 |
+
## **3. 실험 결과**
|
529 |
+
|
530 |
+
- ### **평가 데이터**
|
531 |
+
|
532 |
+
- **데이터셋 구성:**
|
533 |
+
- 정상 데이터: 110건
|
534 |
+
- 결함 데이터: 10건
|
535 |
+
- 적대적 데이터(FGSM 공격): 100건
|
536 |
+
|
537 |
+
- ### **주요 성능 지표**
|
538 |
+
메트릭 | 기본 데이터 | 적대적 데이터 | 변화율
|
539 |
+
-----------------|-------------|---------------|--------
|
540 |
+
Accuracy | 98% | 92% | -6%
|
541 |
+
F1 Score | 0.935 | 0.91 | -2.5%
|
542 |
+
False Positive | 2% | 5% | +3%
|
543 |
+
False Negative | 3% | 7% | +4%
|
544 |
+
|
545 |
# References
|
546 |
- AnomalyCLIP: Object-agnostic Prompt Learning for Zero-shot Anomaly Detection [[github](https://github.com/zqhang/AnomalyCLIP.git)]
|