quandao92 commited on
Commit
945d98f
·
verified ·
1 Parent(s): 534f0c2

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -10
README.md CHANGED
@@ -8,10 +8,10 @@
8
  이 모델은 CLIP 기반의 이상 탐지 방법을 사용하여 제품 결함을 탐지합니다.
9
  사전 훈련된 CLIP 모델을 fine-tuning하여 제품 이미지에서 결함을 식별하고, 생산 라인에서 품질 관리 및 결함 감지를 자동화합니다.
10
 
11
- - **Developed by:** 박진제
12
  - **Funded by:** 4INLAB INC.
13
- - **Shared by:** None
14
- - **Model type:** YOLOv7 (Object Detection)
15
  - **Language(s):** Python, PyTorch
16
  - **License:** Apache 2.0, MIT, GPL-3.0
17
 
@@ -107,7 +107,7 @@
107
  # Training Parameters
108
  **하이퍼파라미터 설정**
109
  - Learning Rate: 0.001.
110
- - Batch Size: 1.
111
  - Epochs: 200.
112
 
113
  # Pre-trained CLIP model
@@ -118,10 +118,6 @@
118
  | ViT-L/14 | [download](https://openaipublic.azureedge.net/clip/models/b8cca3fd41ae0c99ba7e8951adf17d267cdb84cd88be6f7c2e0eca1737a03836/ViT-L-14.pt) |
119
  | ViT-L/14@336px | [download](https://openaipublic.azureedge.net/clip/models/3035c92b350959924f9f00213499208652fc7ea050643e8b385c2dac08641f02/ViT-L-14-336px.pt) |
120
 
121
- # Data Parameters
122
- **데이터 증강**
123
- - 회전을 적용하여 모델의 일반화 성능 강화.
124
-
125
  # Evaluation Parameters
126
  - F1-score: 95%이상.
127
 
@@ -131,8 +127,6 @@
131
  - **학습성능 테스트 결과과 그래프**:
132
  ![image/png](https://cdn-uploads.huggingface.co/production/uploads/65e7d0935ea025ead9623dde/RduhNlkWiyPXj-vbAkJga.png)
133
 
134
-
135
-
136
  - **학습 결과표**:
137
  ![image/png](https://cdn-uploads.huggingface.co/production/uploads/65e7d0935ea025ead9623dde/kDxl9q6X2dxCRJm5nc7jR.png)
138
 
 
8
  이 모델은 CLIP 기반의 이상 탐지 방법을 사용하여 제품 결함을 탐지합니다.
9
  사전 훈련된 CLIP 모델을 fine-tuning하여 제품 이미지에서 결함을 식별하고, 생산 라인에서 품질 관리 및 결함 감지를 자동화합니다.
10
 
11
+ - **Developed by:** 오석
12
  - **Funded by:** 4INLAB INC.
13
+ - **Shared by:** zhou2023anomalyclip
14
+ - **Model type:** CLIP based Anomaly Detection
15
  - **Language(s):** Python, PyTorch
16
  - **License:** Apache 2.0, MIT, GPL-3.0
17
 
 
107
  # Training Parameters
108
  **하이퍼파라미터 설정**
109
  - Learning Rate: 0.001.
110
+ - Batch Size: 8.
111
  - Epochs: 200.
112
 
113
  # Pre-trained CLIP model
 
118
  | ViT-L/14 | [download](https://openaipublic.azureedge.net/clip/models/b8cca3fd41ae0c99ba7e8951adf17d267cdb84cd88be6f7c2e0eca1737a03836/ViT-L-14.pt) |
119
  | ViT-L/14@336px | [download](https://openaipublic.azureedge.net/clip/models/3035c92b350959924f9f00213499208652fc7ea050643e8b385c2dac08641f02/ViT-L-14-336px.pt) |
120
 
 
 
 
 
121
  # Evaluation Parameters
122
  - F1-score: 95%이상.
123
 
 
127
  - **학습성능 테스트 결과과 그래프**:
128
  ![image/png](https://cdn-uploads.huggingface.co/production/uploads/65e7d0935ea025ead9623dde/RduhNlkWiyPXj-vbAkJga.png)
129
 
 
 
130
  - **학습 결과표**:
131
  ![image/png](https://cdn-uploads.huggingface.co/production/uploads/65e7d0935ea025ead9623dde/kDxl9q6X2dxCRJm5nc7jR.png)
132