abdullah's picture
Add files using upload-large-folder tool
4659357 verified
1
00:00:20,650 --> 00:00:23,110
بسم الله الرحمن الرحيم احنا اليوم ان شاء الله بدنا
2
00:00:23,110 --> 00:00:26,450
نكمل الموضوع اللي فتحناه قبل هيكه في المحاضرات
3
00:00:26,450 --> 00:00:32,610
الماضية اللي هو ال artificial neural networks ال
4
00:00:32,610 --> 00:00:35,670
supervised learning باستخدام ال artificial neural
5
00:00:35,670 --> 00:00:42,570
networks كنا في المحاضرة الماضية حكينا عن اللي هو
6
00:00:42,570 --> 00:00:48,290
ال Perceptron وشوفنا قالية العمل تبعتهو آلية
7
00:00:48,290 --> 00:00:53,090
التعلم اللي هي مقصودة بالتعديل الأوزاني و بعدين
8
00:00:53,090 --> 00:00:57,270
كمان ايضا اطلعنا على ال multi-layered networks ال
9
00:00:57,270 --> 00:01:00,270
multi-layered networks اللي هي عبارة عن شبكة من ال
10
00:01:00,270 --> 00:01:05,850
perceptrons الشبكة هذه مهيكلة على أساس layers و ال
11
00:01:05,850 --> 00:01:08,890
layers كل layer فيها مجموعة من ال perceptrons
12
00:01:08,890 --> 00:01:13,090
بتغذي المجموعة اللي بعدها أو ال layer اللي بعدها
13
00:01:14,080 --> 00:01:18,840
وشوفنا آلية الآن التعلم في ال multilayer networks
14
00:01:18,840 --> 00:01:23,080
صح آلية التعلم المفصولة بها مرة أخرى اللي هي آلية
15
00:01:23,080 --> 00:01:27,420
تعديل الأوزان وشوفنا كيف بتختلف آلية تعديل الأوزان
16
00:01:27,420 --> 00:01:36,000
في ال output يرعنها في ال hidden layer صح الآن
17
00:01:36,000 --> 00:01:40,290
احنا بدنانلقي نظرة أخيرة على ال multilayer
18
00:01:40,290 --> 00:01:44,510
networks بعدين بنحكي في جزئية صغيرة اللي هي ال
19
00:01:44,510 --> 00:01:48,610
accelerating اللي هي النقطة هذه ماضح النقطة هذه
20
00:01:48,610 --> 00:01:53,170
اللي هي accelerated learning المقصود بيها تسريع
21
00:01:53,170 --> 00:01:56,710
عملية التعلم عملية التعلم احنا فاهمين انها بتحصل
22
00:01:56,710 --> 00:02:04,390
على شكل ايش iterations iterations مظبوط وسمينا كل
23
00:02:04,390 --> 00:02:08,630
مجموعة من ال iterations سمينها epo صحالـ Epoch هو
24
00:02:08,630 --> 00:02:14,970
دفعة أو short من ال iterations عملية التسريع هو
25
00:02:14,970 --> 00:02:21,870
تقليل عدد ال iterations بدل من أن ال network تأخذ
26
00:02:21,870 --> 00:02:29,940
400 دورة 400 iterations قبل أن تستقر الأوزانلما
27
00:02:29,940 --> 00:02:33,020
بنقول احنا بدنا نسرع لقليلة التعلم، معناه ذلك
28
00:02:33,020 --> 00:02:36,240
الأربعمية هدولة بدنا نختصرهم أو بنجللهم إلى تلت
29
00:02:36,240 --> 00:02:42,100
مية، إلى متين، إلى مية ربما، بدون أن ننطقش من دقة
30
00:02:42,100 --> 00:02:48,290
التعلمهذه النقطة اللي هي المقصود بها اللي هو
31
00:02:48,290 --> 00:02:52,730
accelerated learning او ممكن نقول accelerating ال
32
00:02:52,730 --> 00:02:55,570
learning يعني تسريع التعلم في ال multi neural
33
00:02:55,570 --> 00:02:59,390
networks بعد ما نخلص النقطة هذه ان شاء الله بنتطلع
34
00:02:59,390 --> 00:03:03,250
على ال hub field network و ال BAM اللي هي
35
00:03:03,250 --> 00:03:07,010
bidirectional associative memories هدولة نوعين من
36
00:03:07,010 --> 00:03:13,420
ال artificial neural networksاللي بينطور تحت إطار
37
00:03:13,420 --> 00:03:18,200
اللي هو supervised learning طيب، إيش قلنا بدنا
38
00:03:18,200 --> 00:03:20,640
نبدأ في الأول بإيش؟ بإننا نلقي نظرة أخيرة على ال
39
00:03:20,640 --> 00:03:23,920
multilayer neural networks اللي كنا حكينا فيها من
40
00:03:23,920 --> 00:03:28,400
قبل بدنا نتقل على طريقة ال slide اللي فيها ال
41
00:03:28,400 --> 00:03:34,040
example اللي تبع تتذكروا تبع إيش؟ تبع تدريب ال
42
00:03:34,040 --> 00:03:41,100
network علىاللي هو ال XOR ال XOR gate او ال XOR
43
00:03:41,100 --> 00:03:44,900
function ذاكرين
44
00:03:44,900 --> 00:03:49,700
هذا المثال اما كنا بنحكي انه هاي ال neural network
45
00:03:49,700 --> 00:03:54,920
في عندنا التلاتة nodes هدولة node رقم تلاتة و رقم
46
00:03:54,920 --> 00:03:58,020
اربعة هدولة تابعين لأنهي layer ال hidden layer
47
00:03:58,020 --> 00:04:03,460
مظبوط ال hidden layer صح و ال output layer ايش
48
00:04:03,460 --> 00:04:07,660
فيهافيها node واحدة اللي هي node number five صح
49
00:04:07,660 --> 00:04:13,200
لأن ال input بيدخل ب X1 و X2 على node number one و
50
00:04:13,200 --> 00:04:16,700
node number two ملاحظين هدول ال two nodes شكلهم
51
00:04:16,700 --> 00:04:22,780
مربع لتمييزهم عن من عن ال nodes الأخرى مميزين بإيش
52
00:04:22,780 --> 00:04:26,300
إيش الفرق ما بينهم إن هدول ما بيعملوش أي
53
00:04:27,210 --> 00:04:31,330
calculations مابعملوش أي computation صح مجرد اللي
54
00:04:31,330 --> 00:04:35,890
بيدخل عليهم بتوزع علي مين علي بعدهم okay يبقى احنا
55
00:04:35,890 --> 00:04:39,730
عمليا في المثال هذا يوم ما بدنا نيجي نحسب و نعد
56
00:04:39,730 --> 00:04:42,990
الأوزان و نعد الأوزان بس تلاتة و أربعة و خمسة
57
00:04:42,990 --> 00:04:47,470
مظبوط بنبدأ من مين من الخمسة في الأول بالظبط لإن
58
00:04:47,470 --> 00:04:52,080
الخمسة هي اللي عندها desired outputو هي اللى بتقدر
59
00:04:52,080 --> 00:04:55,460
تعرف ال error او تحسب ال error و بعدها بتطلع ال
60
00:04:55,460 --> 00:04:59,420
error بتعدل أوزانها و بعدها بترحل ال error
61
00:04:59,420 --> 00:05:02,820
gradient الى مين الى تلاتة و أربعة ال error
62
00:05:02,820 --> 00:05:07,900
gradient اللى ذكره هو small delta بترحل الى تلاتة
63
00:05:07,900 --> 00:05:10,740
و الى أربعة عشان كل واحدة منهم تلاتة و أربعة تحسب
64
00:05:10,740 --> 00:05:15,230
ال error تبعها ال error gradient تبعها يعنيعشان
65
00:05:15,230 --> 00:05:18,730
تعدّل أوزانها بناء عليه هذه الكلام هي total طبعا
66
00:05:18,730 --> 00:05:22,710
هنا في ال slide هذه بيعقيلك ال initial values تبع
67
00:05:22,710 --> 00:05:30,390
ال ايش الأوزان
68
00:05:30,390 --> 00:05:34,230
ال threshold
69
00:05:34,230 --> 00:05:41,980
that theta صح؟ مصبوط؟بعد ذلك هنا بيبدأ الحسبة أول
70
00:05:41,980 --> 00:05:46,260
شيء بيحسب ال Y3 ال output اللي بدي يطلع من Y3
71
00:05:46,260 --> 00:05:53,100
مظبوط بس احنا قلنا أول حاجة بدي تم تعديل الأوزان
72
00:05:53,100 --> 00:05:59,840
فيها على Y5 طب ليش بدأنا في Y3 و Y4؟ لأن وصل ال Y5
73
00:06:01,600 --> 00:06:05,000
بتعرف كيف تحسب ال output تبعها لازم يجيها input من
74
00:06:05,000 --> 00:06:09,120
وين بتجيها ال input من Y3 و Y4 يبقى لازم أحسب Y3 و
75
00:06:09,120 --> 00:06:13,800
Y4 ليش بدهم يطلعوا عشان نسلموا ل Y5 عشان Y5 تحسب
76
00:06:13,800 --> 00:06:16,580
ال output تبعها تبعها دلوقت لإن شوف إيش فيه error
77
00:06:16,580 --> 00:06:22,180
و اترحل تاني يعني احنا forward propagation
78
00:06:22,180 --> 00:06:26,140
of data و backward propagation of error
79
00:06:26,140 --> 00:06:31,070
information صح؟ okayهي الآن بعد ما طلعت ويتلت و ..
80
00:06:31,070 --> 00:06:34,050
من حسب ويتلت و .. طبعا ويتلت ال activation
81
00:06:34,050 --> 00:06:37,870
function استخدمت اللي هي ال sigmoid ال sigmoid
82
00:06:37,870 --> 00:06:41,270
طبعا يوم ما يكون في عندك مثلة أو امتحان أو كده ال
83
00:06:41,270 --> 00:06:44,830
formula هتبدو مواطية لك انت بس مجرد ايش بتاخد
84
00:06:44,830 --> 00:06:48,110
الأرقام و بتطلع ال output ال output لأن ال sigmoid
85
00:06:48,110 --> 00:06:51,330
بتطلع continuous values يعني ايش يعني أرقام عشرية
86
00:06:51,330 --> 00:06:58,750
مش binary زي مين زي ال stepو ليش؟ بال pulse
87
00:06:58,750 --> 00:07:04,010
function صح؟ okay فالان هذه ال continuous values
88
00:07:04,010 --> 00:07:07,870
او ال real values او ال float values بتدخش على مين
89
00:07:07,870 --> 00:07:12,350
على Y5 تنضرب في الأوزن تبعها و تتاخذ مع ال
90
00:07:12,350 --> 00:07:16,750
threshold عشان تطلع ال output تبع Y5 من هنا الأن
91
00:07:16,750 --> 00:07:20,610
نبدأ نشوف ليش ال error ال error اللي انا بنحسب هو
92
00:07:20,610 --> 00:07:24,610
عبارة عن ببساطة ال difference ما بين ال desired ال
93
00:07:24,610 --> 00:07:32,080
desired لما كانلما يكون عندي انا ال X واحد X واحد
94
00:07:32,080 --> 00:07:36,240
انا بقشر هنا X واحد و X اتنين الاتنين ال input ال
95
00:07:36,240 --> 00:07:41,340
value تبعهم one one one لازم ال X core function
96
00:07:41,340 --> 00:07:42,120
تعطيني ايش
97
00:07:50,560 --> 00:07:54,460
Y5 يفترض أن يكون Zero بس ماهو اللي بيطلع معنا هنا
98
00:07:54,460 --> 00:07:56,580
في ال calculation هذا يفترض أن يكون Zero بس ماهو
99
00:07:56,580 --> 00:07:56,920
اللي بيطلع معنا هنا في ال calculation هذا يفترض أن
100
00:07:56,920 --> 00:07:56,960
يكون Zero بس ماهو اللي بيطلع معنا هنا في ال
101
00:07:56,960 --> 00:08:03,540
calculation هذا يفترض أن يكون Zero بس
102
00:08:03,540 --> 00:08:05,000
ماهو اللي بيطلع معنا هنا في ال calculation هذا
103
00:08:05,000 --> 00:08:06,320
يفترض أن يكون Zero بس ماهو اللي بيطلع معنا هنا في
104
00:08:07,180 --> 00:08:09,700
الـ small delta تبعه هاي الخمسة اللي هي ايش اسمها
105
00:08:09,700 --> 00:08:13,220
ال error gradient شوف أنا وين بقشر هنا ال error
106
00:08:13,220 --> 00:08:18,200
gradient اذا ذكروها هذا المصطلح ان هو ال small
107
00:08:18,200 --> 00:08:23,070
deltaال aero gradient هذا لما بنحسب بعد هيكة على
108
00:08:23,070 --> 00:08:27,630
أساسه تتعدى للأوزان الأوزان تبعون ال inputs اللي
109
00:08:27,630 --> 00:08:33,890
داخلة على Y خمسة صح؟ من هم هدول الأوزان W تلاتة
110
00:08:33,890 --> 00:08:38,190
خمسة و W أربعة خمسة ليش أسميهم هيكة لإن واحد منهم
111
00:08:38,190 --> 00:08:42,670
جاي من تلاتة إلى خمسة والتاني جاي من أربعة إلى
112
00:08:42,670 --> 00:08:47,470
خمسة او الاصح ان احنا نقول واحد منهم هو وزن ال
113
00:08:47,470 --> 00:08:51,610
input اللي جايمن ثلاثة إلى خمسة والتاني هو وزن ال
114
00:08:51,610 --> 00:08:56,910
input اللي جاي من أربعة إلى خمسة صح؟ طبعا فأول اشي
115
00:08:56,910 --> 00:09:00,370
عشان نعدل الأوزن نحسب ال delta تبع الوزن مقدار
116
00:09:00,370 --> 00:09:08,390
التغير بعدين بنضيف ذلك على ال current أو ال weight
117
00:09:08,390 --> 00:09:13,250
الوزن الحالي عشان يطلع معانا وزن جديد نفس الاشي
118
00:09:13,250 --> 00:09:18,000
بنعمل لمين؟الـ Theta ، الـ Threshold لاحظوا أن
119
00:09:18,000 --> 00:09:20,900
عملي التعليل الأوزان ببساطة شديدة يعني الـ Delta
120
00:09:20,900 --> 00:09:22,880
يبقى عبارة عن الـ Alpha اللي هو ال learning rate
121
00:09:22,880 --> 00:09:28,920
مضروب في ال .. قيمة ال input اللي بيخش عبر هذا
122
00:09:28,920 --> 00:09:33,740
الوزن مضروب في ال Delta small Delta اللي هي ال
123
00:09:33,740 --> 00:09:38,840
Delta 5 فهي Delta 5 موجودة في التلت حسبات
124
00:09:40,110 --> 00:09:44,130
طيب هذا الكلام ايش خلصنا ده هذا الكلام بس لحساب
125
00:09:44,130 --> 00:09:48,210
الأوزان تبعد من ال input اللي داخلها على مين على
126
00:09:48,210 --> 00:09:52,450
y5 لازم نعيد نفس الاشي لل inputs اللي داخلها على
127
00:09:52,450 --> 00:10:01,630
y3 و y4 صح؟ okay هذا الكلام نفس القاليم بس طبعا
128
00:10:01,630 --> 00:10:05,270
لازم في الأول كل واحدة من y3 و y5 تحسب ال error
129
00:10:05,270 --> 00:10:09,520
gradient تبعها اللي هو ال small delta تبعتهاوبعدين
130
00:10:09,520 --> 00:10:15,220
عليه small delta تدخل
131
00:10:15,220 --> 00:10:19,040
في حساب الأوزان اللي رايح على تلاتة وبعدين small
132
00:10:19,040 --> 00:10:21,860
delta تبعد أربعة تدخل في حساب الأوزان اللي رايح
133
00:10:21,860 --> 00:10:29,800
على أربعة انا الآن بدل ما اني طبعا هنا بعد هيك
134
00:10:29,800 --> 00:10:35,020
الأوزان اللي هو w واحد على تلاتة واحد على أربعة
135
00:10:35,020 --> 00:10:37,840
اتنين على تلاتة اتنين على اربعة تلاتة على خمسة
136
00:10:37,840 --> 00:10:44,500
تلاتة على اربعةOkay بدل أنا الآن نمر بهذا الحساب
137
00:10:44,500 --> 00:10:48,900
خطوة خطوة لأ أنا بدي أجيب و أقولك الآن اعتبر انت
138
00:10:48,900 --> 00:10:53,340
بدك تكمل المثال هذا ال iteration اللي بعت هذ ال
139
00:10:53,340 --> 00:10:56,880
iteration الأولى ولا لأ لإن هذ ال iteration انبنت
140
00:10:56,880 --> 00:11:01,760
على ال initial ال initialish values تبع الأوزان
141
00:11:01,760 --> 00:11:07,610
مصبوط انت الآن خد هذاو خد ال input اللي بعده مين
142
00:11:07,610 --> 00:11:09,750
ال input اللي بعده اذا كان ال input الأولاني كان
143
00:11:09,750 --> 00:11:17,430
one one خد zero one x1 ب zero و x2 ب one و عيد
144
00:11:17,430 --> 00:11:25,890
الكرة من جديد بالأوزان اللي هذه اللي نتجت من نهاية
145
00:11:25,890 --> 00:11:28,390
ال iteration الأولى انت الآن بدك تحسب ال iteration
146
00:11:28,390 --> 00:11:33,310
التانية بتقدر تعمل هذا الكلام ولا لا بتقدر اذا
147
00:11:33,310 --> 00:11:37,740
أعطيناك homework ان شاء الله بتقدرلأ فخلاص هي الان
148
00:11:37,740 --> 00:11:42,260
homework هي الان homework مطموعة منك أيش تسوي تعيد
149
00:11:42,260 --> 00:11:47,140
الكلام ده كله لل iteration number two عشان تطلع
150
00:11:47,140 --> 00:11:52,140
أيش في الآخر الأوزان يعني في الآخر بدك تطلع صفحة
151
00:11:52,140 --> 00:11:59,710
زي هيك فيها أوزان جديدةاللي بدها تجف عندها اللي هو
152
00:11:59,710 --> 00:12:02,110
ال iteration التاني في نهاية ال iteration التاني
153
00:12:02,110 --> 00:12:05,870
ايش هتكون قيمة الأوزان الجديدة و ال thresholds
154
00:12:05,870 --> 00:12:11,430
جديدة okay طيب هيك بنكون احنا القيل النظر الأخير
155
00:12:11,430 --> 00:12:16,470
على عملية ال back propagation learning واضح ليش
156
00:12:16,470 --> 00:12:20,150
اسمها back propagation لأن احنا بنحمل ال error
157
00:12:20,150 --> 00:12:25,100
لوراعلى ال layers من ال outward على ال hidden ال
158
00:12:25,100 --> 00:12:28,600
hidden طبعا ممكن تبقى layer واحدة او اكتر نين ممكن
159
00:12:28,600 --> 00:12:33,880
two hidden layers ماشي
160
00:12:33,880 --> 00:12:37,240
هاد الان احنا بدنا نحكي في ال acceleration كيف
161
00:12:37,240 --> 00:12:44,540
يمكن تسريع التسريع ال learning هذا ال curve لو
162
00:12:44,540 --> 00:12:50,300
لاحظت عليه ايش بيمثل علاقة ايش بايش هنا epoقول
163
00:12:50,300 --> 00:12:53,940
iterations لأن ال book الواحد هي مجموعة iterations
164
00:12:53,940 --> 00:12:57,300
فانا هنا من zero عشان خمسين مية مية خمسين ميتين
165
00:12:57,300 --> 00:13:02,580
اقصد بيها ايش ميتين iterations مية خمسين
166
00:13:02,580 --> 00:13:07,980
iterations كل ما بزيد عدد ال iterations يفترض ان
167
00:13:07,980 --> 00:13:15,020
ال error ايش بيصير فيه بيجل بيتنقص احنا الآن ال
168
00:13:15,020 --> 00:13:18,490
errorأحيانا ال network بتبقى ال output layer
169
00:13:18,490 --> 00:13:23,890
تبعتها فيها ال node واحدة فهو error واحد مصبوط
170
00:13:23,890 --> 00:13:28,410
أحيانا بيبقى ال layer الأخيرة بيبقى فيها عد تش
171
00:13:29,090 --> 00:13:32,310
notes وبالتالي ال error في عندي error للأولى error
172
00:13:32,310 --> 00:13:35,630
للتانية عدة errors مصموم فإحنا لو جينا ببساطة
173
00:13:35,630 --> 00:13:39,870
شديدة ربعنا ال errors هذه وجمعنا مربعاتهم بيطلع
174
00:13:39,870 --> 00:13:43,870
عني هنا some square error some square error يعني
175
00:13:43,870 --> 00:13:52,170
مقصود بمجموع مربعات ال errors تابعة من تابعة
176
00:13:52,170 --> 00:13:58,630
ال notesهناك أيضا تدخل في الحسبة هالي ال errors
177
00:13:58,630 --> 00:14:02,670
تبع ال hidden layers ال hidden nodes برضه ممكن
178
00:14:02,670 --> 00:14:05,790
نيجي نقول خلينا نجمع كل ال nodes اللي في ال
179
00:14:05,790 --> 00:14:10,410
network سواء output nodes ولا hidden nodes و نجمع
180
00:14:10,410 --> 00:14:14,910
ال errors تبعه منهم طبعا نعبيها في الأول و نجمع
181
00:14:14,910 --> 00:14:19,540
بيطلع معايا some square errorsome square error هذا
182
00:14:19,540 --> 00:14:24,480
يصلح أن يكون مؤشر على إيش على أداء الشبكة أداء ال
183
00:14:24,480 --> 00:14:28,460
network هل تعلمت أو لا صح لأن كل ما عليه ال error
184
00:14:28,460 --> 00:14:32,940
هذا معناته هي لسه لسه
185
00:14:32,940 --> 00:14:37,360
بتخطط لسه بتخطط صح طب احنا في الأول ليش بنربّل
186
00:14:37,360 --> 00:14:41,040
نعمل تربيع ال error ليش ما ناخده زي ما هو قولنا
187
00:14:41,040 --> 00:14:44,340
هذا لأن بعض ال errors بتبقى بالموجب وبعض بالسالب
188
00:14:44,340 --> 00:14:47,560
لو جمعناهم هم ممكن يصفروا بعضهم
189
00:14:50,980 --> 00:14:54,800
مربعهم على انه مؤشر صح لكن لما نبقى ربع ال errors
190
00:14:54,800 --> 00:14:59,200
الموجب والسالب بيصير موجب و لا لأ المربعات بيصير
191
00:14:59,200 --> 00:15:03,900
موجب فنقدر ننظر اليش الي مجموع المربعات على انه
192
00:15:03,900 --> 00:15:08,660
مؤشر على ايش مؤشر
193
00:15:08,660 --> 00:15:15,620
على ايش مؤشر على التعلم جد جيشي تعلمتفهذا الخط
194
00:15:15,620 --> 00:15:20,460
الأزرق أزرق بطالة أزرق أزرق لما بينزل هيكا معناته
195
00:15:20,460 --> 00:15:28,320
إيش مع استمرار عملية التعلم جاعد إيش ال error بجل
196
00:15:28,320 --> 00:15:33,740
صح مع استمرار تشغيل ال iterations ال error جاعد
197
00:15:33,740 --> 00:15:38,940
بجل فإحنا الآن لما بقول accelerating معناته بدنا
198
00:15:38,940 --> 00:15:45,170
ينزل للصفر الصفرهو بعدد ايش اقل من ال iterations
199
00:15:45,170 --> 00:15:49,670
فبنتقل
200
00:15:49,670 --> 00:15:55,410
الان الى هذا ال slide
201
00:15:55,410 --> 00:15:59,830
هناOkay هي بداية اللي هو اللي حاكي عن ال
202
00:15:59,830 --> 00:16:04,770
accelerated learning اعتبرها accelerating learning
203
00:16:04,770 --> 00:16:10,190
يعني ان هو احنا نسرع عملية التعلم ففي عندنا عدة
204
00:16:10,190 --> 00:16:14,350
techniques او عدة خطوات او إجراءات ممكن تنعمل
205
00:16:14,350 --> 00:16:17,650
تغيير بسيطة تغييرات بسيطة على تصميم ال neural
206
00:16:17,650 --> 00:16:21,410
network عساس انه تخلي عملية التعلم أسرع شوية واحدة
207
00:16:21,410 --> 00:16:27,410
منها اللي هي انه ال outputيعني ال .. ال .. ال
208
00:16:27,410 --> 00:16:30,010
sigmoid function اللي على .. اللي هي ال activation
209
00:16:30,010 --> 00:16:36,670
function يعاد صياغتها بهذا الصينةبهذا السبب اللي
210
00:16:36,670 --> 00:16:40,790
هو انه احنا يكون في عندي two constants a و b ال
211
00:16:40,790 --> 00:16:45,730
two constants a و b هدولة ينحسب ال ال y اللي هو ال
212
00:16:45,730 --> 00:16:49,910
output تبع ال perceptron او النود الواحدة بهذه
213
00:16:49,910 --> 00:16:52,890
القلية بدل ما بهذه ال equation بدل ال equation
214
00:16:52,890 --> 00:16:55,650
الأساسية هذه ال equation هي عبارة عن ال equation
215
00:16:55,650 --> 00:16:59,890
تمثل sigmoid functionمش إش جديد بس صياغة أخرى
216
00:16:59,890 --> 00:17:05,370
إليها الصياغة هذه بتساعد على تسريع اختصار وجد يعني
217
00:17:05,370 --> 00:17:11,460
تغيير الأوزان بكميات أكبر وصولا إلي إيشوصولا الى
218
00:17:11,460 --> 00:17:17,880
اوزان بتعطي error اقل فهذه الطريقة الأولى اللي هي
219
00:17:17,880 --> 00:17:22,860
استخدام ال hyperbolic tangent function او صيغة ال
220
00:17:22,860 --> 00:17:26,540
hyperbolic tangent تبع ال sigmoid function بدل ال
221
00:17:26,540 --> 00:17:30,460
direct sigmoid هذا الكلام مش هوصفه ليش لأنه بده
222
00:17:30,460 --> 00:17:32,980
mathematical foundation حل ال mathematical
223
00:17:32,980 --> 00:17:39,640
foundation ل .. ل .. ليش؟
224
00:17:41,620 --> 00:17:46,340
لـ course يكون في الجزء النظري أكتر فإحنا الآن
225
00:17:46,340 --> 00:17:49,560
بدنا ننتقل على هذا هو الطريقة الأولى هذا الطريقة
226
00:17:49,560 --> 00:17:53,880
الأولى لتسريع عملية التعلم طريقة تانية اللي هو
227
00:17:53,880 --> 00:17:57,300
إحنا نستخدم حاجة اسمها momentum term اتطلع على
228
00:17:57,300 --> 00:18:01,860
المعادلة هذه اتطلع على الشق هذا هل الشق هذا شفناه
229
00:18:01,860 --> 00:18:05,600
قبل هيك أول شيء ايش اللي على اليسار اللي يساوي
230
00:18:05,600 --> 00:18:12,400
اللي هو ال delta W اللي هو إيشفرق الوزن بالعادة
231
00:18:12,400 --> 00:18:16,380
احنا بنعرف ان فرق الوزن هو في المحصلة هيك بس مجرد
232
00:18:16,380 --> 00:18:21,280
ال alpha مضروبة في ال input مضروبة في small delta
233
00:18:21,280 --> 00:18:25,700
للأ اذكركم في هذا الكلام هيتوا ارجع هنا ورا شوية
234
00:18:25,700 --> 00:18:30,980
ارجع هنا ورا شوية هيتوا هي delta صح عبارة عن ايش
235
00:18:30,980 --> 00:18:35,450
alpha مضروبة في XX اللي هي ال inputمضروف ليس في
236
00:18:35,450 --> 00:18:38,410
دلتا دلتا اللي هي error gradient تبع ال node نفسها
237
00:18:38,410 --> 00:18:43,530
اللي نحسب لها تلاتة او زمن الداخلة عليها من واحد و
238
00:18:43,530 --> 00:18:53,830
من اتنين مبدئيا للي مش حافظ تعديل الوزن delta w هي
239
00:18:53,830 --> 00:18:56,690
عبارة عن ببساطة learning rate
240
00:18:59,110 --> 00:19:02,870
مضروب في ال input اللى داخل على ال node من هذا
241
00:19:02,870 --> 00:19:07,810
الوزن مضروب في ال gradient طيب ايش الاستجاد
242
00:19:07,810 --> 00:19:11,710
الاستجاد هذا ال band هذا او هذا ال term هذا ال
243
00:19:11,710 --> 00:19:14,790
term اللى هو ال momentum term momentum يعني الدفع
244
00:19:14,790 --> 00:19:18,450
بيعطي الدفع لعملية التعلمة هو ببساطة شديدة عبارة
245
00:19:18,450 --> 00:19:22,970
عن beta هي عبارة عن constant صغير ما بين ال zero
246
00:19:22,970 --> 00:19:28,630
والواحد مضروب في ايشمضروف في ايش؟ في الـ delta
247
00:19:28,630 --> 00:19:33,190
point يعني بدنا الآن ال network تتذكر ال delta
248
00:19:33,190 --> 00:19:39,050
السابق احنا نحسب ال delta تبع P و بنقول انه بدنا
249
00:19:39,050 --> 00:19:44,210
ال delta تبع P نقص واحد يعني ايش؟ ال delta السابق
250
00:19:44,210 --> 00:19:50,310
مش الوزن السابق مش W لأ delta W بدنا ناخده هذا
251
00:19:51,510 --> 00:19:57,390
نحتفظ فيه للدورة اللاحقة عشان نضربه في مين في ال
252
00:19:57,390 --> 00:20:04,590
beta هذا الكلام بشكل دفع لمين لعملية التعلم وهذا
253
00:20:04,590 --> 00:20:11,070
ال beta قيمة تتراوح من zero لواحد عادة تبتد قريبة
254
00:20:11,070 --> 00:20:17,690
من الواحد قريبة من الواحد يعني 0.95 مثلا فهذا اللي
255
00:20:17,690 --> 00:20:18,150
هو الآن
256
00:20:27,380 --> 00:20:32,280
two methods او two measures او two steps او two
257
00:20:32,280 --> 00:20:41,980
techniques ليش for accelerating أول
258
00:20:41,980 --> 00:20:42,920
واحد ايش كانت؟
259
00:21:01,740 --> 00:21:06,060
الثاني استخدام ايش
260
00:21:06,060 --> 00:21:11,540
momentum constant term لأ ال constant هو جزء من ال
261
00:21:11,540 --> 00:21:15,100
term هذا هو كله عبارة عن ال momentum term تتكوّل
262
00:21:15,100 --> 00:21:20,260
من حاجتين مضروبات في بعض اللي هم ال momentum
263
00:21:20,260 --> 00:21:26,540
constant اللي هي beta مضربة في ال W تبعت ال
264
00:21:26,540 --> 00:21:34,100
iteration السابقهذا ال term بينجمع على ال term
265
00:21:34,100 --> 00:21:40,240
الأصلي تبع تعديل الأوزان اللي هو ال alpha مضروبة
266
00:21:40,240 --> 00:21:48,820
في ال input مضروبة في ال error gradient error
267
00:21:48,820 --> 00:21:54,780
gradient اللي هي small delta تمام؟
268
00:21:54,780 --> 00:21:57,800
إيش
269
00:21:57,800 --> 00:22:02,890
غير إيك؟ هدولا طريقتين اللي قاله إيشأو أسلوبين لـ
270
00:22:02,890 --> 00:22:10,710
Accelerating Learning غير هيكة هذا المثال نفس
271
00:22:10,710 --> 00:22:20,270
المثال اللي قبل هيكة بوريها كيف ال
272
00:22:20,270 --> 00:22:27,770
learning rate هنا ثابت ماتغيرش ثابت و ال error
273
00:22:27,770 --> 00:22:37,800
بينزل ال error بينزلصار بدل ما أخدت بدل
274
00:22:37,800 --> 00:22:44,280
ما تاخد 200 iteration عشان يقترب ال error من ال
275
00:22:44,280 --> 00:22:52,340
zero أخدت جداش 126
276
00:22:52,340 --> 00:22:57,120
epo او iteration مش مشكلة المهم القصد أنه انضغط
277
00:22:57,120 --> 00:23:03,340
الأمر من 200 إلى 126هذا باستخدام ال momentum term
278
00:23:03,340 --> 00:23:11,320
لما أضيف ال momentum term على تصميم formula تعديل
279
00:23:11,320 --> 00:23:18,920
الوزن صار اختزل او جل الوجد الى 126 ابوك بدل 200
280
00:23:18,920 --> 00:23:25,340
ابوك الآن اضافة إلى هذول ال two techniques رقم
281
00:23:25,340 --> 00:23:27,360
تلاتة اللى هو ال heuristics
282
00:23:33,520 --> 00:23:37,660
plastics هذو لا فيها any tools rule بتقول إنه إذا
283
00:23:37,660 --> 00:23:43,780
كان أنا قاعد باجمع اللي هو إيش ال sum of square
284
00:23:43,780 --> 00:23:46,940
errors إيش هو ال sum of square errors بتذكرها لو
285
00:23:46,940 --> 00:23:51,040
لسه كنا نحكي اللي هو بجمع ال errors تبعد كل ال
286
00:23:51,040 --> 00:23:55,900
nodes و بربعها أولا بخدها بربعها بعدين بجمع
287
00:23:55,900 --> 00:24:01,900
مربعاتها إذا من epo ل epo ال sum of square errors
288
00:24:01,900 --> 00:24:12,120
هذاsome of square errors باستمرار
289
00:24:12,120 --> 00:24:20,060
ال some هذا من
290
00:24:20,060 --> 00:24:26,520
واحد للي بعده اما في ازدياد يعني في الاول كان ال
291
00:24:26,520 --> 00:24:30,780
some نقول مثلا تلاتة بعدين صار اربع بعدين صار خمسة
292
00:24:30,780 --> 00:24:31,280
بعدين ستة
293
00:24:35,780 --> 00:24:45,980
بيزيد او الاكس انه في النزول يعني ال sum تبع هذا
294
00:24:45,980 --> 00:24:49,400
ال epoch اقل من اللي جابله و اللي بعد اقل و اللي
295
00:24:49,400 --> 00:24:53,220
بعد اقل جاء بتنقص هذا الكلام مش معناته معناته لما
296
00:24:53,220 --> 00:24:58,800
انا بقى اخد الفرق من تلاتة نقص اربعة بيطلع نقص
297
00:24:58,800 --> 00:25:02,220
واحد اربعة نقص خمسة بيطلع نقص واحددائما .. دائما
298
00:25:02,220 --> 00:25:09,020
.. دائما الفرق .. دائما الفرق اشارته بالسلب وهنا
299
00:25:09,020 --> 00:25:13,620
نفس الاشي برضه سواء كان هو صعودا او هبوطا لما انا
300
00:25:13,620 --> 00:25:17,500
اجي اقول مثلا هذه عشرة و لبعدها تسعة و لبعدها
301
00:25:17,500 --> 00:25:21,800
تمانية عشر اناقص تسعة واحد تسعة اناقص تمانية واحد
302
00:25:21,800 --> 00:25:29,120
فالفرق دائما اشارته موجبة هنا دائما اشارته السلبة
303
00:25:31,690 --> 00:25:37,390
إذا دايما هيك .. إذا دايما .. إذا ال change of the
304
00:25:37,390 --> 00:25:42,510
sum of square .. change .. ال change .. التغير
305
00:25:42,510 --> 00:25:45,510
يعني هنا من عشر إلى تسعة و تسعة إذا دايما هذا ال
306
00:25:45,510 --> 00:25:49,130
change .. كيف أنا بحسب ال change؟ باخد الفرق إذا
307
00:25:49,130 --> 00:25:54,310
دايما هذا الفرق بحافظ على نفس ال signنفس الإشارة
308
00:25:54,310 --> 00:25:58,190
اما دايما موجبة او دايما سالبة يبقى انا في عندي
309
00:25:58,190 --> 00:26:03,250
اضطراد انا في عندي حاجة اسمها ال .. ال .. ال .. ال
310
00:26:03,250 --> 00:26:05,830
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال ..
311
00:26:05,830 --> 00:26:06,070
ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال
312
00:26:06,070 --> 00:26:06,150
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال ..
313
00:26:06,150 --> 00:26:06,370
ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال
314
00:26:06,370 --> 00:26:06,690
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال ..
315
00:26:06,690 --> 00:26:07,830
ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال
316
00:26:07,830 --> 00:26:07,950
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال ..
317
00:26:07,950 --> 00:26:11,010
ال .. ال .. ال .. ال .. ال .. ال .. ال ..
318
00:26:11,010 --> 00:26:15,430
.. ال .. ال .. ال .. ال .. ال .. ال .. ال ..
319
00:26:15,430 --> 00:26:20,430
ال ..
320
00:26:20,430 --> 00:26:26,230
ال .. الفي ال square في sum of square errors يبقى
321
00:26:26,230 --> 00:26:33,570
أنا المفروض أسرع أزيد ال alpha فإذا كان اختصر هذا
322
00:26:33,570 --> 00:26:39,770
ال linguistic كالتالي إذا كانت ال sign of sum of
323
00:26:39,770 --> 00:26:42,570
square errors ولا حد الاختصار
324
00:26:51,530 --> 00:26:54,230
و بعدها كلمة stable ايش هان stable؟ يعني مافيش
325
00:26:54,230 --> 00:26:59,310
فيها تذبذب مش مرة زائد و مرة ناقص يعني مش انه مرة
326
00:26:59,310 --> 00:27:05,390
تلاقي هيك هنا الفرق هذا ناقص هذا سالب سالب بعد هيك
327
00:27:05,390 --> 00:27:09,710
الفرق صار موجب مظبوط؟ هنا مافيش فرق هنا صار سالب
328
00:27:09,710 --> 00:27:13,110
سالب سالب هنا موجب هذا تذبذب في ايش؟ في ال sign
329
00:27:13,110 --> 00:27:21,150
إذا كان ال sign is stable فإيش بسوي increase alpha
330
00:27:22,950 --> 00:27:25,930
ألفة اللي هي learning rate وشوفتها في واحدة من
331
00:27:25,930 --> 00:27:30,210
الأمثلة كانت 0.1 increase يعني بخليها 0.2 مثلا
332
00:27:30,210 --> 00:27:36,270
بخليها 0.3 او بقيت و بقول بدي اضربها دايما بيزيدها
333
00:27:36,270 --> 00:27:43,910
ب 5% يعني 0.1 بدي أثير 0.105 يعني بخلي بمخصر أن
334
00:27:43,910 --> 00:27:51,070
ألفة تساوي ألفة ضرب واحد هذا معناته بيزيدها ب 5%
335
00:27:52,090 --> 00:27:57,250
ممكن أقول لأ ده زي ده 15% ممكن أقول ده زي ده 25%
336
00:27:57,250 --> 00:28:02,350
المهم أنا بقى أثبت ليه نسبة زيادة امتى بتزيد امتى
337
00:28:02,350 --> 00:28:05,290
بقى طابت ده الكلام لما قاللي انه ال sign ثابت
338
00:28:05,290 --> 00:28:12,790
العكس من ذلك إذا ال algebraic sign of ال change ال
339
00:28:12,790 --> 00:28:16,950
change اللي هو يعني مقصود يتغير في ال alternates
340
00:28:16,950 --> 00:28:21,190
session alternates يتذبذب مرة أخر مرة موجة مرة
341
00:28:21,190 --> 00:28:25,760
سالباللي هو معناه ذلك .. معناه ذلك في عندي ال ..
342
00:28:25,760 --> 00:28:31,620
ال network مرة بتقترب .. مرة بتقترب و بجل ال error
343
00:28:31,620 --> 00:28:36,780
و مرة بتبعد فجيها غيرت الأوزان بشكل كبير صار يطلع
344
00:28:36,780 --> 00:28:41,570
معاها error و بعدين كانت مقتربة، بس إيش؟التغيير
345
00:28:41,570 --> 00:28:45,550
اللي حصل كان تغيير كبير في الأوزان خلها تفشج عن ..
346
00:28:45,550 --> 00:28:50,290
زي ما هم بيقولها تخطي الصواب و صارت الاش تبعد و
347
00:28:50,290 --> 00:28:54,430
بعدين صارت تترد تاني بس لما ردت مارجعتش على الصواب
348
00:28:54,430 --> 00:28:57,890
فشجت عنه ب .. فصار .. فإيش فيه مشكلة؟ المشكلة أنها
349
00:28:57,890 --> 00:29:01,450
بتخطي خطوات واسعة فانا بضيق الخطوات هذه كيف بضيق
350
00:29:01,450 --> 00:29:08,770
الخطوات؟ بنزل الاش ال alpha ال learning rate فإذا
351
00:29:08,770 --> 00:29:19,460
كان ال signخلاص فأقول S إذا هي مش stable sign
352
00:29:19,460 --> 00:29:25,700
of SSE alternates
353
00:29:25,700 --> 00:29:29,960
معناه
354
00:29:29,960 --> 00:29:34,880
ذلك decrease الألف
355
00:29:34,880 --> 00:29:39,830
decrease الألف برضه يكون عندي كمانبتقدر تتخيل يعني
356
00:29:39,830 --> 00:29:48,910
هنا هو مثلا ال decrease
357
00:29:48,910 --> 00:29:56,070
بأنه بضربها ب 70% ب 7 من 10 يعني بنزلها 30% تمام و
358
00:29:56,070 --> 00:30:03,790
ال increase بضربها في 1 و 5 من 100 واضح تمام فهنا
359
00:30:03,790 --> 00:30:10,570
بوريلك كيف انه هايالـ Epochs ماشية و في ده ال دي
360
00:30:10,570 --> 00:30:18,250
ال learning rate قاعد بتساعد نتيجة تطبيق إيش؟ هذي
361
00:30:18,250 --> 00:30:23,250
تمام؟ قاعد بيحسب لجأ أنه ال error ال software
362
00:30:23,250 --> 00:30:26,810
errors قاعد في النازل صح في النازل يعني إشارته
363
00:30:26,810 --> 00:30:32,170
دايما موجبة مظبوط؟ بقى أطرح السابق و بقى أطرح منه
364
00:30:32,170 --> 00:30:37,960
اللاحق و طلعت موجب فهو بسبب أنه هذا موجبالتغير
365
00:30:37,960 --> 00:30:44,780
موجب اه التغير موجب فهو عمار بيرفع في ليش في اللي
366
00:30:44,780 --> 00:30:49,000
عند حد معين جلب
367
00:30:49,000 --> 00:30:53,540
ال ال
368
00:30:53,540 --> 00:30:59,840
alphaبدأت تنزل و نزولها لأن وضعها في 0.7 النزول
369
00:30:59,840 --> 00:31:04,000
أسرع أو أحد من الصعود صعود تدريج بسيط 5% كل مرة
370
00:31:04,000 --> 00:31:11,240
انما هنا 30% كل مرة فبدأت تنزل نزلة جامدة مين هي
371
00:31:11,240 --> 00:31:14,980
اللي هو ال learning rate نزل نزل جامدة مع النزلة
372
00:31:14,980 --> 00:31:20,640
هذه بدأ يقترب من ايش من بوريلك فعلية هذا الأسلوب
373
00:31:20,640 --> 00:31:22,440
في الاقتراب من
374
00:31:25,600 --> 00:31:33,420
من ال error المخفض بوقت أقل 100 epoch بدلا من 126
375
00:31:33,420 --> 00:31:39,920
epoch هذا
376
00:31:39,920 --> 00:31:45,280
الأن استخدم ال momentum مع برضه هذه الهيروستيك
377
00:31:45,280 --> 00:31:48,960
اقبال adaptive ايش يعني adaptive يعني لما نقول
378
00:31:48,960 --> 00:31:53,100
adapter ايش يعني adapter يعني محولadaptive يعني
379
00:31:53,100 --> 00:31:58,260
أنه يتحول ويغير من تلقاء نفسه ماهو اللي بتغير من
380
00:31:58,260 --> 00:32:02,240
تلقاء نفسه ال learning rate لوحده بناء على
381
00:32:02,240 --> 00:32:07,980
استشعاره لل sign تبعت من ال sum of square arrows
382
00:32:07,980 --> 00:32:12,180
هو نفسه من تلقاء نفسها ال network بتغير في ال
383
00:32:12,180 --> 00:32:15,460
learning rate تبعها عشان ذلك اسم هذا الكلام
384
00:32:15,460 --> 00:32:19,680
adaptive learning فلما اندمج ال two techniques ال
385
00:32:19,680 --> 00:32:26,480
adaptive learning مع علمmomentum صار عندي اختصار
386
00:32:26,480 --> 00:32:32,160
لسه اكتر صرنا بنصل الى
387
00:32:32,160 --> 00:32:35,780
ال zero
388
00:32:35,780 --> 00:32:41,280
تقريبا error ومعناه مش zero هذا الكلام واحد اص نقص
389
00:32:41,280 --> 00:32:45,580
اشهر اص نقص ثلاث يعني واحد من الألف يعني مش zero
390
00:32:46,700 --> 00:32:50,940
مابدناش بالظبط 00 يعني ممكن تبقى صعب جدا انه ال
391
00:32:50,940 --> 00:32:56,100
network تصل لل zero لكن ممكن نقبل بأنها تصل لواحد
392
00:32:56,100 --> 00:33:01,580
من الف error ال error يصل لواحد من الف صح طيب ماشي
393
00:33:01,580 --> 00:33:06,000
الحال okay الان هنا الكلام بيوصلنا لنهاية اللي
394
00:33:06,000 --> 00:33:08,920
حاكي عن ال back propagation networks ولكن لأسف
395
00:33:08,920 --> 00:33:14,460
ماقلش معنى وقت نبدأ في ال hub field ال hub field
396
00:33:14,460 --> 00:33:19,080
networkو ال BAM فبناخدهم في المحاضرة الجاية ان شاء
397
00:33:19,080 --> 00:33:23,900
الله تمام؟ يبقى احنا الآن عمليا باختصار المحاضرة
398
00:33:23,900 --> 00:33:28,940
اليوم كانت تكملة ل ال back propagation networks
399
00:33:28,940 --> 00:33:33,960
اللي هو واحد من أنواع ال unsupervised artificial
400
00:33:33,960 --> 00:33:36,680
neural networks المحاضرة الجاية ان شاء الله بنكمل
401
00:33:36,680 --> 00:33:39,940
النوعين التانيات اللي هو ال hot field و ال BAM
402
00:33:39,940 --> 00:33:46,360
اللي هو في واقع الأمر نوع واحد بس منه نسختينو إذا
403
00:33:46,360 --> 00:33:49,600
ضال معانا وجد نبدأ في ليش؟ في ال super .. في ال
404
00:33:49,600 --> 00:33:54,420
unsupervised .. في ال unsupervised artificial
405
00:33:54,420 --> 00:33:55,140
neural networks