|
1 |
|
00:00:20,650 --> 00:00:23,110 |
|
بسم الله الرحمن الرحيم احنا اليوم ان شاء الله بدنا |
|
|
|
2 |
|
00:00:23,110 --> 00:00:26,450 |
|
نكمل الموضوع اللي فتحناه قبل هيكه في المحاضرات |
|
|
|
3 |
|
00:00:26,450 --> 00:00:32,610 |
|
الماضية اللي هو ال artificial neural networks ال |
|
|
|
4 |
|
00:00:32,610 --> 00:00:35,670 |
|
supervised learning باستخدام ال artificial neural |
|
|
|
5 |
|
00:00:35,670 --> 00:00:42,570 |
|
networks كنا في المحاضرة الماضية حكينا عن اللي هو |
|
|
|
6 |
|
00:00:42,570 --> 00:00:48,290 |
|
ال Perceptron وشوفنا قالية العمل تبعتهو آلية |
|
|
|
7 |
|
00:00:48,290 --> 00:00:53,090 |
|
التعلم اللي هي مقصودة بالتعديل الأوزاني و بعدين |
|
|
|
8 |
|
00:00:53,090 --> 00:00:57,270 |
|
كمان ايضا اطلعنا على ال multi-layered networks ال |
|
|
|
9 |
|
00:00:57,270 --> 00:01:00,270 |
|
multi-layered networks اللي هي عبارة عن شبكة من ال |
|
|
|
10 |
|
00:01:00,270 --> 00:01:05,850 |
|
perceptrons الشبكة هذه مهيكلة على أساس layers و ال |
|
|
|
11 |
|
00:01:05,850 --> 00:01:08,890 |
|
layers كل layer فيها مجموعة من ال perceptrons |
|
|
|
12 |
|
00:01:08,890 --> 00:01:13,090 |
|
بتغذي المجموعة اللي بعدها أو ال layer اللي بعدها |
|
|
|
13 |
|
00:01:14,080 --> 00:01:18,840 |
|
وشوفنا آلية الآن التعلم في ال multilayer networks |
|
|
|
14 |
|
00:01:18,840 --> 00:01:23,080 |
|
صح آلية التعلم المفصولة بها مرة أخرى اللي هي آلية |
|
|
|
15 |
|
00:01:23,080 --> 00:01:27,420 |
|
تعديل الأوزان وشوفنا كيف بتختلف آلية تعديل الأوزان |
|
|
|
16 |
|
00:01:27,420 --> 00:01:36,000 |
|
في ال output يرعنها في ال hidden layer صح الآن |
|
|
|
17 |
|
00:01:36,000 --> 00:01:40,290 |
|
احنا بدنانلقي نظرة أخيرة على ال multilayer |
|
|
|
18 |
|
00:01:40,290 --> 00:01:44,510 |
|
networks بعدين بنحكي في جزئية صغيرة اللي هي ال |
|
|
|
19 |
|
00:01:44,510 --> 00:01:48,610 |
|
accelerating اللي هي النقطة هذه ماضح النقطة هذه |
|
|
|
20 |
|
00:01:48,610 --> 00:01:53,170 |
|
اللي هي accelerated learning المقصود بيها تسريع |
|
|
|
21 |
|
00:01:53,170 --> 00:01:56,710 |
|
عملية التعلم عملية التعلم احنا فاهمين انها بتحصل |
|
|
|
22 |
|
00:01:56,710 --> 00:02:04,390 |
|
على شكل ايش iterations iterations مظبوط وسمينا كل |
|
|
|
23 |
|
00:02:04,390 --> 00:02:08,630 |
|
مجموعة من ال iterations سمينها epo صحالـ Epoch هو |
|
|
|
24 |
|
00:02:08,630 --> 00:02:14,970 |
|
دفعة أو short من ال iterations عملية التسريع هو |
|
|
|
25 |
|
00:02:14,970 --> 00:02:21,870 |
|
تقليل عدد ال iterations بدل من أن ال network تأخذ |
|
|
|
26 |
|
00:02:21,870 --> 00:02:29,940 |
|
400 دورة 400 iterations قبل أن تستقر الأوزانلما |
|
|
|
27 |
|
00:02:29,940 --> 00:02:33,020 |
|
بنقول احنا بدنا نسرع لقليلة التعلم، معناه ذلك |
|
|
|
28 |
|
00:02:33,020 --> 00:02:36,240 |
|
الأربعمية هدولة بدنا نختصرهم أو بنجللهم إلى تلت |
|
|
|
29 |
|
00:02:36,240 --> 00:02:42,100 |
|
مية، إلى متين، إلى مية ربما، بدون أن ننطقش من دقة |
|
|
|
30 |
|
00:02:42,100 --> 00:02:48,290 |
|
التعلمهذه النقطة اللي هي المقصود بها اللي هو |
|
|
|
31 |
|
00:02:48,290 --> 00:02:52,730 |
|
accelerated learning او ممكن نقول accelerating ال |
|
|
|
32 |
|
00:02:52,730 --> 00:02:55,570 |
|
learning يعني تسريع التعلم في ال multi neural |
|
|
|
33 |
|
00:02:55,570 --> 00:02:59,390 |
|
networks بعد ما نخلص النقطة هذه ان شاء الله بنتطلع |
|
|
|
34 |
|
00:02:59,390 --> 00:03:03,250 |
|
على ال hub field network و ال BAM اللي هي |
|
|
|
35 |
|
00:03:03,250 --> 00:03:07,010 |
|
bidirectional associative memories هدولة نوعين من |
|
|
|
36 |
|
00:03:07,010 --> 00:03:13,420 |
|
ال artificial neural networksاللي بينطور تحت إطار |
|
|
|
37 |
|
00:03:13,420 --> 00:03:18,200 |
|
اللي هو supervised learning طيب، إيش قلنا بدنا |
|
|
|
38 |
|
00:03:18,200 --> 00:03:20,640 |
|
نبدأ في الأول بإيش؟ بإننا نلقي نظرة أخيرة على ال |
|
|
|
39 |
|
00:03:20,640 --> 00:03:23,920 |
|
multilayer neural networks اللي كنا حكينا فيها من |
|
|
|
40 |
|
00:03:23,920 --> 00:03:28,400 |
|
قبل بدنا نتقل على طريقة ال slide اللي فيها ال |
|
|
|
41 |
|
00:03:28,400 --> 00:03:34,040 |
|
example اللي تبع تتذكروا تبع إيش؟ تبع تدريب ال |
|
|
|
42 |
|
00:03:34,040 --> 00:03:41,100 |
|
network علىاللي هو ال XOR ال XOR gate او ال XOR |
|
|
|
43 |
|
00:03:41,100 --> 00:03:44,900 |
|
function ذاكرين |
|
|
|
44 |
|
00:03:44,900 --> 00:03:49,700 |
|
هذا المثال اما كنا بنحكي انه هاي ال neural network |
|
|
|
45 |
|
00:03:49,700 --> 00:03:54,920 |
|
في عندنا التلاتة nodes هدولة node رقم تلاتة و رقم |
|
|
|
46 |
|
00:03:54,920 --> 00:03:58,020 |
|
اربعة هدولة تابعين لأنهي layer ال hidden layer |
|
|
|
47 |
|
00:03:58,020 --> 00:04:03,460 |
|
مظبوط ال hidden layer صح و ال output layer ايش |
|
|
|
48 |
|
00:04:03,460 --> 00:04:07,660 |
|
فيهافيها node واحدة اللي هي node number five صح |
|
|
|
49 |
|
00:04:07,660 --> 00:04:13,200 |
|
لأن ال input بيدخل ب X1 و X2 على node number one و |
|
|
|
50 |
|
00:04:13,200 --> 00:04:16,700 |
|
node number two ملاحظين هدول ال two nodes شكلهم |
|
|
|
51 |
|
00:04:16,700 --> 00:04:22,780 |
|
مربع لتمييزهم عن من عن ال nodes الأخرى مميزين بإيش |
|
|
|
52 |
|
00:04:22,780 --> 00:04:26,300 |
|
إيش الفرق ما بينهم إن هدول ما بيعملوش أي |
|
|
|
53 |
|
00:04:27,210 --> 00:04:31,330 |
|
calculations مابعملوش أي computation صح مجرد اللي |
|
|
|
54 |
|
00:04:31,330 --> 00:04:35,890 |
|
بيدخل عليهم بتوزع علي مين علي بعدهم okay يبقى احنا |
|
|
|
55 |
|
00:04:35,890 --> 00:04:39,730 |
|
عمليا في المثال هذا يوم ما بدنا نيجي نحسب و نعد |
|
|
|
56 |
|
00:04:39,730 --> 00:04:42,990 |
|
الأوزان و نعد الأوزان بس تلاتة و أربعة و خمسة |
|
|
|
57 |
|
00:04:42,990 --> 00:04:47,470 |
|
مظبوط بنبدأ من مين من الخمسة في الأول بالظبط لإن |
|
|
|
58 |
|
00:04:47,470 --> 00:04:52,080 |
|
الخمسة هي اللي عندها desired outputو هي اللى بتقدر |
|
|
|
59 |
|
00:04:52,080 --> 00:04:55,460 |
|
تعرف ال error او تحسب ال error و بعدها بتطلع ال |
|
|
|
60 |
|
00:04:55,460 --> 00:04:59,420 |
|
error بتعدل أوزانها و بعدها بترحل ال error |
|
|
|
61 |
|
00:04:59,420 --> 00:05:02,820 |
|
gradient الى مين الى تلاتة و أربعة ال error |
|
|
|
62 |
|
00:05:02,820 --> 00:05:07,900 |
|
gradient اللى ذكره هو small delta بترحل الى تلاتة |
|
|
|
63 |
|
00:05:07,900 --> 00:05:10,740 |
|
و الى أربعة عشان كل واحدة منهم تلاتة و أربعة تحسب |
|
|
|
64 |
|
00:05:10,740 --> 00:05:15,230 |
|
ال error تبعها ال error gradient تبعها يعنيعشان |
|
|
|
65 |
|
00:05:15,230 --> 00:05:18,730 |
|
تعدّل أوزانها بناء عليه هذه الكلام هي total طبعا |
|
|
|
66 |
|
00:05:18,730 --> 00:05:22,710 |
|
هنا في ال slide هذه بيعقيلك ال initial values تبع |
|
|
|
67 |
|
00:05:22,710 --> 00:05:30,390 |
|
ال ايش الأوزان |
|
|
|
68 |
|
00:05:30,390 --> 00:05:34,230 |
|
ال threshold |
|
|
|
69 |
|
00:05:34,230 --> 00:05:41,980 |
|
that theta صح؟ مصبوط؟بعد ذلك هنا بيبدأ الحسبة أول |
|
|
|
70 |
|
00:05:41,980 --> 00:05:46,260 |
|
شيء بيحسب ال Y3 ال output اللي بدي يطلع من Y3 |
|
|
|
71 |
|
00:05:46,260 --> 00:05:53,100 |
|
مظبوط بس احنا قلنا أول حاجة بدي تم تعديل الأوزان |
|
|
|
72 |
|
00:05:53,100 --> 00:05:59,840 |
|
فيها على Y5 طب ليش بدأنا في Y3 و Y4؟ لأن وصل ال Y5 |
|
|
|
73 |
|
00:06:01,600 --> 00:06:05,000 |
|
بتعرف كيف تحسب ال output تبعها لازم يجيها input من |
|
|
|
74 |
|
00:06:05,000 --> 00:06:09,120 |
|
وين بتجيها ال input من Y3 و Y4 يبقى لازم أحسب Y3 و |
|
|
|
75 |
|
00:06:09,120 --> 00:06:13,800 |
|
Y4 ليش بدهم يطلعوا عشان نسلموا ل Y5 عشان Y5 تحسب |
|
|
|
76 |
|
00:06:13,800 --> 00:06:16,580 |
|
ال output تبعها تبعها دلوقت لإن شوف إيش فيه error |
|
|
|
77 |
|
00:06:16,580 --> 00:06:22,180 |
|
و اترحل تاني يعني احنا forward propagation |
|
|
|
78 |
|
00:06:22,180 --> 00:06:26,140 |
|
of data و backward propagation of error |
|
|
|
79 |
|
00:06:26,140 --> 00:06:31,070 |
|
information صح؟ okayهي الآن بعد ما طلعت ويتلت و .. |
|
|
|
80 |
|
00:06:31,070 --> 00:06:34,050 |
|
من حسب ويتلت و .. طبعا ويتلت ال activation |
|
|
|
81 |
|
00:06:34,050 --> 00:06:37,870 |
|
function استخدمت اللي هي ال sigmoid ال sigmoid |
|
|
|
82 |
|
00:06:37,870 --> 00:06:41,270 |
|
طبعا يوم ما يكون في عندك مثلة أو امتحان أو كده ال |
|
|
|
83 |
|
00:06:41,270 --> 00:06:44,830 |
|
formula هتبدو مواطية لك انت بس مجرد ايش بتاخد |
|
|
|
84 |
|
00:06:44,830 --> 00:06:48,110 |
|
الأرقام و بتطلع ال output ال output لأن ال sigmoid |
|
|
|
85 |
|
00:06:48,110 --> 00:06:51,330 |
|
بتطلع continuous values يعني ايش يعني أرقام عشرية |
|
|
|
86 |
|
00:06:51,330 --> 00:06:58,750 |
|
مش binary زي مين زي ال stepو ليش؟ بال pulse |
|
|
|
87 |
|
00:06:58,750 --> 00:07:04,010 |
|
function صح؟ okay فالان هذه ال continuous values |
|
|
|
88 |
|
00:07:04,010 --> 00:07:07,870 |
|
او ال real values او ال float values بتدخش على مين |
|
|
|
89 |
|
00:07:07,870 --> 00:07:12,350 |
|
على Y5 تنضرب في الأوزن تبعها و تتاخذ مع ال |
|
|
|
90 |
|
00:07:12,350 --> 00:07:16,750 |
|
threshold عشان تطلع ال output تبع Y5 من هنا الأن |
|
|
|
91 |
|
00:07:16,750 --> 00:07:20,610 |
|
نبدأ نشوف ليش ال error ال error اللي انا بنحسب هو |
|
|
|
92 |
|
00:07:20,610 --> 00:07:24,610 |
|
عبارة عن ببساطة ال difference ما بين ال desired ال |
|
|
|
93 |
|
00:07:24,610 --> 00:07:32,080 |
|
desired لما كانلما يكون عندي انا ال X واحد X واحد |
|
|
|
94 |
|
00:07:32,080 --> 00:07:36,240 |
|
انا بقشر هنا X واحد و X اتنين الاتنين ال input ال |
|
|
|
95 |
|
00:07:36,240 --> 00:07:41,340 |
|
value تبعهم one one one لازم ال X core function |
|
|
|
96 |
|
00:07:41,340 --> 00:07:42,120 |
|
تعطيني ايش |
|
|
|
97 |
|
00:07:50,560 --> 00:07:54,460 |
|
Y5 يفترض أن يكون Zero بس ماهو اللي بيطلع معنا هنا |
|
|
|
98 |
|
00:07:54,460 --> 00:07:56,580 |
|
في ال calculation هذا يفترض أن يكون Zero بس ماهو |
|
|
|
99 |
|
00:07:56,580 --> 00:07:56,920 |
|
اللي بيطلع معنا هنا في ال calculation هذا يفترض أن |
|
|
|
100 |
|
00:07:56,920 --> 00:07:56,960 |
|
يكون Zero بس ماهو اللي بيطلع معنا هنا في ال |
|
|
|
101 |
|
00:07:56,960 --> 00:08:03,540 |
|
calculation هذا يفترض أن يكون Zero بس |
|
|
|
102 |
|
00:08:03,540 --> 00:08:05,000 |
|
ماهو اللي بيطلع معنا هنا في ال calculation هذا |
|
|
|
103 |
|
00:08:05,000 --> 00:08:06,320 |
|
يفترض أن يكون Zero بس ماهو اللي بيطلع معنا هنا في |
|
|
|
104 |
|
00:08:07,180 --> 00:08:09,700 |
|
الـ small delta تبعه هاي الخمسة اللي هي ايش اسمها |
|
|
|
105 |
|
00:08:09,700 --> 00:08:13,220 |
|
ال error gradient شوف أنا وين بقشر هنا ال error |
|
|
|
106 |
|
00:08:13,220 --> 00:08:18,200 |
|
gradient اذا ذكروها هذا المصطلح ان هو ال small |
|
|
|
107 |
|
00:08:18,200 --> 00:08:23,070 |
|
deltaال aero gradient هذا لما بنحسب بعد هيكة على |
|
|
|
108 |
|
00:08:23,070 --> 00:08:27,630 |
|
أساسه تتعدى للأوزان الأوزان تبعون ال inputs اللي |
|
|
|
109 |
|
00:08:27,630 --> 00:08:33,890 |
|
داخلة على Y خمسة صح؟ من هم هدول الأوزان W تلاتة |
|
|
|
110 |
|
00:08:33,890 --> 00:08:38,190 |
|
خمسة و W أربعة خمسة ليش أسميهم هيكة لإن واحد منهم |
|
|
|
111 |
|
00:08:38,190 --> 00:08:42,670 |
|
جاي من تلاتة إلى خمسة والتاني جاي من أربعة إلى |
|
|
|
112 |
|
00:08:42,670 --> 00:08:47,470 |
|
خمسة او الاصح ان احنا نقول واحد منهم هو وزن ال |
|
|
|
113 |
|
00:08:47,470 --> 00:08:51,610 |
|
input اللي جايمن ثلاثة إلى خمسة والتاني هو وزن ال |
|
|
|
114 |
|
00:08:51,610 --> 00:08:56,910 |
|
input اللي جاي من أربعة إلى خمسة صح؟ طبعا فأول اشي |
|
|
|
115 |
|
00:08:56,910 --> 00:09:00,370 |
|
عشان نعدل الأوزن نحسب ال delta تبع الوزن مقدار |
|
|
|
116 |
|
00:09:00,370 --> 00:09:08,390 |
|
التغير بعدين بنضيف ذلك على ال current أو ال weight |
|
|
|
117 |
|
00:09:08,390 --> 00:09:13,250 |
|
الوزن الحالي عشان يطلع معانا وزن جديد نفس الاشي |
|
|
|
118 |
|
00:09:13,250 --> 00:09:18,000 |
|
بنعمل لمين؟الـ Theta ، الـ Threshold لاحظوا أن |
|
|
|
119 |
|
00:09:18,000 --> 00:09:20,900 |
|
عملي التعليل الأوزان ببساطة شديدة يعني الـ Delta |
|
|
|
120 |
|
00:09:20,900 --> 00:09:22,880 |
|
يبقى عبارة عن الـ Alpha اللي هو ال learning rate |
|
|
|
121 |
|
00:09:22,880 --> 00:09:28,920 |
|
مضروب في ال .. قيمة ال input اللي بيخش عبر هذا |
|
|
|
122 |
|
00:09:28,920 --> 00:09:33,740 |
|
الوزن مضروب في ال Delta small Delta اللي هي ال |
|
|
|
123 |
|
00:09:33,740 --> 00:09:38,840 |
|
Delta 5 فهي Delta 5 موجودة في التلت حسبات |
|
|
|
124 |
|
00:09:40,110 --> 00:09:44,130 |
|
طيب هذا الكلام ايش خلصنا ده هذا الكلام بس لحساب |
|
|
|
125 |
|
00:09:44,130 --> 00:09:48,210 |
|
الأوزان تبعد من ال input اللي داخلها على مين على |
|
|
|
126 |
|
00:09:48,210 --> 00:09:52,450 |
|
y5 لازم نعيد نفس الاشي لل inputs اللي داخلها على |
|
|
|
127 |
|
00:09:52,450 --> 00:10:01,630 |
|
y3 و y4 صح؟ okay هذا الكلام نفس القاليم بس طبعا |
|
|
|
128 |
|
00:10:01,630 --> 00:10:05,270 |
|
لازم في الأول كل واحدة من y3 و y5 تحسب ال error |
|
|
|
129 |
|
00:10:05,270 --> 00:10:09,520 |
|
gradient تبعها اللي هو ال small delta تبعتهاوبعدين |
|
|
|
130 |
|
00:10:09,520 --> 00:10:15,220 |
|
عليه small delta تدخل |
|
|
|
131 |
|
00:10:15,220 --> 00:10:19,040 |
|
في حساب الأوزان اللي رايح على تلاتة وبعدين small |
|
|
|
132 |
|
00:10:19,040 --> 00:10:21,860 |
|
delta تبعد أربعة تدخل في حساب الأوزان اللي رايح |
|
|
|
133 |
|
00:10:21,860 --> 00:10:29,800 |
|
على أربعة انا الآن بدل ما اني طبعا هنا بعد هيك |
|
|
|
134 |
|
00:10:29,800 --> 00:10:35,020 |
|
الأوزان اللي هو w واحد على تلاتة واحد على أربعة |
|
|
|
135 |
|
00:10:35,020 --> 00:10:37,840 |
|
اتنين على تلاتة اتنين على اربعة تلاتة على خمسة |
|
|
|
136 |
|
00:10:37,840 --> 00:10:44,500 |
|
تلاتة على اربعةOkay بدل أنا الآن نمر بهذا الحساب |
|
|
|
137 |
|
00:10:44,500 --> 00:10:48,900 |
|
خطوة خطوة لأ أنا بدي أجيب و أقولك الآن اعتبر انت |
|
|
|
138 |
|
00:10:48,900 --> 00:10:53,340 |
|
بدك تكمل المثال هذا ال iteration اللي بعت هذ ال |
|
|
|
139 |
|
00:10:53,340 --> 00:10:56,880 |
|
iteration الأولى ولا لأ لإن هذ ال iteration انبنت |
|
|
|
140 |
|
00:10:56,880 --> 00:11:01,760 |
|
على ال initial ال initialish values تبع الأوزان |
|
|
|
141 |
|
00:11:01,760 --> 00:11:07,610 |
|
مصبوط انت الآن خد هذاو خد ال input اللي بعده مين |
|
|
|
142 |
|
00:11:07,610 --> 00:11:09,750 |
|
ال input اللي بعده اذا كان ال input الأولاني كان |
|
|
|
143 |
|
00:11:09,750 --> 00:11:17,430 |
|
one one خد zero one x1 ب zero و x2 ب one و عيد |
|
|
|
144 |
|
00:11:17,430 --> 00:11:25,890 |
|
الكرة من جديد بالأوزان اللي هذه اللي نتجت من نهاية |
|
|
|
145 |
|
00:11:25,890 --> 00:11:28,390 |
|
ال iteration الأولى انت الآن بدك تحسب ال iteration |
|
|
|
146 |
|
00:11:28,390 --> 00:11:33,310 |
|
التانية بتقدر تعمل هذا الكلام ولا لا بتقدر اذا |
|
|
|
147 |
|
00:11:33,310 --> 00:11:37,740 |
|
أعطيناك homework ان شاء الله بتقدرلأ فخلاص هي الان |
|
|
|
148 |
|
00:11:37,740 --> 00:11:42,260 |
|
homework هي الان homework مطموعة منك أيش تسوي تعيد |
|
|
|
149 |
|
00:11:42,260 --> 00:11:47,140 |
|
الكلام ده كله لل iteration number two عشان تطلع |
|
|
|
150 |
|
00:11:47,140 --> 00:11:52,140 |
|
أيش في الآخر الأوزان يعني في الآخر بدك تطلع صفحة |
|
|
|
151 |
|
00:11:52,140 --> 00:11:59,710 |
|
زي هيك فيها أوزان جديدةاللي بدها تجف عندها اللي هو |
|
|
|
152 |
|
00:11:59,710 --> 00:12:02,110 |
|
ال iteration التاني في نهاية ال iteration التاني |
|
|
|
153 |
|
00:12:02,110 --> 00:12:05,870 |
|
ايش هتكون قيمة الأوزان الجديدة و ال thresholds |
|
|
|
154 |
|
00:12:05,870 --> 00:12:11,430 |
|
جديدة okay طيب هيك بنكون احنا القيل النظر الأخير |
|
|
|
155 |
|
00:12:11,430 --> 00:12:16,470 |
|
على عملية ال back propagation learning واضح ليش |
|
|
|
156 |
|
00:12:16,470 --> 00:12:20,150 |
|
اسمها back propagation لأن احنا بنحمل ال error |
|
|
|
157 |
|
00:12:20,150 --> 00:12:25,100 |
|
لوراعلى ال layers من ال outward على ال hidden ال |
|
|
|
158 |
|
00:12:25,100 --> 00:12:28,600 |
|
hidden طبعا ممكن تبقى layer واحدة او اكتر نين ممكن |
|
|
|
159 |
|
00:12:28,600 --> 00:12:33,880 |
|
two hidden layers ماشي |
|
|
|
160 |
|
00:12:33,880 --> 00:12:37,240 |
|
هاد الان احنا بدنا نحكي في ال acceleration كيف |
|
|
|
161 |
|
00:12:37,240 --> 00:12:44,540 |
|
يمكن تسريع التسريع ال learning هذا ال curve لو |
|
|
|
162 |
|
00:12:44,540 --> 00:12:50,300 |
|
لاحظت عليه ايش بيمثل علاقة ايش بايش هنا epoقول |
|
|
|
163 |
|
00:12:50,300 --> 00:12:53,940 |
|
iterations لأن ال book الواحد هي مجموعة iterations |
|
|
|
164 |
|
00:12:53,940 --> 00:12:57,300 |
|
فانا هنا من zero عشان خمسين مية مية خمسين ميتين |
|
|
|
165 |
|
00:12:57,300 --> 00:13:02,580 |
|
اقصد بيها ايش ميتين iterations مية خمسين |
|
|
|
166 |
|
00:13:02,580 --> 00:13:07,980 |
|
iterations كل ما بزيد عدد ال iterations يفترض ان |
|
|
|
167 |
|
00:13:07,980 --> 00:13:15,020 |
|
ال error ايش بيصير فيه بيجل بيتنقص احنا الآن ال |
|
|
|
168 |
|
00:13:15,020 --> 00:13:18,490 |
|
errorأحيانا ال network بتبقى ال output layer |
|
|
|
169 |
|
00:13:18,490 --> 00:13:23,890 |
|
تبعتها فيها ال node واحدة فهو error واحد مصبوط |
|
|
|
170 |
|
00:13:23,890 --> 00:13:28,410 |
|
أحيانا بيبقى ال layer الأخيرة بيبقى فيها عد تش |
|
|
|
171 |
|
00:13:29,090 --> 00:13:32,310 |
|
notes وبالتالي ال error في عندي error للأولى error |
|
|
|
172 |
|
00:13:32,310 --> 00:13:35,630 |
|
للتانية عدة errors مصموم فإحنا لو جينا ببساطة |
|
|
|
173 |
|
00:13:35,630 --> 00:13:39,870 |
|
شديدة ربعنا ال errors هذه وجمعنا مربعاتهم بيطلع |
|
|
|
174 |
|
00:13:39,870 --> 00:13:43,870 |
|
عني هنا some square error some square error يعني |
|
|
|
175 |
|
00:13:43,870 --> 00:13:52,170 |
|
مقصود بمجموع مربعات ال errors تابعة من تابعة |
|
|
|
176 |
|
00:13:52,170 --> 00:13:58,630 |
|
ال notesهناك أيضا تدخل في الحسبة هالي ال errors |
|
|
|
177 |
|
00:13:58,630 --> 00:14:02,670 |
|
تبع ال hidden layers ال hidden nodes برضه ممكن |
|
|
|
178 |
|
00:14:02,670 --> 00:14:05,790 |
|
نيجي نقول خلينا نجمع كل ال nodes اللي في ال |
|
|
|
179 |
|
00:14:05,790 --> 00:14:10,410 |
|
network سواء output nodes ولا hidden nodes و نجمع |
|
|
|
180 |
|
00:14:10,410 --> 00:14:14,910 |
|
ال errors تبعه منهم طبعا نعبيها في الأول و نجمع |
|
|
|
181 |
|
00:14:14,910 --> 00:14:19,540 |
|
بيطلع معايا some square errorsome square error هذا |
|
|
|
182 |
|
00:14:19,540 --> 00:14:24,480 |
|
يصلح أن يكون مؤشر على إيش على أداء الشبكة أداء ال |
|
|
|
183 |
|
00:14:24,480 --> 00:14:28,460 |
|
network هل تعلمت أو لا صح لأن كل ما عليه ال error |
|
|
|
184 |
|
00:14:28,460 --> 00:14:32,940 |
|
هذا معناته هي لسه لسه |
|
|
|
185 |
|
00:14:32,940 --> 00:14:37,360 |
|
بتخطط لسه بتخطط صح طب احنا في الأول ليش بنربّل |
|
|
|
186 |
|
00:14:37,360 --> 00:14:41,040 |
|
نعمل تربيع ال error ليش ما ناخده زي ما هو قولنا |
|
|
|
187 |
|
00:14:41,040 --> 00:14:44,340 |
|
هذا لأن بعض ال errors بتبقى بالموجب وبعض بالسالب |
|
|
|
188 |
|
00:14:44,340 --> 00:14:47,560 |
|
لو جمعناهم هم ممكن يصفروا بعضهم |
|
|
|
189 |
|
00:14:50,980 --> 00:14:54,800 |
|
مربعهم على انه مؤشر صح لكن لما نبقى ربع ال errors |
|
|
|
190 |
|
00:14:54,800 --> 00:14:59,200 |
|
الموجب والسالب بيصير موجب و لا لأ المربعات بيصير |
|
|
|
191 |
|
00:14:59,200 --> 00:15:03,900 |
|
موجب فنقدر ننظر اليش الي مجموع المربعات على انه |
|
|
|
192 |
|
00:15:03,900 --> 00:15:08,660 |
|
مؤشر على ايش مؤشر |
|
|
|
193 |
|
00:15:08,660 --> 00:15:15,620 |
|
على ايش مؤشر على التعلم جد جيشي تعلمتفهذا الخط |
|
|
|
194 |
|
00:15:15,620 --> 00:15:20,460 |
|
الأزرق أزرق بطالة أزرق أزرق لما بينزل هيكا معناته |
|
|
|
195 |
|
00:15:20,460 --> 00:15:28,320 |
|
إيش مع استمرار عملية التعلم جاعد إيش ال error بجل |
|
|
|
196 |
|
00:15:28,320 --> 00:15:33,740 |
|
صح مع استمرار تشغيل ال iterations ال error جاعد |
|
|
|
197 |
|
00:15:33,740 --> 00:15:38,940 |
|
بجل فإحنا الآن لما بقول accelerating معناته بدنا |
|
|
|
198 |
|
00:15:38,940 --> 00:15:45,170 |
|
ينزل للصفر الصفرهو بعدد ايش اقل من ال iterations |
|
|
|
199 |
|
00:15:45,170 --> 00:15:49,670 |
|
فبنتقل |
|
|
|
200 |
|
00:15:49,670 --> 00:15:55,410 |
|
الان الى هذا ال slide |
|
|
|
201 |
|
00:15:55,410 --> 00:15:59,830 |
|
هناOkay هي بداية اللي هو اللي حاكي عن ال |
|
|
|
202 |
|
00:15:59,830 --> 00:16:04,770 |
|
accelerated learning اعتبرها accelerating learning |
|
|
|
203 |
|
00:16:04,770 --> 00:16:10,190 |
|
يعني ان هو احنا نسرع عملية التعلم ففي عندنا عدة |
|
|
|
204 |
|
00:16:10,190 --> 00:16:14,350 |
|
techniques او عدة خطوات او إجراءات ممكن تنعمل |
|
|
|
205 |
|
00:16:14,350 --> 00:16:17,650 |
|
تغيير بسيطة تغييرات بسيطة على تصميم ال neural |
|
|
|
206 |
|
00:16:17,650 --> 00:16:21,410 |
|
network عساس انه تخلي عملية التعلم أسرع شوية واحدة |
|
|
|
207 |
|
00:16:21,410 --> 00:16:27,410 |
|
منها اللي هي انه ال outputيعني ال .. ال .. ال |
|
|
|
208 |
|
00:16:27,410 --> 00:16:30,010 |
|
sigmoid function اللي على .. اللي هي ال activation |
|
|
|
209 |
|
00:16:30,010 --> 00:16:36,670 |
|
function يعاد صياغتها بهذا الصينةبهذا السبب اللي |
|
|
|
210 |
|
00:16:36,670 --> 00:16:40,790 |
|
هو انه احنا يكون في عندي two constants a و b ال |
|
|
|
211 |
|
00:16:40,790 --> 00:16:45,730 |
|
two constants a و b هدولة ينحسب ال ال y اللي هو ال |
|
|
|
212 |
|
00:16:45,730 --> 00:16:49,910 |
|
output تبع ال perceptron او النود الواحدة بهذه |
|
|
|
213 |
|
00:16:49,910 --> 00:16:52,890 |
|
القلية بدل ما بهذه ال equation بدل ال equation |
|
|
|
214 |
|
00:16:52,890 --> 00:16:55,650 |
|
الأساسية هذه ال equation هي عبارة عن ال equation |
|
|
|
215 |
|
00:16:55,650 --> 00:16:59,890 |
|
تمثل sigmoid functionمش إش جديد بس صياغة أخرى |
|
|
|
216 |
|
00:16:59,890 --> 00:17:05,370 |
|
إليها الصياغة هذه بتساعد على تسريع اختصار وجد يعني |
|
|
|
217 |
|
00:17:05,370 --> 00:17:11,460 |
|
تغيير الأوزان بكميات أكبر وصولا إلي إيشوصولا الى |
|
|
|
218 |
|
00:17:11,460 --> 00:17:17,880 |
|
اوزان بتعطي error اقل فهذه الطريقة الأولى اللي هي |
|
|
|
219 |
|
00:17:17,880 --> 00:17:22,860 |
|
استخدام ال hyperbolic tangent function او صيغة ال |
|
|
|
220 |
|
00:17:22,860 --> 00:17:26,540 |
|
hyperbolic tangent تبع ال sigmoid function بدل ال |
|
|
|
221 |
|
00:17:26,540 --> 00:17:30,460 |
|
direct sigmoid هذا الكلام مش هوصفه ليش لأنه بده |
|
|
|
222 |
|
00:17:30,460 --> 00:17:32,980 |
|
mathematical foundation حل ال mathematical |
|
|
|
223 |
|
00:17:32,980 --> 00:17:39,640 |
|
foundation ل .. ل .. ليش؟ |
|
|
|
224 |
|
00:17:41,620 --> 00:17:46,340 |
|
لـ course يكون في الجزء النظري أكتر فإحنا الآن |
|
|
|
225 |
|
00:17:46,340 --> 00:17:49,560 |
|
بدنا ننتقل على هذا هو الطريقة الأولى هذا الطريقة |
|
|
|
226 |
|
00:17:49,560 --> 00:17:53,880 |
|
الأولى لتسريع عملية التعلم طريقة تانية اللي هو |
|
|
|
227 |
|
00:17:53,880 --> 00:17:57,300 |
|
إحنا نستخدم حاجة اسمها momentum term اتطلع على |
|
|
|
228 |
|
00:17:57,300 --> 00:18:01,860 |
|
المعادلة هذه اتطلع على الشق هذا هل الشق هذا شفناه |
|
|
|
229 |
|
00:18:01,860 --> 00:18:05,600 |
|
قبل هيك أول شيء ايش اللي على اليسار اللي يساوي |
|
|
|
230 |
|
00:18:05,600 --> 00:18:12,400 |
|
اللي هو ال delta W اللي هو إيشفرق الوزن بالعادة |
|
|
|
231 |
|
00:18:12,400 --> 00:18:16,380 |
|
احنا بنعرف ان فرق الوزن هو في المحصلة هيك بس مجرد |
|
|
|
232 |
|
00:18:16,380 --> 00:18:21,280 |
|
ال alpha مضروبة في ال input مضروبة في small delta |
|
|
|
233 |
|
00:18:21,280 --> 00:18:25,700 |
|
للأ اذكركم في هذا الكلام هيتوا ارجع هنا ورا شوية |
|
|
|
234 |
|
00:18:25,700 --> 00:18:30,980 |
|
ارجع هنا ورا شوية هيتوا هي delta صح عبارة عن ايش |
|
|
|
235 |
|
00:18:30,980 --> 00:18:35,450 |
|
alpha مضروبة في XX اللي هي ال inputمضروف ليس في |
|
|
|
236 |
|
00:18:35,450 --> 00:18:38,410 |
|
دلتا دلتا اللي هي error gradient تبع ال node نفسها |
|
|
|
237 |
|
00:18:38,410 --> 00:18:43,530 |
|
اللي نحسب لها تلاتة او زمن الداخلة عليها من واحد و |
|
|
|
238 |
|
00:18:43,530 --> 00:18:53,830 |
|
من اتنين مبدئيا للي مش حافظ تعديل الوزن delta w هي |
|
|
|
239 |
|
00:18:53,830 --> 00:18:56,690 |
|
عبارة عن ببساطة learning rate |
|
|
|
240 |
|
00:18:59,110 --> 00:19:02,870 |
|
مضروب في ال input اللى داخل على ال node من هذا |
|
|
|
241 |
|
00:19:02,870 --> 00:19:07,810 |
|
الوزن مضروب في ال gradient طيب ايش الاستجاد |
|
|
|
242 |
|
00:19:07,810 --> 00:19:11,710 |
|
الاستجاد هذا ال band هذا او هذا ال term هذا ال |
|
|
|
243 |
|
00:19:11,710 --> 00:19:14,790 |
|
term اللى هو ال momentum term momentum يعني الدفع |
|
|
|
244 |
|
00:19:14,790 --> 00:19:18,450 |
|
بيعطي الدفع لعملية التعلمة هو ببساطة شديدة عبارة |
|
|
|
245 |
|
00:19:18,450 --> 00:19:22,970 |
|
عن beta هي عبارة عن constant صغير ما بين ال zero |
|
|
|
246 |
|
00:19:22,970 --> 00:19:28,630 |
|
والواحد مضروب في ايشمضروف في ايش؟ في الـ delta |
|
|
|
247 |
|
00:19:28,630 --> 00:19:33,190 |
|
point يعني بدنا الآن ال network تتذكر ال delta |
|
|
|
248 |
|
00:19:33,190 --> 00:19:39,050 |
|
السابق احنا نحسب ال delta تبع P و بنقول انه بدنا |
|
|
|
249 |
|
00:19:39,050 --> 00:19:44,210 |
|
ال delta تبع P نقص واحد يعني ايش؟ ال delta السابق |
|
|
|
250 |
|
00:19:44,210 --> 00:19:50,310 |
|
مش الوزن السابق مش W لأ delta W بدنا ناخده هذا |
|
|
|
251 |
|
00:19:51,510 --> 00:19:57,390 |
|
نحتفظ فيه للدورة اللاحقة عشان نضربه في مين في ال |
|
|
|
252 |
|
00:19:57,390 --> 00:20:04,590 |
|
beta هذا الكلام بشكل دفع لمين لعملية التعلم وهذا |
|
|
|
253 |
|
00:20:04,590 --> 00:20:11,070 |
|
ال beta قيمة تتراوح من zero لواحد عادة تبتد قريبة |
|
|
|
254 |
|
00:20:11,070 --> 00:20:17,690 |
|
من الواحد قريبة من الواحد يعني 0.95 مثلا فهذا اللي |
|
|
|
255 |
|
00:20:17,690 --> 00:20:18,150 |
|
هو الآن |
|
|
|
256 |
|
00:20:27,380 --> 00:20:32,280 |
|
two methods او two measures او two steps او two |
|
|
|
257 |
|
00:20:32,280 --> 00:20:41,980 |
|
techniques ليش for accelerating أول |
|
|
|
258 |
|
00:20:41,980 --> 00:20:42,920 |
|
واحد ايش كانت؟ |
|
|
|
259 |
|
00:21:01,740 --> 00:21:06,060 |
|
الثاني استخدام ايش |
|
|
|
260 |
|
00:21:06,060 --> 00:21:11,540 |
|
momentum constant term لأ ال constant هو جزء من ال |
|
|
|
261 |
|
00:21:11,540 --> 00:21:15,100 |
|
term هذا هو كله عبارة عن ال momentum term تتكوّل |
|
|
|
262 |
|
00:21:15,100 --> 00:21:20,260 |
|
من حاجتين مضروبات في بعض اللي هم ال momentum |
|
|
|
263 |
|
00:21:20,260 --> 00:21:26,540 |
|
constant اللي هي beta مضربة في ال W تبعت ال |
|
|
|
264 |
|
00:21:26,540 --> 00:21:34,100 |
|
iteration السابقهذا ال term بينجمع على ال term |
|
|
|
265 |
|
00:21:34,100 --> 00:21:40,240 |
|
الأصلي تبع تعديل الأوزان اللي هو ال alpha مضروبة |
|
|
|
266 |
|
00:21:40,240 --> 00:21:48,820 |
|
في ال input مضروبة في ال error gradient error |
|
|
|
267 |
|
00:21:48,820 --> 00:21:54,780 |
|
gradient اللي هي small delta تمام؟ |
|
|
|
268 |
|
00:21:54,780 --> 00:21:57,800 |
|
إيش |
|
|
|
269 |
|
00:21:57,800 --> 00:22:02,890 |
|
غير إيك؟ هدولا طريقتين اللي قاله إيشأو أسلوبين لـ |
|
|
|
270 |
|
00:22:02,890 --> 00:22:10,710 |
|
Accelerating Learning غير هيكة هذا المثال نفس |
|
|
|
271 |
|
00:22:10,710 --> 00:22:20,270 |
|
المثال اللي قبل هيكة بوريها كيف ال |
|
|
|
272 |
|
00:22:20,270 --> 00:22:27,770 |
|
learning rate هنا ثابت ماتغيرش ثابت و ال error |
|
|
|
273 |
|
00:22:27,770 --> 00:22:37,800 |
|
بينزل ال error بينزلصار بدل ما أخدت بدل |
|
|
|
274 |
|
00:22:37,800 --> 00:22:44,280 |
|
ما تاخد 200 iteration عشان يقترب ال error من ال |
|
|
|
275 |
|
00:22:44,280 --> 00:22:52,340 |
|
zero أخدت جداش 126 |
|
|
|
276 |
|
00:22:52,340 --> 00:22:57,120 |
|
epo او iteration مش مشكلة المهم القصد أنه انضغط |
|
|
|
277 |
|
00:22:57,120 --> 00:23:03,340 |
|
الأمر من 200 إلى 126هذا باستخدام ال momentum term |
|
|
|
278 |
|
00:23:03,340 --> 00:23:11,320 |
|
لما أضيف ال momentum term على تصميم formula تعديل |
|
|
|
279 |
|
00:23:11,320 --> 00:23:18,920 |
|
الوزن صار اختزل او جل الوجد الى 126 ابوك بدل 200 |
|
|
|
280 |
|
00:23:18,920 --> 00:23:25,340 |
|
ابوك الآن اضافة إلى هذول ال two techniques رقم |
|
|
|
281 |
|
00:23:25,340 --> 00:23:27,360 |
|
تلاتة اللى هو ال heuristics |
|
|
|
282 |
|
00:23:33,520 --> 00:23:37,660 |
|
plastics هذو لا فيها any tools rule بتقول إنه إذا |
|
|
|
283 |
|
00:23:37,660 --> 00:23:43,780 |
|
كان أنا قاعد باجمع اللي هو إيش ال sum of square |
|
|
|
284 |
|
00:23:43,780 --> 00:23:46,940 |
|
errors إيش هو ال sum of square errors بتذكرها لو |
|
|
|
285 |
|
00:23:46,940 --> 00:23:51,040 |
|
لسه كنا نحكي اللي هو بجمع ال errors تبعد كل ال |
|
|
|
286 |
|
00:23:51,040 --> 00:23:55,900 |
|
nodes و بربعها أولا بخدها بربعها بعدين بجمع |
|
|
|
287 |
|
00:23:55,900 --> 00:24:01,900 |
|
مربعاتها إذا من epo ل epo ال sum of square errors |
|
|
|
288 |
|
00:24:01,900 --> 00:24:12,120 |
|
هذاsome of square errors باستمرار |
|
|
|
289 |
|
00:24:12,120 --> 00:24:20,060 |
|
ال some هذا من |
|
|
|
290 |
|
00:24:20,060 --> 00:24:26,520 |
|
واحد للي بعده اما في ازدياد يعني في الاول كان ال |
|
|
|
291 |
|
00:24:26,520 --> 00:24:30,780 |
|
some نقول مثلا تلاتة بعدين صار اربع بعدين صار خمسة |
|
|
|
292 |
|
00:24:30,780 --> 00:24:31,280 |
|
بعدين ستة |
|
|
|
293 |
|
00:24:35,780 --> 00:24:45,980 |
|
بيزيد او الاكس انه في النزول يعني ال sum تبع هذا |
|
|
|
294 |
|
00:24:45,980 --> 00:24:49,400 |
|
ال epoch اقل من اللي جابله و اللي بعد اقل و اللي |
|
|
|
295 |
|
00:24:49,400 --> 00:24:53,220 |
|
بعد اقل جاء بتنقص هذا الكلام مش معناته معناته لما |
|
|
|
296 |
|
00:24:53,220 --> 00:24:58,800 |
|
انا بقى اخد الفرق من تلاتة نقص اربعة بيطلع نقص |
|
|
|
297 |
|
00:24:58,800 --> 00:25:02,220 |
|
واحد اربعة نقص خمسة بيطلع نقص واحددائما .. دائما |
|
|
|
298 |
|
00:25:02,220 --> 00:25:09,020 |
|
.. دائما الفرق .. دائما الفرق اشارته بالسلب وهنا |
|
|
|
299 |
|
00:25:09,020 --> 00:25:13,620 |
|
نفس الاشي برضه سواء كان هو صعودا او هبوطا لما انا |
|
|
|
300 |
|
00:25:13,620 --> 00:25:17,500 |
|
اجي اقول مثلا هذه عشرة و لبعدها تسعة و لبعدها |
|
|
|
301 |
|
00:25:17,500 --> 00:25:21,800 |
|
تمانية عشر اناقص تسعة واحد تسعة اناقص تمانية واحد |
|
|
|
302 |
|
00:25:21,800 --> 00:25:29,120 |
|
فالفرق دائما اشارته موجبة هنا دائما اشارته السلبة |
|
|
|
303 |
|
00:25:31,690 --> 00:25:37,390 |
|
إذا دايما هيك .. إذا دايما .. إذا ال change of the |
|
|
|
304 |
|
00:25:37,390 --> 00:25:42,510 |
|
sum of square .. change .. ال change .. التغير |
|
|
|
305 |
|
00:25:42,510 --> 00:25:45,510 |
|
يعني هنا من عشر إلى تسعة و تسعة إذا دايما هذا ال |
|
|
|
306 |
|
00:25:45,510 --> 00:25:49,130 |
|
change .. كيف أنا بحسب ال change؟ باخد الفرق إذا |
|
|
|
307 |
|
00:25:49,130 --> 00:25:54,310 |
|
دايما هذا الفرق بحافظ على نفس ال signنفس الإشارة |
|
|
|
308 |
|
00:25:54,310 --> 00:25:58,190 |
|
اما دايما موجبة او دايما سالبة يبقى انا في عندي |
|
|
|
309 |
|
00:25:58,190 --> 00:26:03,250 |
|
اضطراد انا في عندي حاجة اسمها ال .. ال .. ال .. ال |
|
|
|
310 |
|
00:26:03,250 --> 00:26:05,830 |
|
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. |
|
|
|
311 |
|
00:26:05,830 --> 00:26:06,070 |
|
ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال |
|
|
|
312 |
|
00:26:06,070 --> 00:26:06,150 |
|
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. |
|
|
|
313 |
|
00:26:06,150 --> 00:26:06,370 |
|
ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال |
|
|
|
314 |
|
00:26:06,370 --> 00:26:06,690 |
|
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. |
|
|
|
315 |
|
00:26:06,690 --> 00:26:07,830 |
|
ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال |
|
|
|
316 |
|
00:26:07,830 --> 00:26:07,950 |
|
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. |
|
|
|
317 |
|
00:26:07,950 --> 00:26:11,010 |
|
ال .. ال .. ال .. ال .. ال .. ال .. ال .. |
|
|
|
318 |
|
00:26:11,010 --> 00:26:15,430 |
|
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. |
|
|
|
319 |
|
00:26:15,430 --> 00:26:20,430 |
|
ال .. |
|
|
|
320 |
|
00:26:20,430 --> 00:26:26,230 |
|
ال .. الفي ال square في sum of square errors يبقى |
|
|
|
321 |
|
00:26:26,230 --> 00:26:33,570 |
|
أنا المفروض أسرع أزيد ال alpha فإذا كان اختصر هذا |
|
|
|
322 |
|
00:26:33,570 --> 00:26:39,770 |
|
ال linguistic كالتالي إذا كانت ال sign of sum of |
|
|
|
323 |
|
00:26:39,770 --> 00:26:42,570 |
|
square errors ولا حد الاختصار |
|
|
|
324 |
|
00:26:51,530 --> 00:26:54,230 |
|
و بعدها كلمة stable ايش هان stable؟ يعني مافيش |
|
|
|
325 |
|
00:26:54,230 --> 00:26:59,310 |
|
فيها تذبذب مش مرة زائد و مرة ناقص يعني مش انه مرة |
|
|
|
326 |
|
00:26:59,310 --> 00:27:05,390 |
|
تلاقي هيك هنا الفرق هذا ناقص هذا سالب سالب بعد هيك |
|
|
|
327 |
|
00:27:05,390 --> 00:27:09,710 |
|
الفرق صار موجب مظبوط؟ هنا مافيش فرق هنا صار سالب |
|
|
|
328 |
|
00:27:09,710 --> 00:27:13,110 |
|
سالب سالب هنا موجب هذا تذبذب في ايش؟ في ال sign |
|
|
|
329 |
|
00:27:13,110 --> 00:27:21,150 |
|
إذا كان ال sign is stable فإيش بسوي increase alpha |
|
|
|
330 |
|
00:27:22,950 --> 00:27:25,930 |
|
ألفة اللي هي learning rate وشوفتها في واحدة من |
|
|
|
331 |
|
00:27:25,930 --> 00:27:30,210 |
|
الأمثلة كانت 0.1 increase يعني بخليها 0.2 مثلا |
|
|
|
332 |
|
00:27:30,210 --> 00:27:36,270 |
|
بخليها 0.3 او بقيت و بقول بدي اضربها دايما بيزيدها |
|
|
|
333 |
|
00:27:36,270 --> 00:27:43,910 |
|
ب 5% يعني 0.1 بدي أثير 0.105 يعني بخلي بمخصر أن |
|
|
|
334 |
|
00:27:43,910 --> 00:27:51,070 |
|
ألفة تساوي ألفة ضرب واحد هذا معناته بيزيدها ب 5% |
|
|
|
335 |
|
00:27:52,090 --> 00:27:57,250 |
|
ممكن أقول لأ ده زي ده 15% ممكن أقول ده زي ده 25% |
|
|
|
336 |
|
00:27:57,250 --> 00:28:02,350 |
|
المهم أنا بقى أثبت ليه نسبة زيادة امتى بتزيد امتى |
|
|
|
337 |
|
00:28:02,350 --> 00:28:05,290 |
|
بقى طابت ده الكلام لما قاللي انه ال sign ثابت |
|
|
|
338 |
|
00:28:05,290 --> 00:28:12,790 |
|
العكس من ذلك إذا ال algebraic sign of ال change ال |
|
|
|
339 |
|
00:28:12,790 --> 00:28:16,950 |
|
change اللي هو يعني مقصود يتغير في ال alternates |
|
|
|
340 |
|
00:28:16,950 --> 00:28:21,190 |
|
session alternates يتذبذب مرة أخر مرة موجة مرة |
|
|
|
341 |
|
00:28:21,190 --> 00:28:25,760 |
|
سالباللي هو معناه ذلك .. معناه ذلك في عندي ال .. |
|
|
|
342 |
|
00:28:25,760 --> 00:28:31,620 |
|
ال network مرة بتقترب .. مرة بتقترب و بجل ال error |
|
|
|
343 |
|
00:28:31,620 --> 00:28:36,780 |
|
و مرة بتبعد فجيها غيرت الأوزان بشكل كبير صار يطلع |
|
|
|
344 |
|
00:28:36,780 --> 00:28:41,570 |
|
معاها error و بعدين كانت مقتربة، بس إيش؟التغيير |
|
|
|
345 |
|
00:28:41,570 --> 00:28:45,550 |
|
اللي حصل كان تغيير كبير في الأوزان خلها تفشج عن .. |
|
|
|
346 |
|
00:28:45,550 --> 00:28:50,290 |
|
زي ما هم بيقولها تخطي الصواب و صارت الاش تبعد و |
|
|
|
347 |
|
00:28:50,290 --> 00:28:54,430 |
|
بعدين صارت تترد تاني بس لما ردت مارجعتش على الصواب |
|
|
|
348 |
|
00:28:54,430 --> 00:28:57,890 |
|
فشجت عنه ب .. فصار .. فإيش فيه مشكلة؟ المشكلة أنها |
|
|
|
349 |
|
00:28:57,890 --> 00:29:01,450 |
|
بتخطي خطوات واسعة فانا بضيق الخطوات هذه كيف بضيق |
|
|
|
350 |
|
00:29:01,450 --> 00:29:08,770 |
|
الخطوات؟ بنزل الاش ال alpha ال learning rate فإذا |
|
|
|
351 |
|
00:29:08,770 --> 00:29:19,460 |
|
كان ال signخلاص فأقول S إذا هي مش stable sign |
|
|
|
352 |
|
00:29:19,460 --> 00:29:25,700 |
|
of SSE alternates |
|
|
|
353 |
|
00:29:25,700 --> 00:29:29,960 |
|
معناه |
|
|
|
354 |
|
00:29:29,960 --> 00:29:34,880 |
|
ذلك decrease الألف |
|
|
|
355 |
|
00:29:34,880 --> 00:29:39,830 |
|
decrease الألف برضه يكون عندي كمانبتقدر تتخيل يعني |
|
|
|
356 |
|
00:29:39,830 --> 00:29:48,910 |
|
هنا هو مثلا ال decrease |
|
|
|
357 |
|
00:29:48,910 --> 00:29:56,070 |
|
بأنه بضربها ب 70% ب 7 من 10 يعني بنزلها 30% تمام و |
|
|
|
358 |
|
00:29:56,070 --> 00:30:03,790 |
|
ال increase بضربها في 1 و 5 من 100 واضح تمام فهنا |
|
|
|
359 |
|
00:30:03,790 --> 00:30:10,570 |
|
بوريلك كيف انه هايالـ Epochs ماشية و في ده ال دي |
|
|
|
360 |
|
00:30:10,570 --> 00:30:18,250 |
|
ال learning rate قاعد بتساعد نتيجة تطبيق إيش؟ هذي |
|
|
|
361 |
|
00:30:18,250 --> 00:30:23,250 |
|
تمام؟ قاعد بيحسب لجأ أنه ال error ال software |
|
|
|
362 |
|
00:30:23,250 --> 00:30:26,810 |
|
errors قاعد في النازل صح في النازل يعني إشارته |
|
|
|
363 |
|
00:30:26,810 --> 00:30:32,170 |
|
دايما موجبة مظبوط؟ بقى أطرح السابق و بقى أطرح منه |
|
|
|
364 |
|
00:30:32,170 --> 00:30:37,960 |
|
اللاحق و طلعت موجب فهو بسبب أنه هذا موجبالتغير |
|
|
|
365 |
|
00:30:37,960 --> 00:30:44,780 |
|
موجب اه التغير موجب فهو عمار بيرفع في ليش في اللي |
|
|
|
366 |
|
00:30:44,780 --> 00:30:49,000 |
|
عند حد معين جلب |
|
|
|
367 |
|
00:30:49,000 --> 00:30:53,540 |
|
ال ال |
|
|
|
368 |
|
00:30:53,540 --> 00:30:59,840 |
|
alphaبدأت تنزل و نزولها لأن وضعها في 0.7 النزول |
|
|
|
369 |
|
00:30:59,840 --> 00:31:04,000 |
|
أسرع أو أحد من الصعود صعود تدريج بسيط 5% كل مرة |
|
|
|
370 |
|
00:31:04,000 --> 00:31:11,240 |
|
انما هنا 30% كل مرة فبدأت تنزل نزلة جامدة مين هي |
|
|
|
371 |
|
00:31:11,240 --> 00:31:14,980 |
|
اللي هو ال learning rate نزل نزل جامدة مع النزلة |
|
|
|
372 |
|
00:31:14,980 --> 00:31:20,640 |
|
هذه بدأ يقترب من ايش من بوريلك فعلية هذا الأسلوب |
|
|
|
373 |
|
00:31:20,640 --> 00:31:22,440 |
|
في الاقتراب من |
|
|
|
374 |
|
00:31:25,600 --> 00:31:33,420 |
|
من ال error المخفض بوقت أقل 100 epoch بدلا من 126 |
|
|
|
375 |
|
00:31:33,420 --> 00:31:39,920 |
|
epoch هذا |
|
|
|
376 |
|
00:31:39,920 --> 00:31:45,280 |
|
الأن استخدم ال momentum مع برضه هذه الهيروستيك |
|
|
|
377 |
|
00:31:45,280 --> 00:31:48,960 |
|
اقبال adaptive ايش يعني adaptive يعني لما نقول |
|
|
|
378 |
|
00:31:48,960 --> 00:31:53,100 |
|
adapter ايش يعني adapter يعني محولadaptive يعني |
|
|
|
379 |
|
00:31:53,100 --> 00:31:58,260 |
|
أنه يتحول ويغير من تلقاء نفسه ماهو اللي بتغير من |
|
|
|
380 |
|
00:31:58,260 --> 00:32:02,240 |
|
تلقاء نفسه ال learning rate لوحده بناء على |
|
|
|
381 |
|
00:32:02,240 --> 00:32:07,980 |
|
استشعاره لل sign تبعت من ال sum of square arrows |
|
|
|
382 |
|
00:32:07,980 --> 00:32:12,180 |
|
هو نفسه من تلقاء نفسها ال network بتغير في ال |
|
|
|
383 |
|
00:32:12,180 --> 00:32:15,460 |
|
learning rate تبعها عشان ذلك اسم هذا الكلام |
|
|
|
384 |
|
00:32:15,460 --> 00:32:19,680 |
|
adaptive learning فلما اندمج ال two techniques ال |
|
|
|
385 |
|
00:32:19,680 --> 00:32:26,480 |
|
adaptive learning مع علمmomentum صار عندي اختصار |
|
|
|
386 |
|
00:32:26,480 --> 00:32:32,160 |
|
لسه اكتر صرنا بنصل الى |
|
|
|
387 |
|
00:32:32,160 --> 00:32:35,780 |
|
ال zero |
|
|
|
388 |
|
00:32:35,780 --> 00:32:41,280 |
|
تقريبا error ومعناه مش zero هذا الكلام واحد اص نقص |
|
|
|
389 |
|
00:32:41,280 --> 00:32:45,580 |
|
اشهر اص نقص ثلاث يعني واحد من الألف يعني مش zero |
|
|
|
390 |
|
00:32:46,700 --> 00:32:50,940 |
|
مابدناش بالظبط 00 يعني ممكن تبقى صعب جدا انه ال |
|
|
|
391 |
|
00:32:50,940 --> 00:32:56,100 |
|
network تصل لل zero لكن ممكن نقبل بأنها تصل لواحد |
|
|
|
392 |
|
00:32:56,100 --> 00:33:01,580 |
|
من الف error ال error يصل لواحد من الف صح طيب ماشي |
|
|
|
393 |
|
00:33:01,580 --> 00:33:06,000 |
|
الحال okay الان هنا الكلام بيوصلنا لنهاية اللي |
|
|
|
394 |
|
00:33:06,000 --> 00:33:08,920 |
|
حاكي عن ال back propagation networks ولكن لأسف |
|
|
|
395 |
|
00:33:08,920 --> 00:33:14,460 |
|
ماقلش معنى وقت نبدأ في ال hub field ال hub field |
|
|
|
396 |
|
00:33:14,460 --> 00:33:19,080 |
|
networkو ال BAM فبناخدهم في المحاضرة الجاية ان شاء |
|
|
|
397 |
|
00:33:19,080 --> 00:33:23,900 |
|
الله تمام؟ يبقى احنا الآن عمليا باختصار المحاضرة |
|
|
|
398 |
|
00:33:23,900 --> 00:33:28,940 |
|
اليوم كانت تكملة ل ال back propagation networks |
|
|
|
399 |
|
00:33:28,940 --> 00:33:33,960 |
|
اللي هو واحد من أنواع ال unsupervised artificial |
|
|
|
400 |
|
00:33:33,960 --> 00:33:36,680 |
|
neural networks المحاضرة الجاية ان شاء الله بنكمل |
|
|
|
401 |
|
00:33:36,680 --> 00:33:39,940 |
|
النوعين التانيات اللي هو ال hot field و ال BAM |
|
|
|
402 |
|
00:33:39,940 --> 00:33:46,360 |
|
اللي هو في واقع الأمر نوع واحد بس منه نسختينو إذا |
|
|
|
403 |
|
00:33:46,360 --> 00:33:49,600 |
|
ضال معانا وجد نبدأ في ليش؟ في ال super .. في ال |
|
|
|
404 |
|
00:33:49,600 --> 00:33:54,420 |
|
unsupervised .. في ال unsupervised artificial |
|
|
|
405 |
|
00:33:54,420 --> 00:33:55,140 |
|
neural networks |
|
|
|
|