|
1 |
|
00:00:04,940 --> 00:00:07,280 |
|
بسم الله والحمد لله والصلاة والسلام على رسول الله |
|
|
|
2 |
|
00:00:07,280 --> 00:00:12,260 |
|
أهلا وسهلا بكم في محاضرتنا المستمرّة... في |
|
|
|
3 |
|
00:00:12,260 --> 00:00:15,740 |
|
محاضراتنا المستمرّة في مساق الـ data mining وما زلنا |
|
|
|
4 |
|
00:00:15,740 --> 00:00:20,980 |
|
نتكلم في باب الـ classification، وبالتحديد سنتكلم |
|
|
|
5 |
|
00:00:20,980 --> 00:00:24,660 |
|
اليوم على decision tree induction. كنا في المحاضرات |
|
|
|
6 |
|
00:00:24,660 --> 00:00:27,540 |
|
السابقة، أو المحاضرة الأخيرة، أضفنا شغلة جديدة. كنا |
|
|
|
7 |
|
00:00:27,540 --> 00:00:31,040 |
|
نتكلم على الـ Naive Bayes. كانت فعليًا |
|
|
|
8 |
|
00:00:31,040 --> 00:00:34,320 |
|
هي واحدة من الـ probabilistic approach المستخدمة |
|
|
|
9 |
|
00:00:34,320 --> 00:00:36,800 |
|
في الـ machine learning من أجل الـ classification. |
|
|
|
10 |
|
00:00:36,800 --> 00:00:41,680 |
|
وقلنا إنّه يلزمنا أن نقوم بحساب لمجموعة من |
|
|
|
11 |
|
00:00:41,680 --> 00:00:44,300 |
|
probabilities. أنا عندي الـ instance اللي بدي... |
|
|
|
12 |
|
00:00:44,300 --> 00:00:46,600 |
|
اللي هي الـ unseen instance اللي أنا بدي أعمل لها |
|
|
|
13 |
|
00:00:46,600 --> 00:00:50,440 |
|
classification بناءً على... وبالتالي الـ class |
|
|
|
14 |
|
00:00:50,440 --> 00:00:54,380 |
|
الطبعة للـ instance هذه الموجودة عندي تساوي |
|
|
|
15 |
|
00:00:54,380 --> 00:00:58,370 |
|
maximum probability للـ probabilities of the class. |
|
|
|
16 |
|
00:00:58,370 --> 00:01:05,470 |
|
في احتمالية أن تكون الـ instance هذه مع الـ class |
|
|
|
17 |
|
00:01:05,470 --> 00:01:10,110 |
|
المعين. ولما رجعنا بالتفصيل، قلت أنا فعليًا بحاجة |
|
|
|
18 |
|
00:01:10,110 --> 00:01:14,070 |
|
أن آخذ هذه الـ data set، وأذهب لأنشئ الجدول هذا بحيث أنني |
|
|
|
19 |
|
00:01:14,070 --> 00:01:18,550 |
|
أذهب، حسبت الـ probability لكل element أو لكل |
|
|
|
20 |
|
00:01:18,550 --> 00:01:21,770 |
|
classes الموجودة عندي. ومن ثم انتقلنا في الخطوة |
|
|
|
21 |
|
00:01:21,770 --> 00:01:24,910 |
|
التي بعدها، أخذت الـ attributes التي من المفترض |
|
|
|
22 |
|
00:01:24,910 --> 00:01:27,370 |
|
التي من المفترض أن يكون لديها nominal attributes، أخذت |
|
|
|
23 |
|
00:01:27,370 --> 00:01:30,950 |
|
distinct values، وعملت حساب لكل واحدة منهم، وانتبهوا |
|
|
|
24 |
|
00:01:30,950 --> 00:01:35,520 |
|
دائمًا، وانتبهوا دائمًا أنني فعليًا هنا قاعد بأشتغل على |
|
|
|
25 |
|
00:01:35,520 --> 00:01:38,840 |
|
أن الـ probability نفسها، يعني الآن عدد الـ yes في الـ |
|
|
|
26 |
|
00:01:38,840 --> 00:01:42,880 |
|
data، اللي عندي هنا 4 على 10. ومن ثم مع كل route |
|
|
|
27 |
|
00:01:42,880 --> 00:01:48,400 |
|
أو كل attribute تحت الـ yes سيكون 4، وكل مجموع |
|
|
|
28 |
|
00:01:48,400 --> 00:01:51,920 |
|
العناصر تحت كل no سيكون 6، وهكذا. وهذا مفتاح |
|
|
|
29 |
|
00:01:51,920 --> 00:01:56,510 |
|
النجاح، للعناصر الموجودة. ولما جئنا نُصنّف الـ |
|
|
|
30 |
|
00:01:56,510 --> 00:01:59,230 |
|
sunny والـ mild والـ high، قلنا حسبت الـ |
|
|
|
31 |
|
00:01:59,230 --> 00:02:01,670 |
|
probability للـ yes التي كانت 4 على 10 في الـ |
|
|
|
32 |
|
00:02:01,670 --> 00:02:04,690 |
|
probability للـ sunny على الـ yes، وقلنا هذا الجدول |
|
|
|
33 |
|
00:02:04,690 --> 00:02:07,810 |
|
الأساس في الموضوع، هي sunny و yes، هيها 4 على 10 |
|
|
|
34 |
|
00:02:07,810 --> 00:02:12,530 |
|
مضروبة في العنصر الثاني، كانت mild، الـ probability |
|
|
|
35 |
|
00:02:12,530 --> 00:02:17,190 |
|
تبعت الـ mild، يعني بين قوسين هي الـ yes هذه مضروبة |
|
|
|
36 |
|
00:02:17,190 --> 00:02:22,410 |
|
في هذه في الـ mild في الـ high، وهذه العناصر كانت |
|
|
|
37 |
|
00:02:22,410 --> 00:02:25,050 |
|
تمثّل الـ probability. فأنا حسبت الـ probability للـ |
|
|
|
38 |
|
00:02:25,050 --> 00:02:27,850 |
|
different classes الموجودة عندي، وأخذت الـ |
|
|
|
39 |
|
00:02:27,850 --> 00:02:31,810 |
|
maximum probability، على أن هذه هي الأكثر احتمالية |
|
|
|
40 |
|
00:02:31,810 --> 00:02:36,090 |
|
في موضوع أن هذا العنصر أو هذه الـ instance تنتمي للـ |
|
|
|
41 |
|
00:02:36,090 --> 00:02:40,850 |
|
class الموجودة عندها. الآن اليوم إن شاء الله |
|
|
|
42 |
|
00:02:40,850 --> 00:02:45,620 |
|
سنتنتقل إلى الموضوع الجديد، وهو موضوع الـ |
|
|
|
43 |
|
00:02:45,620 --> 00:02:49,500 |
|
decision tree في التعامل أو كـ different classifier. |
|
|
|
44 |
|
00:02:49,500 --> 00:02:53,300 |
|
الـ decision tree هي واحدة من الـ classifiers المهمة |
|
|
|
45 |
|
00:02:53,300 --> 00:02:57,200 |
|
جدا، المستخدمة في موضوع الـ classification، وأهميتها |
|
|
|
46 |
|
00:02:57,200 --> 00:03:00,840 |
|
أنّي أمكنني أن أرسم الشجرة، وبالتالي يصير تفسير |
|
|
|
47 |
|
00:03:00,840 --> 00:03:04,000 |
|
الـ model الموجود عندي، أو فهم الـ model الذي عندي |
|
|
|
48 |
|
00:03:04,000 --> 00:03:07,210 |
|
أكثر من غيره. على سبيل المثال، قلنا في الـ |
|
|
|
49 |
|
00:03:07,210 --> 00:03:10,610 |
|
classifier الماضي، وهو naive Bayes، أنني فعليًا |
|
|
|
50 |
|
00:03:10,610 --> 00:03:13,970 |
|
عند الـ classifier هذا، مهم أو جيد، لأنه أنا أقدر |
|
|
|
51 |
|
00:03:13,970 --> 00:03:17,090 |
|
أفسر لماذا النتيجة طلعت معي هكذا، بناءً على |
|
|
|
52 |
|
00:03:17,090 --> 00:03:21,310 |
|
الاحتمالات الموجودة. في الـ decision tree كذلك، في |
|
|
|
53 |
|
00:03:21,310 --> 00:03:24,590 |
|
decision tree هي عبارة عن أنني فعليًا أُبني |
|
|
|
54 |
|
00:03:24,590 --> 00:03:26,930 |
|
decision tree. أيها السادة، لما أنا بأتكلم على |
|
|
|
55 |
|
00:03:26,930 --> 00:03:31,210 |
|
decision tree، تذكروا، دعونا نتذكر بسرعة الـ |
|
|
|
56 |
|
00:03:31,210 --> 00:03:34,930 |
|
binary search tree. لا أريد أكثر من ذلك. الـ binary |
|
|
|
57 |
|
00:03:34,930 --> 00:03:38,490 |
|
search tree كانت عناصرها أنّ كل node على |
|
|
|
58 |
|
00:03:38,490 --> 00:03:43,580 |
|
الأكثر لديها two child، صحيح؟ هذه هي الـ binary tree. |
|
|
|
59 |
|
00:03:43,580 --> 00:03:47,140 |
|
وكان فيه rule يحكمها، الـ rule أنني في الـ binary |
|
|
|
60 |
|
00:03:47,140 --> 00:03:51,200 |
|
search tree، أنّ كل القيم التي على اليمين هنا ستكون |
|
|
|
61 |
|
00:03:51,200 --> 00:03:55,570 |
|
أكبر من الـ element، وكل القيم التي موجودة عندها هنا |
|
|
|
62 |
|
00:03:55,570 --> 00:03:59,330 |
|
ستكون أصغر. طيب، القيم المتساوية؟ مالها وجود، المكررة |
|
|
|
63 |
|
00:03:59,330 --> 00:04:02,830 |
|
مالها وجود. وبالتالي الـ element مع كل node، الـ node |
|
|
|
64 |
|
00:04:02,830 --> 00:04:05,690 |
|
التي عندها القيم الموجودة هنا ستكون أصغر من القيم |
|
|
|
65 |
|
00:04:05,690 --> 00:04:08,810 |
|
التي موجودة هنا، وهذه طبيعتها ستكون أصغر من القيم |
|
|
|
66 |
|
00:04:08,810 --> 00:04:12,330 |
|
التي موجودة عندها. بمعنى آخر، أنّ الـ structure تبع الـ |
|
|
|
67 |
|
00:04:12,330 --> 00:04:15,250 |
|
decision tree، أنا بالفعل أعرفها، هي عبارة عن |
|
|
|
68 |
|
00:04:15,250 --> 00:04:18,270 |
|
مجموعة من الـ nodes والـ connection أو الـ connected |
|
|
|
69 |
|
00:04:18,270 --> 00:04:22,790 |
|
أو الـ graph with no circuit، زي ما كنا نسميها في الـ |
|
|
|
70 |
|
00:04:22,790 --> 00:04:25,670 |
|
discrete mathematics، أشبه بالـ flow chart، زي ما |
|
|
|
71 |
|
00:04:25,670 --> 00:04:28,750 |
|
قلنا سابقًا. في عندي الـ internal node، واللي أنا |
|
|
|
72 |
|
00:04:28,750 --> 00:04:32,150 |
|
فعليًا هي الـ value تبعها... ستمثل الـ value تبع الـ |
|
|
|
73 |
|
00:04:32,150 --> 00:04:35,490 |
|
attribute التي سأحمل عليها الفحص، سأسأل: كم الـ GPA |
|
|
|
74 |
|
00:04:35,490 --> 00:04:40,550 |
|
أكبر أو تساوي كذا، أذهب يمينًا، أقل أو false، أذهب يسارًا. |
|
|
|
75 |
|
00:04:40,550 --> 00:04:45,090 |
|
وهكذا. فهذه الـ internal node، التي هي عادة non-leaf، |
|
|
|
76 |
|
00:04:45,950 --> 00:04:49,790 |
|
تحدد الـ test تبع الـ attribute، الـ branch يمثل الـ |
|
|
|
77 |
|
00:04:49,790 --> 00:04:53,210 |
|
outcome، وصولًا للـ leaf الموجودة عندي، والـ leaf |
|
|
|
78 |
|
00:04:53,210 --> 00:04:58,070 |
|
node تمثّل الـ class، وطبعًا لازم كل شجرة يكون لها |
|
|
|
79 |
|
00:04:58,070 --> 00:05:03,690 |
|
root node. تعالوا نشوف الـ data set البسيطة التي |
|
|
|
80 |
|
00:05:03,690 --> 00:05:08,870 |
|
موجودة عندنا. هذه الـ data set مكوّنة من 14 row، الـ |
|
|
|
81 |
|
00:05:08,870 --> 00:05:12,490 |
|
Age والـ income والـ student والـ credit rating والـ |
|
|
|
82 |
|
00:05:12,490 --> 00:05:15,710 |
|
class تبعي. وطبعًا، أيها السادة، لما نحن نذهب |
|
|
|
83 |
|
00:05:15,710 --> 00:05:20,610 |
|
باتجاه الـ binary class، يعني two classes، الأمر الذي |
|
|
|
84 |
|
00:05:20,610 --> 00:05:23,690 |
|
أسهل، لأجل استيعاب ماذا يحدث، لأنه لما تصبح عندي |
|
|
|
85 |
|
00:05:23,690 --> 00:05:26,430 |
|
ثلاثة، ستتشعب الأمور قليلًا في الحساب، لكنّها |
|
|
|
86 |
|
00:05:26,430 --> 00:05:32,030 |
|
عبارة عن تكرار لما سبق. الآن أنا... عندي مجموعة |
|
|
|
87 |
|
00:05:32,030 --> 00:05:35,530 |
|
من الطلاب، أو بيانات مجموعة من الناس الذين اشتروا |
|
|
|
88 |
|
00:05:35,530 --> 00:05:39,190 |
|
حاسبات. والـ data set كانت قديمة، في الـ 2000، وكان |
|
|
|
89 |
|
00:05:39,190 --> 00:05:42,630 |
|
يسأل: هل هذا الشخص مؤهّل، أو ممكن، مع احتمال أن يشتري |
|
|
|
90 |
|
00:05:42,630 --> 00:05:47,430 |
|
جهازًا أم لا، بناءً على حالته. الـ age، لاحظوا الـ age، أنا |
|
|
|
91 |
|
00:05:47,430 --> 00:05:52,190 |
|
أتكلم على discrete أو categorial data. الـ income، |
|
|
|
92 |
|
00:05:52,190 --> 00:05:56,210 |
|
high و low و medium. طالب أم غير طالب، yes أو no. والـ |
|
|
|
93 |
|
00:05:56,210 --> 00:06:00,750 |
|
credit rating، عادي أو معتدل أو excellent. |
|
|
|
94 |
|
00:06:00,750 --> 00:06:03,830 |
|
بالنسبة للمتوسط الراتب تبعه، وفي الآخر الـ class |
|
|
|
95 |
|
00:06:03,830 --> 00:06:07,330 |
|
الموجودة عندهم. الآن، لما أنا بدي أبني tree، الـ |
|
|
|
96 |
|
00:06:07,330 --> 00:06:11,730 |
|
tree ستأخذ بالشكل هذا. دعونا، لأجل أن نأخذ على |
|
|
|
97 |
|
00:06:11,730 --> 00:06:16,110 |
|
السريع، نأخذ الـ role أولًا، لأجل أن نتذكر، ونشوف كيف بدي |
|
|
|
98 |
|
00:06:16,110 --> 00:06:19,350 |
|
أتناول الـ tree، أو كيف تعمل كـ classifier. yes، |
|
|
|
99 |
|
00:06:19,350 --> 00:06:24,090 |
|
high، no، fair. |
|
|
|
100 |
|
00:06:26,540 --> 00:06:32,680 |
|
الـ target تبعي؟ لا، هذا أول row. بس أنا، لأجل أن أغيّر، |
|
|
|
101 |
|
00:06:32,680 --> 00:06:36,700 |
|
بدي أحط هنا yes، لأجل أن تصبح هذه الـ data أشبه بالـ |
|
|
|
102 |
|
00:06:36,700 --> 00:06:41,660 |
|
unseen، وأشوف بالـ classification تبعها كيف بدها |
|
|
|
103 |
|
00:06:41,660 --> 00:06:47,620 |
|
تكون. الآن، زي ما قلنا، لدينا الـ age، الـ income، |
|
|
|
104 |
|
00:06:47,620 --> 00:06:50,860 |
|
student، |
|
|
|
105 |
|
00:06:50,860 --> 00:06:54,920 |
|
وفي الآخر التي هي الـ credit |
|
|
|
106 |
|
00:07:02,220 --> 00:07:06,100 |
|
rate. حاجة على decision tree. الـ decision tree أو الـ |
|
|
|
107 |
|
00:07:06,100 --> 00:07:09,400 |
|
model، لما تم بناؤه، جاء يقول: أهم element في |
|
|
|
108 |
|
00:07:09,400 --> 00:07:13,660 |
|
القرار عندي، الـ age. وسنتعرّف كمان لحظات، إن شاء الله |
|
|
|
109 |
|
00:07:13,660 --> 00:07:17,240 |
|
تعالى، كيف نحن اخترنا الـ age. لماذا لم تكن |
|
|
|
110 |
|
00:07:17,240 --> 00:07:20,060 |
|
student، أو لـ credit rating، التي هي الـ attributes |
|
|
|
111 |
|
00:07:20,060 --> 00:07:23,260 |
|
الأخرى؟ ولاحظوا أنّ عندي، بالكامل، عندي |
|
|
|
112 |
|
00:07:23,260 --> 00:07:27,950 |
|
attribute غائب، وهو موضوع الـ income في الـ |
|
|
|
113 |
|
00:07:27,950 --> 00:07:30,530 |
|
decision tree الموجودة عندي. يعني هو كأنه يقول |
|
|
|
114 |
|
00:07:30,530 --> 00:07:35,270 |
|
الـ income هنا ليس له تأثير كثير على الـ decision |
|
|
|
115 |
|
00:07:35,270 --> 00:07:39,010 |
|
أو على القرار الموجود عندي. طيب، كيف هذا الكلام |
|
|
|
116 |
|
00:07:39,010 --> 00:07:44,590 |
|
صار؟ سنراه قليلًا، لماذا؟ في دلالة أخرى هنا، يأتي |
|
|
|
117 |
|
00:07:44,590 --> 00:07:47,350 |
|
يقول إنّ الـ income الأقل تأثيرًا، أو ليس له تأثير، يعني |
|
|
|
118 |
|
00:07:47,350 --> 00:07:50,130 |
|
بإمكاني أن أشيله، أو أستغني عنه. بجمع البيانات الأخرى |
|
|
|
119 |
|
00:07:50,130 --> 00:07:55,510 |
|
ستكون أسهل. الآن، الـ age: youth, middle age، و senior. |
|
|
|
120 |
|
00:07:55,510 --> 00:07:59,210 |
|
في عندي تفرعات أخرى؟ لا، هؤلاء الـ three discrete |
|
|
|
121 |
|
00:07:59,210 --> 00:08:02,850 |
|
values الموجودة عندي بالـ age، تمام؟ حسب الـ rule |
|
|
|
122 |
|
00:08:02,850 --> 00:08:09,970 |
|
عندنا هنا، هي الـ age. إذا أنا سألته age، يعني خلاص كل |
|
|
|
123 |
|
00:08:09,970 --> 00:08:14,010 |
|
branch السابق هذه ليس لي دخل بها. إذا كان هو |
|
|
|
124 |
|
00:08:14,010 --> 00:08:19,770 |
|
student، غالبًا سيشتري، ولن أبحث عن المزيد، لن |
|
|
|
125 |
|
00:08:19,770 --> 00:08:22,210 |
|
تحتاجني. تعالوا، طلع معي هنا. |
|
|
|
126 |
|
00:08:26,000 --> 00:08:28,800 |
|
وهذا الطالب سيكون يشتري كمبيوتر، لماذا؟ لأنّ إذا |
|
|
|
127 |
|
00:08:28,800 --> 00:08:31,800 |
|
كان هو في الـ middle age، أو في الـ youth، صغير أو شاب |
|
|
|
128 |
|
00:08:31,800 --> 00:08:35,300 |
|
يافع وطالب في نفس الوقت، يعني طالب جامعة، فغالبًا |
|
|
|
129 |
|
00:08:35,300 --> 00:08:38,820 |
|
هذا سيحتاج كمبيوتر، ومن ثم سيذهب ليشتريه. لو أنا بدي |
|
|
|
130 |
|
00:08:38,820 --> 00:08:42,000 |
|
أعود إلى الـ data set الموجودة عندي هنا، youth و |
|
|
|
131 |
|
00:08:42,000 --> 00:08:49,200 |
|
student و fair، yes. youth، student، و fair، |
|
|
|
132 |
|
00:08:51,960 --> 00:08:54,880 |
|
لأجل أن تلاحظوا أنّ هذين هما اللذان كانا أكثر |
|
|
|
133 |
|
00:08:54,880 --> 00:09:00,340 |
|
تأثيرًا في حالة الـ elements الموجودة. وهكذا، لو |
|
|
|
134 |
|
00:09:00,340 --> 00:09:05,040 |
|
كان still age في الـ middle age، مباشرة سيكون يشتري |
|
|
|
135 |
|
00:09:05,040 --> 00:09:08,040 |
|
الـ attribute، لو كان senior، |
|
|
|
136 |
|
00:09:10,850 --> 00:09:14,250 |
|
والـ income rate الذي عنده fair، غالبًا لن يشتريه. |
|
|
|
137 |
|
00:09:14,250 --> 00:09:17,210 |
|
وهكذا تصبح موضوع الـ decision أو موضوع الـ |
|
|
|
138 |
|
00:09:17,210 --> 00:09:19,950 |
|
classification. يعني الـ leaves التي عندي في الـ node |
|
|
|
139 |
|
00:09:19,950 --> 00:09:23,850 |
|
أو عفواً في الـ... في الـ trees، الـ leaf nodes تمثّل |
|
|
|
140 |
|
00:09:23,850 --> 00:09:27,930 |
|
الـ classes التي أنا أبحث عنها. وطبعًا عمق |
|
|
|
141 |
|
00:09:27,930 --> 00:09:33,210 |
|
الشجرة وحجمها مرتبط بعدد الـ attributes وحجم الـ |
|
|
|
142 |
|
00:09:33,210 --> 00:09:35,970 |
|
data set الموجودة عندي. |
|
|
|
143 |
|
00:09:38,250 --> 00:09:42,710 |
|
الآن، الـ algorithm المستخدم مع الـ decision tree، |
|
|
|
144 |
|
00:09:42,710 --> 00:09:50,490 |
|
وهو الـ basic algorithm، نسميه C4.5. وهذا يعمل |
|
|
|
145 |
|
00:09:50,490 --> 00:09:54,150 |
|
في مبدأ الـ top-down recursive divide and conquer. |
|
|
|
146 |
|
00:09:54,150 --> 00:09:58,730 |
|
الآن، الناس الذين أخذوا خوارزميات، حتمًا مرّ عليهم مصطلح |
|
|
|
147 |
|
00:09:58,730 --> 00:10:03,170 |
|
divide and conquer. الفكرة في الـ algorithm هذا، أنّ |
|
|
|
148 |
|
00:10:03,170 --> 00:10:07,810 |
|
المشكلة الكبيرة نجزّئها، ونستطيع السيطرة عليها. يعني |
|
|
|
149 |
|
00:10:07,810 --> 00:10:11,630 |
|
بنجزئها، نحل جزء جزء من الـ data set الموجودة عندك |
|
|
|
150 |
|
00:10:11,630 --> 00:10:14,890 |
|
هنا، وسنرى قليلًا. وهذا المبدأ هو مبدأ الـ |
|
|
|
151 |
|
00:10:14,890 --> 00:10:17,870 |
|
greedy، طبعًا. ومن ثم الـ algorithm هذا أخذ الـ greedy |
|
|
|
152 |
|
00:10:17,870 --> 00:10:21,450 |
|
algorithm. ماذا يعني greedy؟ يعني الطماع. فكرته، بكل |
|
|
|
153 |
|
00:10:21,450 --> 00:10:24,710 |
|
بساطة، أنني أنظر إلى best solution في الـ current |
|
|
|
154 |
|
00:10:24,710 --> 00:10:29,210 |
|
stage، لا أهتم على المدى البعيد، ماذا سيحدث عندي؟ |
|
|
|
155 |
|
00:10:30,520 --> 00:10:33,720 |
|
سأبدأ مع كل examples، سآخذ مع الـ data الـ attributes |
|
|
|
156 |
|
00:10:33,720 --> 00:10:38,280 |
|
لكل الـ data set، وأذهب لأجل أن أوجد، أو أجد من |
|
|
|
157 |
|
00:10:38,280 --> 00:10:45,240 |
|
خلالها الـ root. الآن، كل الـ data set التي عندي هنا |
|
|
|
158 |
|
00:10:45,240 --> 00:10:52,780 |
|
must be categorical. الآن في الـ C4.5، كل الـ |
|
|
|
159 |
|
00:10:52,780 --> 00:10:56,500 |
|
attribute لازم تكون categorical. طيب، أنا ما عنديش، أنا |
|
|
|
160 |
|
00:10:56,500 --> 00:11:01,750 |
|
عندي continuous value، سأقوم بعمل discretization، ولكل |
|
|
|
161 |
|
00:11:01,750 --> 00:11:06,030 |
|
بإمكاني أن أُعطيها label، وأعتمد، أشتغل على الـ label الموجودة |
|
|
|
162 |
|
00:11:06,030 --> 00:11:09,810 |
|
عندك هنا. يعني لما تأتي مثلاً الـ age، نقول والله |
|
|
|
163 |
|
00:11:09,810 --> 00:11:19,390 |
|
youth من 16 مثلاً إلى 22، youth. الـ |
|
|
|
164 |
|
00:11:19,390 --> 00:11:24,870 |
|
age، أقول مثلاً من 23 إلى 35، senior. |
|
|
|
165 |
|
00:11:26,900 --> 00:11:30,060 |
|
وبالتالي أنا أقدر أشتغل... بما أنّ الـ algorithm يريد |
|
|
|
166 |
|
00:11:30,060 --> 00:11:33,260 |
|
مني discrete أو nominal data، فأقدر أعمل |
|
|
|
167 |
|
00:11:33,260 --> 00:11:37,140 |
|
discretization، أعمل binning، وبعد ذلك أذهب، أضع |
|
|
|
168 |
|
00:11:37,140 --> 00:11:43,280 |
|
label لكل bin أو لكل interval في الـ continuous |
|
|
|
169 |
|
00:11:43,280 --> 00:11:47,000 |
|
attribute الموجودة عندهم. وعلى الرغم من ذلك، سأتكلم |
|
|
|
170 |
|
00:11:47,000 --> 00:11:51,160 |
|
كذلك قليلًا، بشكل بسيط، في موضوع، فعليًا كيف أمكنني |
|
|
|
171 |
|
00:11:51,160 --> 00:11:54,620 |
|
أفحص لو كان عندي continuous. في algorithms مختلفة. |
|
|
|
172 |
|
00:11:54,620 --> 00:11:55,680 |
|
طيب. |
|
|
|
173 |
|
00:11:58,590 --> 00:12:03,350 |
|
ممتاز. معناته أنا فعليًا سآخذ الـ data set، وأبدأ أمرر |
|
|
|
174 |
|
00:12:03,350 --> 00:12:08,530 |
|
على كل attribute وعلى كل الـ rows، وأُجزّئ العناصر |
|
|
|
175 |
|
00:12:0 |
|
|
|
223 |
|
00:15:57,930 --> 00:16:01,530 |
|
student فكانت هي الـ student الـ student هدفي yes و |
|
|
|
224 |
|
00:16:01,530 --> 00:16:06,370 |
|
no بناء عليه، الـ data set بتنجي سيملة two data sets |
|
|
|
225 |
|
00:16:06,370 --> 00:16:10,450 |
|
كمان مرة واحدة مع الـ yes و واحدة مع الـ no، و بنقل |
|
|
|
226 |
|
00:16:10,450 --> 00:16:14,510 |
|
طبعا بما أنه أنا student yes و no بروح بدور صارت |
|
|
|
227 |
|
00:16:14,510 --> 00:16:17,450 |
|
هدولة بينتموا لدولة class و هدولة كل partition بينتموا لـ |
|
|
|
228 |
|
00:16:17,450 --> 00:16:22,100 |
|
الـ class معناته أنا وجفت، طيب فحصت الـ .. عفوا، فحصت |
|
|
|
229 |
|
00:16:22,100 --> 00:16:26,320 |
|
الـ age و فحصت الـ student و فحصت الـ income و في |
|
|
|
230 |
|
00:16:26,320 --> 00:16:28,940 |
|
الآخر، لاجيت أن أنا فعليا ما فيش عندي attributes |
|
|
|
231 |
|
00:16:28,940 --> 00:16:32,200 |
|
فخلصنا، فهذه الـ condition أو stopping conditions |
|
|
|
232 |
|
00:16:32,200 --> 00:16:35,900 |
|
اللي أنا ممكن أوقف عليها طالما الـ data ستة بقت |
|
|
|
233 |
|
00:16:35,900 --> 00:16:40,840 |
|
كبيرة و فيها شغل، الـ decision tree بياخد مني وقت طويل في |
|
|
|
234 |
|
00:16:40,840 --> 00:16:44,820 |
|
موضوع القرار اللي موجود هنا، كمان مرة بلخص بشكل |
|
|
|
235 |
|
00:16:44,820 --> 00:16:50,430 |
|
سريع، متى أنا ممكن أوقف، أظل أبحث، مين اللي بيحدد الـ |
|
|
|
236 |
|
00:16:50,430 --> 00:16:53,630 |
|
depth تبعت letter E، الـ depth تبعت letter E تحدد |
|
|
|
237 |
|
00:16:53,630 --> 00:16:56,810 |
|
تبع الـ dimensionality تبع الـ data set، عدد الـ |
|
|
|
238 |
|
00:16:56,810 --> 00:17:01,550 |
|
attributes و عدد الـ rows، الآن متى بدي أوقف؟ لما |
|
|
|
239 |
|
00:17:01,550 --> 00:17:04,890 |
|
تكون كل الـ sample في الـ given node تنتمي لنفس الـ |
|
|
|
240 |
|
00:17:04,890 --> 00:17:07,950 |
|
class، يعني لما أنا اخترت الـ attribute و روحت أعمل |
|
|
|
241 |
|
00:17:07,950 --> 00:17:11,970 |
|
split، لاجيت واحدة من الـ partitions اللي موجودة |
|
|
|
242 |
|
00:17:11,970 --> 00:17:13,970 |
|
بتنتمي لنفس الـ class، خلاص، هاد ابني، ما فيش فيها شغل |
|
|
|
243 |
|
00:17:13,970 --> 00:17:16,870 |
|
لإن هاد الـ decision تبعتها مباشرة، لإنها بتنتمي |
|
|
|
244 |
|
00:17:16,870 --> 00:17:20,850 |
|
لنفس الـ class، معناته خلاص وصلت لـ leave node، الـ |
|
|
|
245 |
|
00:17:20,850 --> 00:17:29,750 |
|
leave node تبعتي، الـ leave node، الـ leave، لما الخيار |
|
|
|
246 |
|
00:17:29,750 --> 00:17:32,690 |
|
التاني، أنه لما بكون فعليا أنا عملت splitting للـ |
|
|
|
247 |
|
00:17:32,690 --> 00:17:35,250 |
|
data set على كل الـ attributes و خلصت الـ attributes |
|
|
|
248 |
|
00:17:35,250 --> 00:17:40,030 |
|
تبعتي، برضه ما عنديش شغل، و there is no sample left |
|
|
|
249 |
|
00:17:40,030 --> 00:17:43,610 |
|
ما بقاش عندي ولا حاجة في الـ data set عشان أجسمها |
|
|
|
250 |
|
00:17:43,610 --> 00:17:47,510 |
|
على مستوى الرأس، تعالوا نروح مع بعض من خلال نشوف الـ |
|
|
|
251 |
|
00:17:47,510 --> 00:17:52,910 |
|
information gain و هي الأكثر و الأشهر استخداما، و |
|
|
|
252 |
|
00:17:52,910 --> 00:17:55,830 |
|
الـ Gain Index، هنتكلم على الـ information gain بكل |
|
|
|
253 |
|
00:17:55,830 --> 00:17:59,970 |
|
بساطة، الـ information gain بتعتمد على الـ |
|
|
|
254 |
|
00:17:59,970 --> 00:18:02,830 |
|
probability، مش إحنا قلنا قبل شوية موضوع الـ |
|
|
|
255 |
|
00:18:02,830 --> 00:18:06,970 |
|
splitting أو الفصل في الـ attributes بيعتمد اعتمادا |
|
|
|
256 |
|
00:18:06,970 --> 00:18:12,250 |
|
كله على فعليا العناصر اللي موجودة، على احتمال |
|
|
|
257 |
|
00:18:12,250 --> 00:18:15,930 |
|
يقول لنا إما heuristic rules أو statistical |
|
|
|
258 |
|
00:18:15,930 --> 00:18:19,650 |
|
measurement، لما بتكلم على probability معناته أنا |
|
|
|
259 |
|
00:18:19,650 --> 00:18:22,950 |
|
جاي بتكلم على احتمالات، الـ statistics إلى آخره |
|
|
|
260 |
|
00:18:23,780 --> 00:18:27,160 |
|
بقول، افترض أن الـ P I هي عبارة عن الـ probability |
|
|
|
261 |
|
00:18:27,160 --> 00:18:34,780 |
|
of an arbitrary tuple في الـ data الـ 6 تبعتي |
|
|
|
262 |
|
00:18:34,780 --> 00:18:36,740 |
|
تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي |
|
|
|
263 |
|
00:18:36,740 --> 00:18:36,820 |
|
تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي |
|
|
|
264 |
|
00:18:36,820 --> 00:18:37,520 |
|
تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي |
|
|
|
265 |
|
00:18:37,520 --> 00:18:40,280 |
|
تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي |
|
|
|
266 |
|
00:18:40,280 --> 00:18:49,560 |
|
تبعتي تبعتي تبعتي تبعتي تبعتي تبعتي تبع |
|
|
|
267 |
|
00:18:51,740 --> 00:18:55,960 |
|
الـ Probability للـ CD، الـ CI على الـ D، على كل |
|
|
|
268 |
|
00:18:55,960 --> 00:18:59,300 |
|
Probability تبع الـ data set اللي موجودة، بكل بساطة |
|
|
|
269 |
|
00:18:59,300 --> 00:19:04,400 |
|
أنا في عندي تلت عمليات حسابية هعملها عشان آخد الـ |
|
|
|
270 |
|
00:19:04,400 --> 00:19:07,560 |
|
decision و أحدد من الـ test node اللي موجود عندي |
|
|
|
271 |
|
00:19:07,560 --> 00:19:11,540 |
|
الأولى، هسميها الـ expected information أو الـ |
|
|
|
272 |
|
00:19:11,540 --> 00:19:19,260 |
|
entropy، وهي لكل الـ data set اللي موجودة عندي هنا |
|
|
|
273 |
|
00:19:19,260 --> 00:19:27,600 |
|
شو يعني؟ الآن مطلوب مني أن أحسب الـ information أو |
|
|
|
274 |
|
00:19:27,600 --> 00:19:31,140 |
|
الـ entropy للـ classes اللي موجودة في الـ data set |
|
|
|
275 |
|
00:19:31,140 --> 00:19:34,700 |
|
لكل الـ data set، وهنا بنجو سين، وكأني بده يقول لي |
|
|
|
276 |
|
00:19:34,700 --> 00:19:40,940 |
|
احسب احتمالية، أو احسب الـ probability لكل class في |
|
|
|
277 |
|
00:19:40,940 --> 00:19:43,880 |
|
الـ data set، عدد مرات ظهور الـ class في الـ data set |
|
|
|
278 |
|
00:19:43,880 --> 00:19:46,840 |
|
اللي موجودة عندي هنا، وبعد هيك بروح أطبق عليهم |
|
|
|
279 |
|
00:19:46,840 --> 00:19:51,840 |
|
العملية، يعني أنا لو كنت على سبيل المثال، الـ data 6 |
|
|
|
280 |
|
00:19:51,840 --> 00:19:57,580 |
|
تبعتي فيها عشر elements، أربعة منهم yes وستة منهم no |
|
|
|
281 |
|
00:19:57,580 --> 00:20:01,040 |
|
أنا |
|
|
|
282 |
|
00:20:01,040 --> 00:20:04,100 |
|
في عيني بتكلم على binary classification yes or no |
|
|
|
283 |
|
00:20:04,100 --> 00:20:10,200 |
|
أربعة yes وستة no، الـ information gained للـ data 6 |
|
|
|
284 |
|
00:20:10,200 --> 00:20:16,720 |
|
تبعتي كلها هي عبارة عن مجموع ناقص |
|
|
|
285 |
|
00:20:16,720 --> 00:20:20,600 |
|
مضروبة فيه الـ probability تبعت الـ data الأولى |
|
|
|
286 |
|
00:20:22,150 --> 00:20:28,310 |
|
احتمال الـ class الأول 4 على 10 مضروبة في log الـ 4 |
|
|
|
287 |
|
00:20:28,310 --> 00:20:33,210 |
|
على 10 للأساس 2، زائد |
|
|
|
288 |
|
00:20:34,590 --> 00:20:40,310 |
|
6 على 10 مضروبة في الـ logarithm 6 على 10، الـ |
|
|
|
289 |
|
00:20:40,310 --> 00:20:44,350 |
|
logarithm، الـ binary logarithm، وهكذا، ليش القيمة |
|
|
|
290 |
|
00:20:44,350 --> 00:20:48,030 |
|
هتداني إشارة سالبة؟ لأن الـ logarithm تبعت الـ binary |
|
|
|
291 |
|
00:20:48,030 --> 00:20:52,690 |
|
بتاعة الكسل هتطلع عندي سالب، وإذا بتذكروا، في عندي |
|
|
|
292 |
|
00:20:52,690 --> 00:21:01,740 |
|
log الـ X على الـ Y تساوي log X ناقص log Y، وبما أن الـ |
|
|
|
293 |
|
00:21:01,740 --> 00:21:05,200 |
|
Y عندي أكبر من الـ X فستكون القيمة اللي عندي سالبة |
|
|
|
294 |
|
00:21:05,200 --> 00:21:07,880 |
|
عشان أنا أخلص منها، أخلص منها، فكانت القيمة اللي |
|
|
|
295 |
|
00:21:07,880 --> 00:21:12,360 |
|
عندي هنا هتطلع قيم موجبة، واضح الأمور إن شاء الله |
|
|
|
296 |
|
00:21:12,360 --> 00:21:18,090 |
|
يا جماعة الخير، الآن يعني أول شغلة فعليا أنا هسويها |
|
|
|
297 |
|
00:21:18,090 --> 00:21:21,350 |
|
هروح أحسب الـ probability لكل class أو بين جثين |
|
|
|
298 |
|
00:21:21,350 --> 00:21:27,670 |
|
هحسب الـ entropy، هي عبارة عن حاصل .. عبارة عن مجموع |
|
|
|
299 |
|
00:21:27,670 --> 00:21:33,310 |
|
حاصل ضرب الـ probability لكل class في الـ logarithm |
|
|
|
300 |
|
00:21:33,310 --> 00:21:38,830 |
|
أو الـ binary log لـ الـ probability لـ الـ class اللي |
|
|
|
301 |
|
00:21:38,830 --> 00:21:41,930 |
|
موجود عندي، و زي ما بقوله بالـ .. بالـ .. بالـ .. |
|
|
|
302 |
|
00:21:42,360 --> 00:21:45,340 |
|
بالمثال يتضح، كمان شوية هنتقل للمثال |
|
|
|
303 |
|
00:21:45,340 --> 00:21:50,740 |
|
بالتفصيل إن شاء الله تعالى، الخطوة اللي بعد هيك بدي |
|
|
|
304 |
|
00:21:50,740 --> 00:21:58,260 |
|
أروح لكل attribute A، أحاول فعليا أجسم الـ data set |
|
|
|
305 |
|
00:21:58,260 --> 00:22:02,040 |
|
لمجموعة من الـ partitions، جداش عدد الـ V هذه، أو جداش |
|
|
|
306 |
|
00:22:02,040 --> 00:22:07,420 |
|
عدد الـ partitions، بعدد الـ distinct values اللي |
|
|
|
307 |
|
00:22:07,420 --> 00:22:12,630 |
|
موجودة عندي في الـ attribute، يعني الـ age كان في |
|
|
|
308 |
|
00:22:12,630 --> 00:22:19,910 |
|
عندي تلاتة، three values، يث و middle age و |
|
|
|
309 |
|
00:22:19,910 --> 00:22:23,570 |
|
senior، ففعليا الـ attribute الـ age هي |
|
|
|
310 |
|
00:22:26,960 --> 00:22:30,380 |
|
الـ Attribute الـ Age، يث و Middle Age و senior |
|
|
|
311 |
|
00:22:30,380 --> 00:22:33,860 |
|
هي الـ three distinct values، ففعليا بناء على الـ |
|
|
|
312 |
|
00:22:33,860 --> 00:22:38,600 |
|
attribute هذا، هجسم الـ data set تبعتي كلها لـ three |
|
|
|
313 |
|
00:22:38,600 --> 00:22:43,860 |
|
.. لـ three subsets، لـ three partitions، مع كل واحدة |
|
|
|
314 |
|
00:22:43,860 --> 00:22:46,600 |
|
من الـ values اللي موجودة عندي هنا، عشان أنا فعليا |
|
|
|
315 |
|
00:22:46,600 --> 00:22:52,190 |
|
أروح أحسب الـ information للـ attribute اللي موجودة |
|
|
|
316 |
|
00:22:52,190 --> 00:22:56,050 |
|
عندها، إيش الـ information للـ attribute؟ الـ |
|
|
|
317 |
|
00:22:56,050 --> 00:23:01,870 |
|
information للـ attribute يساوي الـ summation، احتمال |
|
|
|
318 |
|
00:23:01,870 --> 00:23:04,870 |
|
الـ element اللي عندي، أو الـ class اللي موجودة عندي |
|
|
|
319 |
|
00:23:04,870 --> 00:23:08,310 |
|
هنا للـ attribute، فيه الـ information تبعت الـ subset |
|
|
|
320 |
|
00:23:08,310 --> 00:23:12,390 |
|
اللي موجودة، يعني بين جسيم الـ subset الجديدة، أنا |
|
|
|
321 |
|
00:23:12,390 --> 00:23:16,770 |
|
هشتغل عليها، و أحسبها، الـ intro b السابقة، بعد ما |
|
|
|
322 |
|
00:23:16,770 --> 00:23:23,570 |
|
أحسب الـ information للـ attribute، الـ gain، الانحياز |
|
|
|
323 |
|
00:23:25,400 --> 00:23:28,740 |
|
لـ الـ element اللي موجود عندي هنا، أو التحصيل اللي |
|
|
|
324 |
|
00:23:28,740 --> 00:23:33,400 |
|
ممكن نسميه التحصيل الـ a، هي عبارة عن الـ |
|
|
|
325 |
|
00:23:33,400 --> 00:23:38,760 |
|
information للـ D الأولى، ناقص الـ information أو الـ |
|
|
|
326 |
|
00:23:38,760 --> 00:23:41,640 |
|
entropy تبعت الـ attribute اللي عندي، الـ entropy |
|
|
|
327 |
|
00:23:41,640 --> 00:23:47,180 |
|
تبعت الـ attribute اللي عندي، يعني أنا فعليا هاخد |
|
|
|
328 |
|
00:23:47,180 --> 00:23:53,540 |
|
هاي و هايهطرحهم من بعض، بس ما تنسوش أن فعليا هذه |
|
|
|
329 |
|
00:23:53,540 --> 00:23:59,580 |
|
هي نفسها اللي فوق، بس على different subset أو على |
|
|
|
330 |
|
00:23:59,580 --> 00:24:03,680 |
|
different data set أو بين جسين، على subset set تبعا |
|
|
|
331 |
|
00:24:03,680 --> 00:24:07,320 |
|
للـ values اللي جسمتها، للـ partition اللي جسمتها ليها |
|
|
|
332 |
|
00:24:07,320 --> 00:24:11,480 |
|
الـ attribute اللي عندنا، تعالوا نروح هنا و نشوف |
|
|
|
333 |
|
00:24:11,480 --> 00:24:17,140 |
|
المثال اللي موجود عندنا، قلنا في الخطوة رقم واحد، في |
|
|
|
334 |
|
00:24:17,140 --> 00:24:21,600 |
|
الخطوة رقم واحد، قلنا أنا اتفقنا أن أنا فعليا هروح |
|
|
|
335 |
|
00:24:21,600 --> 00:24:24,800 |
|
أحسب الـ information gain أو الـ entropy لكل الـ data |
|
|
|
336 |
|
00:24:24,800 --> 00:24:29,260 |
|
set، ممتاز، عشان أحسب الـ entropy لكل الـ data set |
|
|
|
337 |
|
00:24:29,260 --> 00:24:33,540 |
|
بنذكر، قلنا هو عبارة عن الـ summation، سالب واحد في |
|
|
|
338 |
|
00:24:33,540 --> 00:24:40,160 |
|
الـ summation في probability للـ I في log لـ الـ P I |
|
|
|
339 |
|
00:24:40,160 --> 00:24:43,960 |
|
الـ probability للـ I، وإيش قلنا؟ هاي الـ class، والـ I |
|
|
|
340 |
|
00:24:43,960 --> 00:24:46,920 |
|
بيتساوى من واحد لعدد الـ classes اللي موجودة |
|
|
|
341 |
|
00:24:46,920 --> 00:24:51,360 |
|
حسب الـ data set اللي موجودة عندها، حسب الـ data set |
|
|
|
342 |
|
00:24:51,360 --> 00:24:53,900 |
|
اللي موجودة عندها، أنا في عندي two different |
|
|
|
343 |
|
00:24:53,900 --> 00:24:58,680 |
|
classes، only two different classes only، اللي هم |
|
|
|
344 |
|
00:24:58,680 --> 00:25:05,940 |
|
yes و no، حجم الـ data set كله جداش يا جماعة الخير؟ 14 |
|
|
|
345 |
|
00:25:05,940 --> 00:25:11,280 |
|
عدد الـ yes 9، معناته الـ probability تبعتها 9 على 14 |
|
|
|
346 |
|
00:25:13,570 --> 00:25:18,130 |
|
الـ Probability للـ Yes 9 على 14، طب عدد الـ No |
|
|
|
347 |
|
00:25:18,130 --> 00:25:24,810 |
|
بجيتها 5، 5 على 14، هي الاحتمالية تبعتها 5 على 14 |
|
|
|
348 |
|
00:25:24,810 --> 00:25:31,190 |
|
وبالهيك أنا حصلت على أول خطوة، اللي هي عرفت الـ |
|
|
|
349 |
|
00:25:31,190 --> 00:25:34,790 |
|
probability تبعت لـ classes اللي موجودة عندي، اللي |
|
|
|
350 |
|
00:25:34,790 --> 00:25:37,570 |
|
هي الـ probability للـ yes و الـ probability للـ no |
|
|
|
351 |
|
00:25:37,570 --> 00:25:40,030 |
|
الخطوة التالية اللي المفروض أن أنا أشتغل عليها |
|
|
|
352 |
|
00:25:40,030 --> 00:25:43,410 |
|
الآن، أن أنا بدي أروح أحسب الـ information أو الـ |
|
|
|
353 |
|
00:25:43,410 --> 00:25:48,210 |
|
entropy تبعتي، بالمعادلة التالية، الـ information |
|
|
|
354 |
|
00:25:48,210 --> 00:25:57,610 |
|
هنرمزلها للـ I للـ data set تبعتي، تساوي تساوي |
|
|
|
355 |
|
00:25:59,800 --> 00:26:04,940 |
|
I، تسعة وكما خمسة، تسعة وخمسة، هدول هم الأربعة عشر |
|
|
|
356 |
|
00:26:04,940 --> 00:26:07,660 |
|
تبعوتي يا جماعة الخير، الآن، هي القانون تبع الـ |
|
|
|
357 |
|
00:26:07,660 --> 00:26:12,580 |
|
information، هيه بيلزمني فيها أن أعرف الـ |
|
|
|
358 |
|
00:26:12,580 --> 00:26:16,020 |
|
probability للـ yes و الـ probability للـ no، وهذا |
|
|
|
359 |
|
00:26:16,020 --> 00:26:24,260 |
|
الكلام يساوي، ما قص مضروبة فيه كام class؟ and two |
|
|
|
360 |
|
00:26:24,260 --> 00:26:27,790 |
|
class، هيهم هدول، لو كانوا تلاتة هيكونوا تلاتة، لو |
|
|
|
361 |
|
00:26:27,790 --> 00:26:32,130 |
|
أربعة هيكونوا أربعة، إلى آخره، مع كل واحدة فيهم، الآن |
|
|
|
362 |
|
00:26:32,130 --> 00:26:36,270 |
|
تسعة على أربعة عشر، هي تبعت الـ class الأول اللي |
|
|
|
363 |
|
00:26:36,270 --> 00:26:42,030 |
|
بين جثين، إحنا قلنا الـ yes مضروبة في الـ binary |
|
|
|
364 |
|
00:26:42,030 --> 00:26:48,970 |
|
logarithm للتسعة على أربعة عشر، مجموعة لهم مجموعة |
|
|
|
365 |
|
00:26:48,970 --> 00:26:54,010 |
|
الخمسة تبعتها، الخمسة تبعت الـ no، خمسة على أربعة عشر |
|
|
|
366 |
|
00:26:54,010 --> 00:27:01,670 |
|
مضروبة في الـ logarithm، الـ binary logarithm، الخمسة |
|
|
|
367 |
|
00:27:01,670 --> 00:27:07,950 |
|
على أربعة عشر، هذا الـ gain تبعت كل الـ data set |
|
|
|
368 |
|
00:27:07,950 --> 00:27:11,230 |
|
توزيعت الـ data set عندي على two classes، تذكر كمان |
|
|
|
369 |
|
00:27:11,230 --> 00:27:17,750 |
|
مرة واحدة، اتنين، تلاتة، أربعة، خمسة no، خمسة من أربعة |
|
|
|
370 |
|
00:27:17,750 --> 00:27:21,290 |
|
عشر، معناته عندي تسعة yes، والآن قولنا، هي قانونهم |
|
|
|
371 |
|
00:27:21,290 --> 00:27:25,670 |
|
قانون الـ information أو الـ gain، عفوا، الـ entropy للـ |
|
|
|
372 |
|
00:27:25,670 --> 00:27:30,730 |
|
data set هي عبارة عن سالب واحد مضروبة في مجموع لـ |
|
|
|
373 |
|
00:27:30,730 --> 00:27:35,410 |
|
probability لكل class مضروبة في الـ log لـ log لـ |
|
|
|
374 |
|
00:27:35,410 --> 00:27:38,650 |
|
probability لكل class، فأنا هنا حسبت المعادلة اللي |
|
|
|
375 |
|
00:27:38,650 --> 00:27:40,670 |
|
موجودة عندي، هتظهر من خلال |
|
|
|
376 |
|
00:27:43,770 --> 00:27:51,650 |
|
سلايد هنا، وهذه |
|
|
|
377 |
|
00:27:51,650 --> 00:27:59,370 |
|
قيمتها 0.94 أو أربعة وتسعين من مية، هذه |
|
|
|
378 |
|
00:27:59,370 --> 00:28:03,130 |
|
ثابتة هتكون لكل الـ data set، لكل training set اللي |
|
|
|
379 |
|
00:28:03,130 --> 00:28:06,830 |
|
أنا ببني عليها الـ model، ممتاز، أنا مشيت أول خطوة في |
|
|
|
380 |
|
00:28:06,830 --> 00:28:12,030 |
|
الحل، الخطوة التالية أن أنا فعليا بدي أروح، أي اتنين |
|
|
|
381 |
|
00:28:16,020 --> 00:28:22,480 |
|
أبدأ أحسب الـ information لكل attribute موجود في الـ |
|
|
|
382 |
|
00:28:22,480 --> 00:28:28,200 |
|
data set، لكل attribute؟ صحيح، فهأخد أحسب الـ intro |
|
|
|
383 |
|
00:28:28,200 --> 00:28:33,140 |
|
بالإن أو الـ information gain للـ age، وأحسب الـ |
|
|
|
384 |
|
00:28:33,140 --> 00:28:39,490 |
|
information Gain للـ income، للـ student، للـ credit |
|
|
|
385 |
|
00:28:39,490 --> 00:28:45,670 |
|
rating، وهكذا، خليني أنا أبدأ معاكم وأذكركم أن |
|
|
|
386 |
|
00:28:45,670 --> 00:28:48,670 |
|
أنا فعليا بحسب الـ information gain للـ attribute |
|
|
|
387 |
|
00:28:52,790 --> 00:28:56,270 |
|
تبع على الـ data set اللي موجودة عندها، لأن الـ |
|
|
|
388 |
|
00:28:56,270 --> 00:28:59,750 |
|
summation على عدد الـ partitions، الـ summation، الـ V |
|
|
|
389 |
|
00:28:59,750 --> 00:29:02,830 |
|
زي ما قلنا قبل شوية، هيها، اللي هي عدد الـ partitions |
|
|
|
390 |
|
00:29:02,830 --> 00:29:08,650 |
|
اللي عندها، number of partitions، حجم |
|
|
|
391 |
|
00:29:08,650 --> 00:29:12,850 |
|
الـ partition للـ data set، عدد عناصر الـ partition |
|
|
|
392 |
|
00:29:12,850 --> 00:29:16,290 |
|
على عدد عناصر الـ data set، ratio، احتمال ولا لأ؟ |
|
|
|
393 |
|
0 |
|
|
|
445 |
|
00:34:25,000 --> 00:34:30,520 |
|
لهاي وهد اللي المفروض تساوي ناقص مضروبة فيه ثلاثة |
|
|
|
446 |
|
00:34:30,520 --> 00:34:37,040 |
|
على خمسة في الـ log أيوة جداش في الـ binary log صحيح |
|
|
|
447 |
|
00:34:37,040 --> 00:34:43,800 |
|
ثلاثة على خمسة زائد اثنين على خمسة في الـ log اثنين على |
|
|
|
448 |
|
00:34:43,800 --> 00:34:49,600 |
|
خمسة هذه الـ intro بالأولى هذه جمعة الخير صفر ليش |
|
|
|
449 |
|
00:34:49,600 --> 00:34:59,080 |
|
ناقص أربعة على خمسة أربعة على خمسة أربعة على خمسة |
|
|
|
450 |
|
00:34:59,080 --> 00:35:07,160 |
|
أربعة على أربعة sorry أربعة على أربعة في الـ log الـ |
|
|
|
451 |
|
00:35:07,160 --> 00:35:13,210 |
|
binary للـ أربعة على أربعة اللي هي واحد صفر زائد صفر |
|
|
|
452 |
|
00:35:13,210 --> 00:35:21,090 |
|
على أربعة في الـ log صفر على أربعة ومن ثم القيمة هذه |
|
|
|
453 |
|
00:35:21,090 --> 00:35:24,430 |
|
هتروح عندي وهذه هي نفس اللي فوق بس مع تغيير الـ |
|
|
|
454 |
|
00:35:24,430 --> 00:35:30,110 |
|
terms اللي موجودة عندها بنفس الحسبة وبالتالي أنا |
|
|
|
455 |
|
00:35:30,110 --> 00:35:33,450 |
|
حسبتها في الجدول فطلعت معايا هيها |
|
|
|
456 |
|
00:35:39,160 --> 00:35:43,280 |
|
خلصت؟ لأ لسه مخلصش بقال علي خطوة واحدة عشان أعرف |
|
|
|
457 |
|
00:35:43,280 --> 00:35:51,340 |
|
أن الـ gain تبعت الـ age جداش بدي أروح أقوله الـ gain |
|
|
|
458 |
|
00:35:51,340 --> 00:35:56,140 |
|
تبعت الـ data set اللي كلها اللي هي جمع الـ i للتسعة |
|
|
|
459 |
|
00:35:56,140 --> 00:36:02,380 |
|
وخمسة حسبناها point تسعة أربعة صفر في الـ slide |
|
|
|
460 |
|
00:36:02,380 --> 00:36:03,020 |
|
السادق هي |
|
|
|
461 |
|
00:36:06,330 --> 00:36:10,670 |
|
لما حسبناها هنا لكل الـ data set الـ gain أو الـ |
|
|
|
462 |
|
00:36:10,670 --> 00:36:13,470 |
|
intro لكل الـ data set حسبت الآن الـ intro لـ الـ age |
|
|
|
463 |
|
00:36:13,470 --> 00:36:19,210 |
|
هيها الآن الخطوة اللي هشتغل عليها أنه بدي أجيب الـ |
|
|
|
464 |
|
00:36:19,210 --> 00:36:23,510 |
|
information gain لكل واحد فيهم طبعا المفروض أنا |
|
|
|
465 |
|
00:36:23,510 --> 00:36:27,350 |
|
ممكن أشتغل الخطوة هاي تباعا أجرّح أقوله مباشرة الآن |
|
|
|
466 |
|
00:36:27,350 --> 00:36:35,550 |
|
الـ information gain للـ age تساوي |
|
|
|
467 |
|
00:36:36,360 --> 00:36:40,700 |
|
أو الـ Gain للـ Age تساوي الـ Entropy لكل الـ data |
|
|
|
468 |
|
00:36:40,700 --> 00:36:46,120 |
|
set ناقص الـ Entropy تبع الـ Age الـ |
|
|
|
469 |
|
00:36:46,120 --> 00:36:53,940 |
|
Gain للـ Age تساوي الـ Entropy للـ data set 0.94 ناقص |
|
|
|
470 |
|
00:36:53,940 --> 00:37:02,900 |
|
الـ Entropy لـ الـ Age اللي موجود عندي 0.694 تساوي طبعا |
|
|
|
471 |
|
00:37:02,900 --> 00:37:06,620 |
|
ممكن تشتغل الخطوة التالية تشتغل مع الـ income بنفس |
|
|
|
472 |
|
00:37:06,620 --> 00:37:09,200 |
|
الـ concept الـ income في عندي برضه .. برضه هنا في |
|
|
|
473 |
|
00:37:09,200 --> 00:37:12,420 |
|
عندي three different values الـ income في عندي |
|
|
|
474 |
|
00:37:12,420 --> 00:37:16,340 |
|
three different values high و medium و low |
|
|
|
475 |
|
00:37:16,340 --> 00:37:19,840 |
|
توزيعتهم بنفس الكيفية وبحسب الـ entropy لـ الـ yes و |
|
|
|
476 |
|
00:37:19,840 --> 00:37:28,780 |
|
الـ no وهكذا هي حسبت الـ entropy لـ الـ ..Informat .. |
|
|
|
477 |
|
00:37:28,780 --> 00:37:32,880 |
|
للـ income الـ intro بي لـ الـ student الـ intro بي لـ |
|
|
|
478 |
|
00:37:32,880 --> 00:37:39,660 |
|
مين لـ الـ credit rating الآن خطوة تالية هروح أحسب |
|
|
|
479 |
|
00:37:39,660 --> 00:37:45,500 |
|
الـ information gain أو الـ gain تبعت الـ age و الـ |
|
|
|
480 |
|
00:37:45,500 --> 00:37:50,660 |
|
gain تبعت هنا في slides مفقودة المفروض أنا شكلي |
|
|
|
481 |
|
00:37:50,660 --> 00:37:54,420 |
|
نسيتها أو ما شابه لأ هي نفس الـ .. okay بس مش مفصلة |
|
|
|
482 |
|
00:37:54,420 --> 00:38:01,550 |
|
فحسبت الـ gain للـ age الـ gain للـ age هي |
|
|
|
483 |
|
00:38:01,550 --> 00:38:08,250 |
|
عبارة عن الـ entropy لكل الـ data 0.694 ناقص الـ |
|
|
|
484 |
|
00:38:08,250 --> 00:38:13,450 |
|
entropy تبعت الـ age اللي هي 0.694 من الألف وهيكون |
|
|
|
485 |
|
00:38:13,450 --> 00:38:19,370 |
|
الفرق بينهم 0.246 من الألف و روحت حسبت الـ income أو الـ |
|
|
|
486 |
|
00:38:19,370 --> 00:38:25,090 |
|
gain للـ income الـ gain للـ student و الـ gain للـ |
|
|
|
487 |
|
00:38:25,090 --> 00:38:29,630 |
|
credit rating لاحظ الـ credit rating أقل ما يمكن |
|
|
|
488 |
|
00:38:29,630 --> 00:38:36,270 |
|
أقل أصغر واحدة من العناصر الموجودة عندي أقل |
|
|
|
489 |
|
00:38:36,270 --> 00:38:40,830 |
|
واحدة مع الـ income مالهاش كان لهاش أقل تأثيرا |
|
|
|
490 |
|
00:38:42,420 --> 00:38:47,460 |
|
الفكرة أن أنا بدي أروح آخذ أو بدي أعمل split على |
|
|
|
491 |
|
00:38:47,460 --> 00:38:56,160 |
|
الـ maximum gain للـ attributes مين |
|
|
|
492 |
|
00:38:56,160 --> 00:39:05,760 |
|
الـ maximum؟ هي لأن 0.246 من 1000 أكبر من أكبر قيمة |
|
|
|
493 |
|
00:39:05,760 --> 00:39:09,680 |
|
موجودة فيهم اللي هي هنا مع الـ student وهذا بتعطيني |
|
|
|
494 |
|
00:39:09,680 --> 00:39:12,040 |
|
إشارة أن ممكن الـ student تكون هي الـ next element |
|
|
|
495 |
|
00:39:12,040 --> 00:39:14,920 |
|
اللي أنحمل عليه splitting لكن مش قضيتي في الآخر |
|
|
|
496 |
|
00:39:14,920 --> 00:39:26,420 |
|
أنا هاي الآن الآن الـ data set هرجع لها الـ |
|
|
|
497 |
|
00:39:26,420 --> 00:39:30,660 |
|
data set الآن هنعملها partitioning هي الـ data set |
|
|
|
498 |
|
00:39:30,660 --> 00:39:37,180 |
|
كيف الـ partition تبعتي؟ بيبقى إنه قال لي أن الـ age |
|
|
|
499 |
|
00:39:37,180 --> 00:39:43,030 |
|
هي هتكون الأساس كل الـ rows المحاطة باللون الأحمر هذه |
|
|
|
500 |
|
00:39:43,030 --> 00:39:49,510 |
|
أو بين قوسين تبعت الـ youth هتمثل |
|
|
|
501 |
|
00:39:49,510 --> 00:39:56,030 |
|
one data set خمسة |
|
|
|
502 |
|
00:39:56,030 --> 00:40:00,950 |
|
rows تمام؟ |
|
|
|
503 |
|
00:40:00,950 --> 00:40:05,930 |
|
بعد هيك الـ middle age لحالهم اللي باللون الأزرق |
|
|
|
504 |
|
00:40:05,930 --> 00:40:07,010 |
|
عمالي بأحوط عليهم |
|
|
|
505 |
|
00:40:15,180 --> 00:40:19,840 |
|
هدولة أربعة .. أربعة وضلوا الـ senior العناصر |
|
|
|
506 |
|
00:40:19,840 --> 00:40:23,460 |
|
الباقية يعني بين قوسين أن الـ data set بقى هتنجسم |
|
|
|
507 |
|
00:40:23,460 --> 00:40:28,020 |
|
الآن بعد ما أخدت الـ root أنا هيها بقول الـ age هي |
|
|
|
508 |
|
00:40:28,020 --> 00:40:32,220 |
|
الأساس لأن هي صاحبة الأكبر gain هيها فبدي أجسم الـ |
|
|
|
509 |
|
00:40:32,220 --> 00:40:35,000 |
|
data set بقى للـ three values اللي موجودة عندي يعني |
|
|
|
510 |
|
00:40:35,000 --> 00:40:38,940 |
|
الـ youth و الـ middle age و الـ senior ممتاز |
|
|
|
511 |
|
00:40:44,580 --> 00:40:48,980 |
|
جسمناهم هذه الـ data set اللي موجودة عندي الآن على |
|
|
|
512 |
|
00:40:48,980 --> 00:40:54,480 |
|
السريع شو هروح أساوي هاخد كل data set لأن لاحظ أن |
|
|
|
513 |
|
00:40:54,480 --> 00:40:56,040 |
|
عمود الـ student اختفت |
|
|
|
514 |
|
00:40:58,670 --> 00:41:03,170 |
|
عمود الـ age اختفت ..عمود الـ age اختفت ..الآن كل |
|
|
|
515 |
|
00:41:03,170 --> 00:41:08,270 |
|
واحدة من الـ data set هشتغل عليها بشكل مستقل لحد ما |
|
|
|
516 |
|
00:41:08,270 --> 00:41:13,150 |
|
أحقق واحد من الشروط الثلاثة أما فعليا كل الـ |
|
|
|
517 |
|
00:41:13,150 --> 00:41:17,690 |
|
attributes أو كل الـ symbols تنتمي لنفس الـ class أو |
|
|
|
518 |
|
00:41:17,690 --> 00:41:21,290 |
|
ما ضلش فيه عندي more attributes أنا جسمها أو ما ضلش |
|
|
|
519 |
|
00:41:21,290 --> 00:41:24,450 |
|
فيه عندي rows بعد هيك يعني بين قوسين حاجة هنا الآن |
|
|
|
520 |
|
00:41:24,450 --> 00:41:28,890 |
|
وهشتغل عليها بشكل مستقل هذه الآن new data set |
|
|
|
521 |
|
00:41:28,890 --> 00:41:34,490 |
|
هأحسب لها information لمين؟ هذه كلها خمس عناصر اثنين |
|
|
|
522 |
|
00:41:34,490 --> 00:41:39,330 |
|
وثلاثة هذه الـ information اللي أديه كلها الـ ID |
|
|
|
523 |
|
00:41:39,330 --> 00:41:42,630 |
|
تبعتي I |
|
|
|
524 |
|
00:41:43,610 --> 00:41:49,410 |
|
ثلا .. اثنين للـ yes وثلاثة للـ no وهذا يساوي سالب في |
|
|
|
525 |
|
00:41:49,410 --> 00:41:55,770 |
|
مجموع .. في مجموع أو بلاش نحط المجموع هيها اثنين |
|
|
|
526 |
|
00:41:55,770 --> 00:42:02,790 |
|
على خمسة في الـ log اثنين على خمسة زائد ثلاثة على خمسة |
|
|
|
527 |
|
00:42:02,790 --> 00:42:09,060 |
|
في الـ log ثلاثة على خمسة هذه المعلومات لكل الـ data set |
|
|
|
528 |
|
00:42:09,060 --> 00:42:12,940 |
|
هذه as all ممتاز الآن كم attribute موجود عندي؟ |
|
|
|
529 |
|
00:42:12,940 --> 00:42:16,060 |
|
عندي three different attributes عندي الـ income و |
|
|
|
530 |
|
00:42:16,060 --> 00:42:19,500 |
|
عندي الـ age عفوا الـ student و الـ credit rating |
|
|
|
531 |
|
00:42:19,500 --> 00:42:23,640 |
|
هروح أحسب الـ information لمين؟ هروح أبدأ أبني |
|
|
|
532 |
|
00:42:23,640 --> 00:42:27,500 |
|
الجدول الآن للـ attribute الأول مش اتفقنا هيك هشتغل |
|
|
|
533 |
|
00:42:27,500 --> 00:42:31,360 |
|
مع كل جدول على السريع أنا هشتغل بس مع هذه والخطوة |
|
|
|
534 |
|
00:42:31,360 --> 00:42:34,900 |
|
الثانية حاططها للباقية حاططها كواجب الآن |
|
|
|
535 |
|
00:42:37,170 --> 00:42:42,950 |
|
مع العمود الأول الـ income قلت |
|
|
|
536 |
|
00:42:42,950 --> 00:42:49,250 |
|
الـ value تبعت الـ income بعد هيك في عندي الـ yes |
|
|
|
537 |
|
00:42:49,250 --> 00:42:55,150 |
|
وعندي الـ no وعندي الـ intro بلا الـ yes والـ no بناء |
|
|
|
538 |
|
00:42:55,150 --> 00:42:59,090 |
|
على العدد اللي موجود عندي وبالتالي كم value موجود |
|
|
|
539 |
|
00:42:59,090 --> 00:43:05,010 |
|
عندي أنا هنا عندي low و medium و high هي |
|
|
|
540 |
|
00:43:05,010 --> 00:43:05,290 |
|
low |
|
|
|
541 |
|
00:43:08,440 --> 00:43:16,120 |
|
medium و high عد العناصر الموجودة مع بعضنا الآن مع |
|
|
|
542 |
|
00:43:16,120 --> 00:43:24,500 |
|
الـ low عندي قيمة واحدة فقط لمين بتنتمي للـ yes واحد |
|
|
|
543 |
|
00:43:24,500 --> 00:43:33,560 |
|
yes وهنا صفر معناته الـ entropy لواحد وصفر آجي |
|
|
|
544 |
|
00:43:33,560 --> 00:43:35,780 |
|
لـ الـ medium medium عندي اثنين |
|
|
|
545 |
|
00:43:43,250 --> 00:43:50,310 |
|
واحد yes وواحد no معناته entropy لواحد وواحد وضل |
|
|
|
546 |
|
00:43:50,310 --> 00:43:53,950 |
|
في عندي high اثنين وبينتموا لنفس الـ class |
|
|
|
547 |
|
00:43:53,950 --> 00:43:59,710 |
|
معناته صفر واثنين entropy لصفر واثنين وهذا بذكر أن |
|
|
|
548 |
|
00:43:59,710 --> 00:44:03,650 |
|
هذا القانون السابق اللي اعتمدت عليه حصل بحسب الـ |
|
|
|
549 |
|
00:44:03,650 --> 00:44:08,810 |
|
gain الآن أو بحسب الـ information للـ attribute اللي |
|
|
|
550 |
|
00:44:08,810 --> 00:44:15,860 |
|
موجود عندي من خلال الـ summation كمان مرة عدد الـ |
|
|
|
551 |
|
00:44:15,860 --> 00:44:21,840 |
|
data set زي ما قلنا جداش جمعة الخير خمسة الآن |
|
|
|
552 |
|
00:44:21,840 --> 00:44:31,420 |
|
واحد على خمسة في الـ I واحد وصفر زائد هذه الـ |
|
|
|
553 |
|
00:44:31,420 --> 00:44:40,050 |
|
information اثنين على خمسة في الـ I واحد وواحد زائد |
|
|
|
554 |
|
00:44:40,050 --> 00:44:49,530 |
|
اثنين على خمسة اثنين على خمسة صحيح اثنين على خمسة |
|
|
|
555 |
|
00:44:49,530 --> 00:44:58,530 |
|
في الـ I صفر |
|
|
|
556 |
|
00:44:58,530 --> 00:45:04,690 |
|
واثنين بحصل على الـ information gain اللي موجود |
|
|
|
557 |
|
00:45:04,690 --> 00:45:12,160 |
|
عندي هنا بعد هيك بقوله الـ gain تبعت الـ income هتمثل |
|
|
|
558 |
|
00:45:12,160 --> 00:45:21,900 |
|
الـ I اللي عندي فوق ناقص الـ I للـ income اللي |
|
|
|
559 |
|
00:45:21,900 --> 00:45:28,380 |
|
موجودة عندها هأحسبها وبالتالي بأحسب لهذه وبأحسب للـ |
|
|
|
560 |
|
00:45:28,380 --> 00:45:31,780 |
|
العناصر |
|
|
|
561 |
|
00:45:31,780 --> 00:45:37,640 |
|
اللي موجودة عندي تماما للـ student بعيد الكرة و للـ |
|
|
|
562 |
|
00:45:37,640 --> 00:45:41,780 |
|
credit rating وصاحب الـ attribute صاحب أكبر gain |
|
|
|
563 |
|
00:45:41,780 --> 00:45:46,480 |
|
هو اللي حيكون فعليا أنا هأعتمد وين في الـ .. في |
|
|
|
564 |
|
00:45:46,480 --> 00:45:49,740 |
|
الرسمة أو في الـ decision node التالية حسب الحسبة |
|
|
|
565 |
|
00:45:49,740 --> 00:45:54,200 |
|
تبعتي حسبناها سابقا لازم أنتم تكملوها للاخر حسب |
|
|
|
566 |
|
00:45:54,200 --> 00:45:57,740 |
|
الحسبة تبعتي الـ student حصلت أعلى gain الـ student |
|
|
|
567 |
|
00:45:57,740 --> 00:46:02,680 |
|
تبعتي حصلت أعلى gain وبالتالي أنا الآن هنا هأصير |
|
|
|
568 |
|
00:46:02,680 --> 00:46:07,260 |
|
في عندي الـ student هي الـ Internal node الجاية وفيها |
|
|
|
569 |
|
00:46:07,260 --> 00:46:13,680 |
|
two different values هأقسم الـ data set بعد هيك هأقسم |
|
|
|
570 |
|
00:46:13,680 --> 00:46:16,860 |
|
الـ data set تبعا للـ nodes اللي موجودة عندي هيك و |
|
|
|
571 |
|
00:46:16,860 --> 00:46:20,960 |
|
بهيك صارت كل الـ nodes تنتمي لنفس الـ class كل الـ |
|
|
|
572 |
|
00:46:20,960 --> 00:46:24,620 |
|
samples تنتمي لنفس الـ class فهنا بوقف هذه already |
|
|
|
573 |
|
00:46:24,620 --> 00:46:28,260 |
|
كلها تنتمي لنفس الـ class فأنا وقفت هنا ووقفت هنا |
|
|
|
574 |
|
00:46:28,260 --> 00:46:31,540 |
|
هتكون الـ final tree تبعتي طبعا هي الحسبة اللي |
|
|
|
575 |
|
00:46:31,540 --> 00:46:36,430 |
|
عندناها مرة ثانية أنا في الآخر الـ Tree تبعتي أحصل |
|
|
|
576 |
|
00:46:36,430 --> 00:46:40,330 |
|
عليها اللي إحنا شفناها مسبقا المفروض قبل ما يبدأ |
|
|
|
577 |
|
00:46:40,330 --> 00:46:50,130 |
|
بالشغل اللي هي هذه الـ income ما بينتش عندي لأن |
|
|
|
578 |
|
00:46:50,130 --> 00:46:54,770 |
|
فعليا وزنها كان لا يذكر مقارنة بالـ data set ولما |
|
|
|
579 |
|
00:46:54,770 --> 00:46:57,570 |
|
أنا ما ضلش عندي rows أو ما ضلش عندي sample أروح |
|
|
|
580 |
|
00:46:57,570 --> 00:47:01,650 |
|
أجسمها الآن عشان |
|
|
|
581 |
|
00:47:02,490 --> 00:47:06,390 |
|
ما نطولش عليكم بعد ما حسبنا العناصر اللي موجودة |
|
|
|
582 |
|
00:47:06,390 --> 00:47:11,430 |
|
عندها في الـ continuous attributes في حالة الـ |
|
|
|
583 |
|
00:47:11,430 --> 00:47:14,470 |
|
attributes اللي عندك continuous attribute إيش الحل؟ |
|
|
|
584 |
|
00:47:14,470 --> 00:47:19,610 |
|
اعمل discretization اعملها categories جسمها لفئات |
|
|
|
585 |
|
00:47:19,610 --> 00:47:22,830 |
|
استخدم الـ binning و أعطي label لكل bin و اشتغل |
|
|
|
586 |
|
00:47:22,830 --> 00:47:28,710 |
|
عليها بتكاشي اشتغل عليك في حل بسيط جدا الحل بيقولك |
|
|
|
587 |
|
00:47:28,710 --> 00:47:33,760 |
|
رتب الـ data set تبعا للـ items اللي موجودة عندك رتب |
|
|
|
588 |
|
00:47:33,760 --> 00:47:38,260 |
|
الـ items تمام فصارت الـ data sorted إن في حال كانت |
|
|
|
589 |
|
00:47:38,260 --> 00:47:43,260 |
|
عندي الـ age عبارة عن number صار عندي خمسة وعشرين و |
|
|
|
590 |
|
00:47:43,260 --> 00:47:48,780 |
|
ثلاثين سبعة وثلاثين أربعين الآن أنت بقى |
|
|
|
591 |
|
00:47:48,780 --> 00:47:55,500 |
|
تيجي تفحص بين كل two nodes يعني هتأخذ |
|
|
|
592 |
|
00:47:55,500 --> 00:48:00,200 |
|
الـ midpoint اللي بين هدول الاثنين أو الأسهل لك |
|
|
|
593 |
|
00:48:01,200 --> 00:48:03,600 |
|
فعلا هي عبارة عن Discretization لكنها Binary |
|
|
|
594 |
|
00:48:03,600 --> 00:48:07,780 |
|
Discretization مع الأرقام أنت إيش المقارنات تبعتك؟ |
|
|
|
595 |
|
00:48:07,780 --> 00:48:12,460 |
|
أما هتقول لي أقل إذا قلت أقل من كده فهي أكبر أو |
|
|
|
596 |
|
00:48:12,460 --> 00:48:16,340 |
|
تساوي كده إذا قلت أكبر من أكبر من أو تساوي كده |
|
|
|
597 |
|
00:48:16,340 --> 00:48:19,280 |
|
فهي أقل من كده عكسها تماما فحيكون بشغل عليها مع |
|
|
|
598 |
|
00:48:19,280 --> 00:48:23,080 |
|
binary يعني بين قوسين بصير بأخذ decision هنا بقوله |
|
|
|
599 |
|
00:48:23,080 --> 00:48:30,500 |
|
أقل أو تساوي خمسة وعشرين طب ما هي خمسة وعشرين باجي هنا |
|
|
|
600 |
|
00:48:33,210 --> 00:48:39,230 |
|
أقل أو تساوي ثلاثين معتبر هدول في partitions و |
|
|
|
601 |
|
00:48:39,230 --> 00:48:42,190 |
|
هدول في partitions مع الـ continuous attributes إذا |
|
|
|
602 |
|
00:48:42,190 --> 00:48:45,830 |
|
أنت بدك تشتغل مع الـ continuous values معناته أنت |
|
|
|
603 |
|
00:48:45,830 --> 00:48:49,990 |
|
هيكون في عندك too many partitions لحد ما تصل لـ |
|
|
|
604 |
|
00:48:49,990 --> 00:48:55,300 |
|
best point اللي بتعمل split يعني هأحسب الآن الجسم |
|
|
|
605 |
|
00:48:55,300 --> 00:48:58,920 |
|
كده كانت هنا ولا لما كانوا اثنين وثلاثة ولما |
|
|
|
606 |
|
00:48:58,920 --> 00:49:03,160 |
|
كانوا ثلاثة واثنين وأجرب كلهم وآخذ أعلى gain |
|
|
|
607 |
|
00:49:03,160 --> 00:49:06,900 |
|
فيهم لأن في الآخر أنا بدور على الـ gain لكل الـ data |
|
|
|
608 |
|
00:49:06,900 --> 00:49:12,320 |
|
set تبعتي اللي موجودة عندي هنا الآن هدف الموضوع الـ |
|
|
|
609 |
|
00:49:12,320 --> 00:49:15,810 |
|
splitting للـ continuous values لكن الـ Information |
|
|
|
610 |
|
00:49:15,810 --> 00:49:21,330 |
|
Gain دائما بيحاز للـ attributes أو للـ test اللي |
|
|
|
611 |
|
00:49:21,330 --> 00:49:25,230 |
|
بيكون فيها two أو فيها many outcomes اللي فيها |
|
|
|
612 |
|
00:49:25,230 --> 00:49:30,490 |
|
values كثيرة عشان هي كانت في الأول عندي الـ age |
|
|
|
613 |
|
00:49:30,490 --> 00:49:33,190 |
|
كانت هي أكثر الـ values اللي موجودة جالك ممكن إحنا |
|
|
|
614 |
|
00:49:33,190 --> 00:49:37,070 |
|
نحَل هذه المشكلة ونعتمد أو نحاول نقضي على موضوع |
|
|
|
615 |
|
00:49:37,070 --> 00:49:39,930 |
|
إنحياز الـ values الكثيرة اللي هو موضوع الـ gain |
|
|
|
616 |
|
00:49:39,930 --> 00:49:43,500 |
|
ratio الـ Gain Ratio فكرتها يا جماعة الخير أنه أنا |
|
|
|
617 |
|
00:49:43,500 --> 00:49:48,240 |
|
بدي أروح أحسب الـ split info إحنا سابقا كانت هذه |
|
|
|
618 |
|
00:49:48,240 --> 00:49:52,240 |
|
القيمة موجودة عندنا هي عدد عناصر الـ partition على |
|
|
|
619 |
|
00:49:52 |
|
|
|
667 |
|
00:53:11,450 --> 00:53:15,430 |
|
موجود عندي آخر خطوة أو آخر slide في الموضوع |
|
|
|
668 |
|
00:53:15,430 --> 00:53:18,630 |
|
كيف بدي أستدعيها، الخطوات السابقة في الـ python نفسها؟ |
|
|
|
669 |
|
00:53:18,630 --> 00:53:22,590 |
|
from sklearn.tree import DecisionTreeClassifier |
|
|
|
670 |
|
00:53:24,140 --> 00:53:27,880 |
|
النموذج الـ Decision Tree Classifier عملت له fit |
|
|
|
671 |
|
00:53:27,880 --> 00:53:31,720 |
|
قلت له، وهذه الجزئية في السطر هذا، بتبني الشجرة. |
|
|
|
672 |
|
00:53:31,720 --> 00:53:36,500 |
|
الآن الـ |
|
|
|
673 |
|
00:53:36,500 --> 00:53:39,340 |
|
sample test نفسها، لأنها شغالة، نفس الشيء، بدنا نجربها معاكم من |
|
|
|
674 |
|
00:53:39,340 --> 00:53:44,060 |
|
البداية. جربتها مع الـ kenia sniper، وجربتها مع الـ naive |
|
|
|
675 |
|
00:53:44,060 --> 00:53:48,840 |
|
بايز. بروح تعمل الـ test، وهنحدد setosa بكل |
|
|
|
676 |
|
00:53:48,840 --> 00:53:53,600 |
|
تأكيد، وبهيك بنكون إحنا فعلياً انتهينا من موضوع الـ |
|
|
|
677 |
|
00:53:53,600 --> 00:53:57,040 |
|
Decision Tree لمحاضرتنا اليوم. المطلوب منكم |
|
|
|
678 |
|
00:53:57,040 --> 00:53:59,500 |
|
تجربوا يا جماعة الخير، في عندنا different data set |
|
|
|
679 |
|
00:53:59,500 --> 00:54:02,780 |
|
موجودة في الـ slide سابقاً. جربوا الكلام هذا عليها، و |
|
|
|
680 |
|
00:54:02,780 --> 00:54:05,000 |
|
جربوا الكلام هذا عليها، يعني بينتج سيناريو |
|
|
|
681 |
|
00:54:05,000 --> 00:54:08,470 |
|
هذا الكلام مش هتتقنوه من مرة واثنتين وثلاث، الشغل |
|
|
|
682 |
|
00:54:08,470 --> 00:54:12,130 |
|
التاني اللي بدي إياه منكم، بعد تجريب العمل يبدو |
|
|
|
683 |
|
00:54:12,130 --> 00:54:15,730 |
|
تعتبروها كـ assignment عليكم. الآن، يبدو تروح تفكروا |
|
|
|
684 |
|
00:54:15,730 --> 00:54:18,570 |
|
أو تدوروا لي كيف ممكن أنا، إذا كانت هذه عبارة عن الـ |
|
|
|
685 |
|
00:54:18,570 --> 00:54:21,930 |
|
tree، بعد ما أنا عملت لها fit، هل في مجال أرسم الـ tree |
|
|
|
686 |
|
00:54:21,930 --> 00:54:25,690 |
|
بتاعتها بالبايثون؟ اه، في مجال، وهذه متروكة لكم. والسلام |
|
|
|
687 |
|
00:54:25,690 --> 00:54:27,470 |
|
عليكم ورحمة الله وبركاته |
|
|