📚 تحليل البيانات في Jupyter Notebook
المفاهيم الأساسية
تحليل البيانات في Jupyter Notebook: استخدام مفكرة جووبيتر لاستيراد المكتبات وقراءة ملف بيانات JSON وتحليل خصائصه الإحصائية.
خريطة المفاهيم
```markmap
تحديث البيانات والجزء الرئيسي للبرنامج (صفحة 300)
تحديث محتويات ملف البيانات
العملية:
#### إلحاق كائن التقرير (report) بمصفوفة data_file_objects.
#### كتابة مصفوفة data_file_objects المحدثة إلى ملف JSON.
#### إلحاق كائن التقرير بمصفوفة reports.
#### تفريغ مصفوفة messages_stack.
الجزء الرئيسي للبرنامج
العملية:
#### التحقق من وجود ملف البيانات (data.json) قبل قراءته.
#### قراءة محتويات ملف JSON وتخزينها في data_file_objects.
#### تهيئة عميل MQTT.
#### ربط معالج الأحداث on_connect بالدالة المناسبة.
#### ربط معالج الأحداث on_message بالدالة المناسبة.
#### الاتصال بوسيط MQTT باستخدام العنوان والمنفذ.
#### الاشتراك في الموضوع المحدد (TOPIC).
#### الاستماع بشكل مستمر للرسائل الواردة (loop_forever).
تحليل البيانات في Jupyter Notebook (صفحة 301)
الهدف:
#### تحليل مجموعة بيانات JSON جاهزة تحاكي تشغيل نموذج الأردوينو.
الخطوات:
#### 1. استيراد المكتبات المطلوبة (pandas, matplotlib).
#### 2. قراءة بيانات JSON من الملف.
#### 3. وصف مجموعة البيانات لاستخراج الخصائص الإحصائية.
البيانات:
#### ملف: U3_L3_DATA.json
#### الأعمدة:
##### id
##### garbage_drops
##### time_to_fill
الإحصائيات (شكل 7.23):
#### عدد السجلات (count): 50
#### المتوسط (mean):
##### id: 24
##### garbage_drops: 54
##### time_to_fill: 152
#### الانحراف المعياري (std):
##### id: 15
##### garbage_drops: 30
##### time_to_fill: 100
#### المدى (min - max):
##### id: 0 - 49
##### garbage_drops: 2 - 100
##### time_to_fill: 5 - 376
```
نقاط مهمة
- يتم استخدام مجموعة بيانات JSON جاهزة لمحاكاة تشغيل نموذج الأردوينو لفترة طويلة.
- يجب وضع ملف البيانات الذي تم تنزيله في نفس مجلد المشروع.
- تُظهر الإحصائيات أن متوسط عدد قطرات القمامة (garbage_drops) هو 54، ومتوسط وقت الملء (time_to_fill) هو 152 وحدة.