أخلاقيات البيانات في الذكاء الاصطناعي - كتاب التقنية الرقمية - الصف 11 - الفصل 1 - المملكة العربية السعودية

الكتاب: كتاب التقنية الرقمية - الصف 11 - الفصل 1 | المادة: التقنية الرقمية | المرحلة: الصف 11 | الفصل الدراسي: 1

الدولة: المملكة العربية السعودية | المنهج: المنهج السعودي - وزارة التعليم

الدرس: أخلاقيات البيانات في الذكاء الاصطناعي

📚 معلومات الصفحة

الكتاب: كتاب التقنية الرقمية - الصف 11 - الفصل 1 | المادة: التقنية الرقمية | المرحلة: الصف 11 | الفصل الدراسي: 1

الدولة: المملكة العربية السعودية | المنهج: المنهج السعودي - وزارة التعليم

نوع المحتوى: درس تعليمي

📝 ملخص الصفحة

📚 أخلاقيات البيانات في الذكاء الاصطناعي

المفاهيم الأساسية

أخلاقيات البيانات: دراسة متخصصة للنواحي الأخلاقية المتعلقة باستخدام البيانات من قبل الشركات والحكومات.

خريطة المفاهيم

```markmap

الوحدة الثانية: الذكاء الاصطناعي

أهداف التعلم

دور الذكاء الاصطناعي والبيانات

  • في التحول الرقمي للمجتمعات

المفاهيم الأساسية

  • للذكاء الاصطناعي

أهمية تعلم الآلة

  • في الذكاء الاصطناعي

أنواع تعلم الآلة

  • تحديدها
#### التعلم الموجه (Supervised learning)

  • استخدام بيانات تاريخية للتنبؤ بقيم جديدة
  • طرق: تحليل الانحدار، تحليل التصنيف
#### التعلم غير الموجه (Unsupervised learning)

  • إيجاد أنماط في بيانات غير مصنفة
#### التعلم التعزيزي (Reinforcement learning)

  • التعلم من خلال التفاعل مع البيئة والمكافآت

أخلاقيات البيانات

  • في الذكاء الاصطناعي
#### أمثلة على أخلاقيات البيانات غير الجيدة

##### التحيز والتمييز

  • التعرف على أنماط مجتمعية تسبب عدم المساواة والتهميش والعنصرية.
##### مسؤولية القرار

  • غموض المسؤولية عند اعتماد القرارات على نتائج الذكاء الاصطناعي (المبرمج أم الآلة).
##### النتائج غير المبررة

  • إضافة مشرفي النموذج لتحيزاتهم الاجتماعية أثناء التدريب، مما يؤدي لمشكلات يصعب تحديد مصدرها.
##### انتهاك الخصوصية

  • الحاجة لكميات كبيرة من بيانات الأشخاص الخاصة، أحياناً دون موافقتهم.
##### العزلة الاجتماعية

  • الإفراط في الأتمتة يقلل التفاعل البشري، مما يؤدي للشعور بالوحدة.
##### النتائج الموثوقة

  • الاعتماد على قرارات نموذج غير مصمم بشكل صحيح دون تفكير قد يؤدي لنتائج خطيرة.

التطبيقات المختلفة

  • لتعلم الآلة

إنشاء نموذج تعلم الآلة

  • كيفية إنشائه

برمجة النموذج في سكراتش

  • كيفية برمجته

الأدوات المستخدمة

  • منصة تعلم الآلة للأطفال (Machine Learning for Kids)
  • سكراتش (MIT Scratch)

ما ستتعلمه في الوحدة

  • مفاهيم الذكاء الاصطناعي
  • تعلم الآلة والمهام التي تتعلمها الآلة
  • إنشاء نموذج تعلم الآلة الخاص بك
  • استخدام نموذج تعلم الآلة في برنامج سكراتش

التحول الرقمي

تعريفه

  • عملية تحول في طريقة العمل باستخدام التقنيات الرقمية لزيادة الإنتاج وتحسين العمل

أكبر التغييرات التي أحدثها

  • تغيير طريقة التواصل بين الأفراد
  • زيادة سرعة تدفق المعلومات عبر الأجهزة وبين الأفراد
  • تسريع تقدم جميع أنواع الصناعات
  • زيادة كمية البيانات الناتجة عن التقنيات المتقدمة

أمثلة على التحول الرقمي

#### عالم الأعمال

  • استبدال الشركات التقليدية (الطاقة والبناء) بشركات تعتمد على نماذج أعمال مبنية على البيانات (مثل جوجل وأمازون)
#### التواصل الكتابي

  • الانتقال من المراسلات الورقية إلى البريد الإلكتروني ووسائل التواصل الاجتماعي
#### وسائل الترفيه

  • الانتقال من الذهاب إلى الأحداث المباشرة أو السينما إلى مشاهدة منصات البث التلفزيونية أو الأجهزة اللوحية
#### التسوق

  • الانتقال من التسوق في المتاجر إلى التصفح والتسوق من المتاجر الإلكترونية
#### المعاملات المالية

  • الانتقال من المعاملات التقليدية إلى الخدمات المصرفية الإلكترونية عبر الإنترنت

نماذج الذكاء الاصطناعي

محركات التوصية

  • تقدم توصيات مؤتمتة (تسوق، برامج تلفزيونية) بناءً على عادات المستخدمين.
  • أمثلة: يوتيوب، أمازون، لينكدإن.

روبوتات المحادثة لدعم العملاء

  • تستخدم لفهم مشكلات العملاء وتقديم إجابات أفضل.
  • أمثلة: أمتراك، موقع البريد السعودي، خدمة المحادثة التفاعلية من وزارة الصحة السعودية (937).

المساعد الذكي

  • يؤدي المهام ويدون مواعيد الاجتماعات للمستخدم عن طريق تحليل المعلومات الشخصية.
  • أمثلة: آبل سيري، مايكروسوفت كورتانا، أمازون أليكسا.

المركز الوطني للذكاء الاصطناعي (NCAI)

  • ركيزة رئيسة لقيادة الذكاء الاصطناعي في المملكة العربية السعودية.
  • يهدف لتحقيق ريادة عالمية في التطوير والابتكار في مجال الذكاء الاصطناعي.

دور الذكاء الاصطناعي والبيانات في التحول الرقمي

  • الذكاء الاصطناعي والبيانات من العوامل الدافعة للتحول الرقمي.
  • التعاملات الحديثة المعقدة تنتج كميات كبيرة من البيانات.
  • الذكاء الاصطناعي يقوم بتصفية هذه البيانات وتقديم رؤى عنها.
  • هذه الرؤى تمكن الأفراد من استخدام تفكيرهم الناقد وخبراتهم لاتخاذ قرارات تطويرية.

مفاهيم الذكاء الاصطناعي

تعلم الآلة (Machine Learning)

  • مجال فرعي من الذكاء الاصطناعي.
  • يطور خوارزميات لفهم الأنماط من البيانات.
  • يمكنه التنبؤ أو التصنيف أو اتخاذ القرار بناءً على بيانات جديدة.
  • يشبه قيام المعلم بشرح تمارين للطلاب، ثم قدرة الطالب على حل مشكلات جديدة دون توجيه.

الشبكة العصبية (Neural Network)

  • نموذج حوسبي مستوحى من الشبكات العصبية البيولوجية في الدماغ.

معالجة اللغات الطبيعية (NLP)

  • فرع يهتم بفهم أو توليد اللغة البشرية (نص/كلام).
  • تطبيقاته: الترجمة، المكالمات الهاتفية، التنبؤ بالنص، المساعد الذكي.

ما الذي يمكن أن تتعلمه الآلة؟

  • استخراج الأنماط والرؤى من كميات البيانات الكبيرة.
  • في البداية: يتم إشراف المبرمج على النموذج وتوجيهه.
  • بعد التدريب: يكتسب النموذج قدرة جديدة وتصبح البيانات هي ما يوجهه للحصول على رؤى أحدث.
```

نقاط مهمة

  • أهمية أخلاقيات البيانات: بسبب تأثير الخوارزميات الذكية على كل جزء من الحياة تقريباً.
  • الحاجة إلى لوائح: تزداد الحاجة إلى وجود لوائح قانونية وأخلاقية معيارية لحماية الناس من الاستغلال.
  • المخاطر الرئيسية: تتمثل في التحيز، غموض المسؤولية، انتهاك الخصوصية، العزلة الاجتماعية، والاعتماد على نتائج غير موثوقة.

📋 المحتوى المنظم

📖 محتوى تعليمي مفصّل

أخلاقيات البيانات في الذكاء الاصطناعي

نوع: محتوى تعليمي

أخلاقيات البيانات دراسة متخصصة للنواحي الأخلاقية المتعلقة باستخدام البيانات من قبل الشركات والحكومات. يُعد هذا في الوقت الحالي مهما لأن كل جزء من الحياة تقريبًا يتأثر بالخوارزميات الذكية المدفوعة باستهلاك البيانات. تزداد الحاجة إلى وجود لوائح قانونية وأخلاقية معيارية لجميع الأطراف التي لديها إمكانية الوصول إلى البيانات؛ لحماية الناس من الاستغلال.

أمثلة على أخلاقيات البيانات غير الجيدة في الذكاء الاصطناعي

نوع: محتوى تعليمي

نوع: محتوى تعليمي

يمكن لتقنيات الذكاء الاصطناعي التعرف على الأنماط المجتمعية التي تسبب عدم المساواة والتهميش والعنصرية تجاه مجموعة من الأفراد.

نوع: محتوى تعليمي

إذا كانت معظم القرارات تعتمد على نتائج أُنشئت بواسطة الذكاء الاصطناعي، فهناك ليس حول الطرف الذي يتحمل مسؤولية القرار الشخص الذي يبرمج نموذج الذكاء الاصطناعي أم الآلة.

نوع: محتوى تعليمي

قد يضيف مشرفو نموذج الذكاء الاصطناعي في بعض الأحيان بعض التحيزات الاجتماعية الخاصة بهم إلى النموذج الذي يعملون على تدريبه، مما قد يؤدي إلى مشكلات يصعب تحديد مصدرها.

نوع: محتوى تعليمي

تحتاج تقنيات الذكاء الاصطناعي إلى الكثير من البيانات التي يقدمها الأشخاص عن حياتهم الخاصة دون موافقتهم في بعض الأحيان.

نوع: محتوى تعليمي

مع استخدام الأتمتة بشكل مفرط، لم يعد هناك تفاعل بين الأفراد بشكل كاف مما يؤدي إلى الشعور بالوحدة أو العزلة الاجتماعية.

نوع: محتوى تعليمي

إذا لم يُصمم نموذج الذكاء الاصطناعي بشكل صحيح، واستخدم الأفراد قراراته دون تفكير، فقد يؤدي ذلك إلى نتائج خطيرة.

نوع: محتوى تعليمي

التحيز والتمييز

نوع: محتوى تعليمي

مسؤولية القرار

نوع: محتوى تعليمي

النتائج غير المبررة

نوع: محتوى تعليمي

انتهاك الخصوصية

نوع: محتوى تعليمي

العزلة الاجتماعية

نوع: محتوى تعليمي

النتائج الموثوقة

نوع: NON_EDUCATIONAL

Ministry of Education 2025 - 1447

🔍 عناصر مرئية

A stylized illustration of a gear with a warning triangle symbol containing an exclamation mark. The gear has a distressed, broken appearance on the top right.

📄 النص الكامل للصفحة

--- SECTION: أخلاقيات البيانات في الذكاء الاصطناعي --- أخلاقيات البيانات دراسة متخصصة للنواحي الأخلاقية المتعلقة باستخدام البيانات من قبل الشركات والحكومات. يُعد هذا في الوقت الحالي مهما لأن كل جزء من الحياة تقريبًا يتأثر بالخوارزميات الذكية المدفوعة باستهلاك البيانات. تزداد الحاجة إلى وجود لوائح قانونية وأخلاقية معيارية لجميع الأطراف التي لديها إمكانية الوصول إلى البيانات؛ لحماية الناس من الاستغلال. --- SECTION: أمثلة على أخلاقيات البيانات غير الجيدة في الذكاء الاصطناعي --- يمكن لتقنيات الذكاء الاصطناعي التعرف على الأنماط المجتمعية التي تسبب عدم المساواة والتهميش والعنصرية تجاه مجموعة من الأفراد. إذا كانت معظم القرارات تعتمد على نتائج أُنشئت بواسطة الذكاء الاصطناعي، فهناك ليس حول الطرف الذي يتحمل مسؤولية القرار الشخص الذي يبرمج نموذج الذكاء الاصطناعي أم الآلة. قد يضيف مشرفو نموذج الذكاء الاصطناعي في بعض الأحيان بعض التحيزات الاجتماعية الخاصة بهم إلى النموذج الذي يعملون على تدريبه، مما قد يؤدي إلى مشكلات يصعب تحديد مصدرها. تحتاج تقنيات الذكاء الاصطناعي إلى الكثير من البيانات التي يقدمها الأشخاص عن حياتهم الخاصة دون موافقتهم في بعض الأحيان. مع استخدام الأتمتة بشكل مفرط، لم يعد هناك تفاعل بين الأفراد بشكل كاف مما يؤدي إلى الشعور بالوحدة أو العزلة الاجتماعية. إذا لم يُصمم نموذج الذكاء الاصطناعي بشكل صحيح، واستخدم الأفراد قراراته دون تفكير، فقد يؤدي ذلك إلى نتائج خطيرة. التحيز والتمييز مسؤولية القرار النتائج غير المبررة انتهاك الخصوصية العزلة الاجتماعية النتائج الموثوقة Ministry of Education 2025 - 1447 --- VISUAL CONTEXT --- **FIGURE**: Untitled Description: A stylized illustration of a gear with a warning triangle symbol containing an exclamation mark. The gear has a distressed, broken appearance on the top right. Context: Represents potential ethical or safety issues related to data and AI.

🎴 بطاقات تعليمية للمراجعة

عدد البطاقات: 4 بطاقة لهذه الصفحة

ما هو تعريف أخلاقيات البيانات في سياق الذكاء الاصطناعي؟

  • أ) مجموعة من القوانين التقنية التي تحكم تصميم الخوارزميات فقط.
  • ب) دراسة متخصصة للنواحي الأخلاقية المتعلقة باستخدام البيانات من قبل الشركات والحكومات.
  • ج) مجموعة من البروتوكولات الأمنية لحماية قواعد البيانات من الاختراق.
  • د) فرع من فروع الفلسفة يدرس تأثير التكنولوجيا على المجتمع بشكل عام.

الإجابة الصحيحة: b

الإجابة: دراسة متخصصة للنواحي الأخلاقية المتعلقة باستخدام البيانات من قبل الشركات والحكومات.

الشرح: 1. أخلاقيات البيانات هي مجال متخصص. 2. تدرس النواحي الأخلاقية في استخدام البيانات. 3. الجهات المستخدمة تشمل الشركات والحكومات. 4. هدفها حماية الناس من الاستغلال في عصر الخوارزميات الذكية.

تلميح: يركز هذا المجال على الجوانب الأخلاقية المرتبطة باستخدام البيانات.

التصنيف: تعريف | المستوى: سهل

أي مما يلي يمثل مثالاً على مشكلة 'التحيز والتمييز' في نماذج الذكاء الاصطناعي؟

  • أ) استخدام كميات كبيرة من البيانات الشخصية دون علم الأفراد.
  • ب) صعوبة تحديد المسؤول عن القرارات المتخذة بواسطة الآلة.
  • ج) تعرف تقنيات الذكاء الاصطناعي على الأنماط المجتمعية التي تسبب عدم المساواة والتهميش والعنصرية تجاه مجموعة من الأفراد.
  • د) فقدان التفاعل البشري الكافي بسبب الاعتماد المفرط على الأتمتة.

الإجابة الصحيحة: c

الإجابة: تعرف تقنيات الذكاء الاصطناعي على الأنماط المجتمعية التي تسبب عدم المساواة والتهميش والعنصرية تجاه مجموعة من الأفراد.

الشرح: 1. مشكلة التحيز والتمييز في الذكاء الاصطناعي. 2. تحدث عندما تتعرف الخوارزميات على أنماط مجتمعية قائمة. 3. هذه الأنماط قد تسبب عدم مساواة أو تهميشًا أو عنصرية. 4. النتيجة: تعزيز التحيزات الموجودة ضد مجموعات معينة.

تلميح: المشكلة تتعلق بتعزيز الأنماط المجتمعية السلبية.

التصنيف: مفهوم جوهري | المستوى: متوسط

ما هي المشكلة الأخلاقية التي تنشأ عندما 'يضيف مشرفو نموذج الذكاء الاصطناعي بعض التحيزات الاجتماعية الخاصة بهم إلى النموذج'؟

  • أ) انتهاك واضح وسهل الاكتشاف للخصوصية.
  • ب) زيادة تكاليف تشغيل النموذج بشكل كبير.
  • ج) مشكلات يصعب تحديد مصدرها.
  • د) توقف النموذج عن العمل فجأة.

الإجابة الصحيحة: c

الإجابة: مشكلات يصعب تحديد مصدرها.

الشرح: 1. إضافة التحيزات الاجتماعية من قبل المشرفين. 2. هذه التحيزات تدخل في عملية تدريب النموذج. 3. النتيجة: ظهور مشكلات في أداء النموذج. 4. التحدي: صعوبة تحديد المصدر الدقيق لهذه المشكلات لاحقًا.

تلميح: المشكلة تتعلق بصعوبة تتبع أصل الخطأ في النموذج.

التصنيف: مفهوم جوهري | المستوى: متوسط

أي من التحديات الأخلاقية التالية يصف مشكلة 'مسؤولية القرار' في الذكاء الاصطناعي؟

  • أ) حاجة النماذج إلى بيانات شخصية أكثر مما هو متاح قانونياً.
  • ب) ليس هناك وضوح حول الطرف الذي يتحمل مسؤولية القرار: الشخص الذي يبرمج نموذج الذكاء الاصطناعي أم الآلة.
  • ج) عدم قدرة النماذج على تفسير كيفية وصولها إلى قرار معين.
  • د) تسبب النماذج في تقليل فرص العمل البشري في جميع المجالات.

الإجابة الصحيحة: b

الإجابة: ليس هناك وضوح حول الطرف الذي يتحمل مسؤولية القرار: الشخص الذي يبرمج نموذج الذكاء الاصطناعي أم الآلة.

الشرح: 1. تحدث مشكلة مسؤولية القرار عندما تعتمد القرارات على نتائج الذكاء الاصطناعي. 2. يصعب تحديد الجهة المسؤولة عن هذه القرارات. 3. الخيارات: مبرمج النموذج أم الآلة نفسها. 4. هذا الغموض يمثل تحدياً أخلاقياً وقانونياً كبيراً.

تلميح: المشكلة تتعلق بتحديد من يتحمل المسؤولية القانونية والأخلاقية.

التصنيف: تفكير ناقد | المستوى: صعب