📋 المحتوى المنظم
📖 محتوى تعليمي مفصّل
التفاعل الثاني
نوع: METADATA
التفاعل الثاني
chat(QA,model_sbert, 0.5)
نوع: محتوى تعليمي
chat(QA,model_sbert, 0.5)
>> What type of courses are you interested in?
cooking classes
>> Apologies, I could not understand you. Please rephrase your response.
>> What type of courses are you interested in?
software courses
>> You have selected: Courses on Computer Programming
>> What type of Programming Languages are you interested in?
C++
>> You have selected: Java
>> Thank you, I just emailed you a list of courses.
نوع: محتوى تعليمي
في التفاعل الثاني، يفهم روبوت الدردشة أن Cooking Classes (دروس الطهي) لا تشبه دلاليًا الخيارات الموجودة في قاعدة المعرفة. وهو ذكي بالقدر الكافي ليفهم أن Software courses (الدورات التدريبية في البرمجة) يجب أن ترتبط بخيار Courses on Computer Programming (الدورات التدريبية في برمجة الحاسب). الجزء الأخير من التفاعل يسلط الضوء على نقاط الضعف؛ يربط روبوت الدردشة بين رد المستخدم ++C و Java، على الرغم من أن لغتي البرمجة مرتبطتان بالفعل ويمكن القول بأنهما أكثر ارتباطًا من لغتي البايثون و++C، إلا أن الرد المناسب يجب أن يوضح أن روبوت الدردشة لا يتمتع بالدراية الكافية للتوصية بالدورات التدريبية في لغة ++C. إحدى الطرائق لمعالجة هذا القصور هي استخدام التشابه بين المفردات بدلاً من التشابه الدلالي للمقارنة بين الردود والخيارات ذات الصلة ببعض الأسئلة.
استخدام تعلم الآلة لتوليد نص واقعي
نوع: محتوى تعليمي
استخدام تعلم الآلة لتوليد نص واقعي
Using Machine Learning to Generate Realistic Text
نوع: محتوى تعليمي
الطرائق الموضحة في الأقسام السابقة تستخدم القوالب والقواعد، أو تقنيات التحديد لتوليد النصوص للتطبيقات المختلفة. في هذا القسم، سنتعرف على أحدث تقنيات تعلم الآلة المستخدمة في توليد اللغات الطبيعية (NLG).
جدول 3.5: تقنيات تعلم الآلة المتقدمة المستخدمة في توليد اللغات الطبيعية
نوع: FIGURE_REFERENCE
جدول 3.5: تقنيات تعلم الآلة المتقدمة المستخدمة في توليد اللغات الطبيعية
نوع: METADATA
وزارة التعليم
Ministry of Education
185
2023 - 1447
🔍 عناصر مرئية
جدول 3.5: تقنيات تعلم الآلة المتقدمة المستخدمة في توليد اللغات الطبيعية
A table outlining advanced machine learning techniques for Natural Language Generation (NLG), specifically Long Short-Term Memory (LSTM) and Transformer-Based Models, with a description for each.
📄 النص الكامل للصفحة
--- SECTION: التفاعل الثاني --- التفاعل الثاني--- SECTION: chat(QA,model_sbert, 0.5) ---
chat(QA,model_sbert, 0.5)
>> What type of courses are you interested in?
cooking classes
>> Apologies, I could not understand you. Please rephrase your response.
>> What type of courses are you interested in?
software courses
>> You have selected: Courses on Computer Programming
>> What type of Programming Languages are you interested in?
C++
>> You have selected: Java
>> Thank you, I just emailed you a list of courses.في التفاعل الثاني، يفهم روبوت الدردشة أن Cooking Classes (دروس الطهي) لا تشبه دلاليًا الخيارات الموجودة في قاعدة المعرفة. وهو ذكي بالقدر الكافي ليفهم أن Software courses (الدورات التدريبية في البرمجة) يجب أن ترتبط بخيار Courses on Computer Programming (الدورات التدريبية في برمجة الحاسب). الجزء الأخير من التفاعل يسلط الضوء على نقاط الضعف؛ يربط روبوت الدردشة بين رد المستخدم ++C و Java، على الرغم من أن لغتي البرمجة مرتبطتان بالفعل ويمكن القول بأنهما أكثر ارتباطًا من لغتي البايثون و++C، إلا أن الرد المناسب يجب أن يوضح أن روبوت الدردشة لا يتمتع بالدراية الكافية للتوصية بالدورات التدريبية في لغة ++C. إحدى الطرائق لمعالجة هذا القصور هي استخدام التشابه بين المفردات بدلاً من التشابه الدلالي للمقارنة بين الردود والخيارات ذات الصلة ببعض الأسئلة.--- SECTION: استخدام تعلم الآلة لتوليد نص واقعي --- استخدام تعلم الآلة لتوليد نص واقعي
Using Machine Learning to Generate Realistic Textالطرائق الموضحة في الأقسام السابقة تستخدم القوالب والقواعد، أو تقنيات التحديد لتوليد النصوص للتطبيقات المختلفة. في هذا القسم، سنتعرف على أحدث تقنيات تعلم الآلة المستخدمة في توليد اللغات الطبيعية (NLG).--- SECTION: جدول 3.5: تقنيات تعلم الآلة المتقدمة المستخدمة في توليد اللغات الطبيعية --- جدول 3.5: تقنيات تعلم الآلة المتقدمة المستخدمة في توليد اللغات الطبيعية2023 - 1447--- VISUAL CONTEXT ---
**TABLE**: جدول 3.5: تقنيات تعلم الآلة المتقدمة المستخدمة في توليد اللغات الطبيعية
Description: A table outlining advanced machine learning techniques for Natural Language Generation (NLG), specifically Long Short-Term Memory (LSTM) and Transformer-Based Models, with a description for each.
Table Structure:
Headers: التقنية | الوصف
Rows:
Row 1: شبكة الذاكرة المطولة قصيرة المدى (Long Short-Term Memory – LSTM) | تتكون شبكة الذاكرة المطولة قصيرة المدى (LSTM) من خلايا ذاكرة (Memory Cells) مرتبطة ببعض. عند إدخال سلسلة من البيانات إلى الشبكة، تتولى معالجة كل عنصر في السلسلة واحدًا تلو الآخر، وتُحدّث الشبكة خلايا الذاكرة لتوليد مُخرَج لكل عنصر على حده. شبكات الذاكرة المطولة قصيرة المدى (LSTM) تناسب مهام توليد اللغات الطبيعية (NLG) لقدرتها على الاحتفاظ بالمعلومات من سلاسل البيانات (مثل تعرّف الكلام أو الكتابة اليدوية) ومعالجة تعقيد اللغات الطبيعية.
Row 2: النماذج المبنية على المحولات (Transformer-Based Models) | النماذج المبنية على المحولات هي تلك التي تفهم اللغات البشرية وتولّدها، وتستند هذه النماذج في عملها إلى تقنية الانتباه الذاتي (Self-Attention) التي تمكنها من فهم العلاقات بين الكلمات المختلفة في الجمل.
Context: This table provides definitions and functional descriptions of two advanced machine learning architectures, LSTM and Transformer-Based Models, which are fundamental to Natural Language Generation (NLG) and understanding complex linguistic relationships.
🎴 بطاقات تعليمية للمراجعة
عدد البطاقات: 4 بطاقة لهذه الصفحة
في سياق توليد اللغات الطبيعية (NLG)، ما هي الوظيفة الأساسية لشبكة الذاكرة المطولة قصيرة المدى (LSTM)؟
الإجابة: تكمن الوظيفة الأساسية لـ LSTM في الاحتفاظ بالمعلومات من سلاسل البيانات الطويلة (مثل النصوص) ومعالجتها بشكل متسلسل، مما يسمح لها بفهم السياق والاعتماديات الزمنية في اللغة.
الشرح: تشرح الإجابة كيف تقوم LSTM بمعالجة البيانات بشكل تسلسلي وتحديث خلايا الذاكرة، مما يمكنها من تذكر المعلومات السابقة في التسلسل، وهو أمر حيوي لتوليد نص متماسك وواقعي.
تلميح: فكر في كيفية معالجة LSTM للمعلومات خطوة بخطوة وكيف تحتفظ بالسياق.
ما هي التقنية التي تعتمد عليها النماذج المبنية على المحولات (Transformer-Based Models) لفهم العلاقات بين الكلمات في الجمل؟
الإجابة: تعتمد النماذج المبنية على المحولات على تقنية الانتباه الذاتي (Self-Attention) لفهم العلاقات بين الكلمات المختلفة في الجمل.
الشرح: تقنية الانتباه الذاتي تمكن النماذج المبنية على المحولات من وزن أهمية كل كلمة في الجملة بالنسبة للكلمات الأخرى، مما يساعدها على فهم السياق والاعتماديات المعقدة بين الكلمات، وهو أمر ضروري لفهم وتوليد اللغات الطبيعية.
تلميح: ابحث عن الميزة التي تسمح لهذه النماذج بالتركيز على أجزاء مختلفة من المدخلات.
ما هو التطبيق الرئيسي الذي تناسبه شبكات الذاكرة المطولة قصيرة المدى (LSTM) في مجال معالجة اللغات؟
الإجابة: شبكات الذاكرة المطولة قصيرة المدى (LSTM) تناسب مهام توليد اللغات الطبيعية (NLG) لقدرتها على الاحتفاظ بالمعلومات من سلاسل البيانات ومعالجة تعقيد اللغات الطبيعية.
الشرح: قدرة LSTM على تذكر المعلومات لفترات طويلة تجعلها مناسبة لمهام مثل توليد النص، حيث يجب فهم سياق الجمل والفقرات السابقة.
تلميح: ارجع إلى وظيفتها الأساسية في معالجة سلاسل البيانات.
كيف تعمل النماذج المبنية على المحولات (Transformer-Based Models) لفهم اللغات البشرية وتوليدها؟
الإجابة: تستند النماذج المبنية على المحولات إلى تقنية الانتباه الذاتي (Self-Attention) التي تمكنها من فهم العلاقات بين الكلمات المختلفة في الجمل، مما يساعدها على توليد نص واقعي ودقيق.
الشرح: يسمح الانتباه الذاتي لهذه النماذج بالتركيز على الأجزاء الأكثر صلة في تسلسل الإدخال عند معالجة كل جزء، وهو ما يتيح فهمًا أعمق للعلاقات الدلالية والنحوية بين الكلمات.
تلميح: ما هي الآلية الأساسية التي تستخدمها هذه النماذج لربط الكلمات؟