📋 المحتوى المنظم
📖 محتوى تعليمي مفصّل
البرمجة الاتجاهية للجمل باستخدام التعلم العميق
نوع: محتوى تعليمي
البرمجة الاتجاهية للجمل باستخدام التعلم العميق
Sentence Vectorization with Deep Learning
نوع: محتوى تعليمي
Sentence Vectorization with Deep Learning
نوع: محتوى تعليمي
على الرغم من إمكانية استخدام نموذج الكلمة إلى المتجه (Word2Vec) في نمذجة الكلمات الفردية، يتطلب التجميع البرمجة الاتجاهية للنص بأكمله. إحدى الطرق الأكثر شهرة لتحقيق ذلك هي تمثيلات ترميز الجمل ثنائية الاتجاه من المحولات (SBERT) المستندة إلى منهجية التعلم العميق.
تمثيلات الترميز ثنائية الاتجاه من المحولات (BERT)
نوع: محتوى تعليمي
تمثيلات الترميز ثنائية الاتجاه من المحولات (BERT)
Bidirectional Encoder Representations from Transformers (BERT)
نوع: محتوى تعليمي
Bidirectional Encoder Representations from Transformers (BERT)
نوع: محتوى تعليمي
تمثيلات الترميز ثنائية الاتجاه من المحولات (BERT) هي نموذج تمثيل لغوي قوي طورته شركة جوجل، ويعد التدريب المسبق والضبط الدقيق عاملان رئيسان وراء قدرة تمثيلات الترميز ثنائية الاتجاه من المحولات (BERT) على تطبيق نقل التعلم، أي القدرة على الاحتفاظ بالمعلومات حول مشكلة ما والاستفادة منها في حل مشكلة أخرى. ويتم التدريب المسبق عبر تغذية النموذج بكمية هائلة من البيانات غير المعنونة لعدة مهام، مثل التنبؤ المقنع (إخفاء الكلمات العشوائية في مدخلات النصوص والمهمة هي التنبؤ بهذه الكلمات). يهيئ نموذج تمثيلات الترميز ثنائية الاتجاه من المحولات (BERT) المتغيرات المدربة مسبقًا للضبط الدقيق. كما تستخدم مجموعات البيانات المعنونة من المهام النهائية لضبط دقة عمل النموذج، ويكون لكل مهمة نهائية نماذج دقيقة منفصلة. برغم أنها مهمة بالمتغيرات المدربة نفسها مسبقًا. على سبيل المثال، تختلف عملية الضبط الدقيق لنموذج تحليل المشاعر عن نموذج الإجابة على الأسئلة. ومن المهم معرفة أن الفروقات في بنية النماذج تصبح ضئيلة أو منعدمة بعد خطوة ضبط الدقة.
تمثيلات ترميز الجمل ثنائية الاتجاه من المحولات SBERT
نوع: محتوى تعليمي
تمثيلات ترميز الجمل ثنائية الاتجاه من المحولات SBERT
نوع: محتوى تعليمي
تمثيلات ترميز الجمل ثنائية الاتجاه من المحولات (SBERT) هي الإصدار المعدل من تمثيلات الترميز ثنائية الاتجاه من المحولات (BERT) . تُدرب تمثيلات الترميز ثنائية الاتجاه من المحولات (BERT) مثل نموذج الكلمة إلى المتجه (Word2Vec) للتنبؤ بالكلمات بناءً على سياق الجمل الواردة بها. ومن ناحية أخرى، تُدرب تمثيلات ترميز الجمل ثنائية الاتجاه من المحولات (SBERT) للتنبؤ بما إذا كانت جملتان متشابهتين دلاليًا. تُستخدم تمثيلات ترميز الجمل ثنائية الاتجاه من المحولات (SBERT) لإنشاء تضمينات لأجزاء النصوص الأطول من الجمل، مثل الفقرات، أو النصوص القصيرة، أو المقالات في مجموعة بيانات هيئة الإذاعة البريطانية محل الدراسة في هذه الوحدة. بالرغم من أن النماذج الثلاث تستند جميعها إلى الشبكات العصبية، إلا أن تمثيلات ترميز الجمل ثنائية الاتجاه من المحولات (SBERT) وتمثيلات ترميز الجمل ثنائية الاتجاه من المحولات (BERT) تنفذان بنية مختلفة بشكل كبير وأكثر تعقيدًا من نموذج الكلمة إلى المتجه (Word2Vec).
مكتبة الجمل والمحولات Sentence_transformers Library
نوع: محتوى تعليمي
مكتبة الجمل والمحولات Sentence_transformers Library
نوع: محتوى تعليمي
الوظائف الكاملة لنموذج تمثيلات ترميز الجمل (sentence_transformers) . تأتي المكتبة بالعديد من نماذج تمثيلات ترميز الجمل ثنائية الاتجاه من المحولات (SBERT) المدربة مسبقًا؛ كل منها مدرب على مجموعة بيانات مختلفة ولتحقيق أهداف مختلفة. يعمل المقطع البرمجي التالي على تحميل أحد النماذج الشهيرة المدربة مسبقًا، ويستخدمها لإنشاء تضمينات للمستندات في مجموعة بيانات هيئة الإذاعة البريطانية:
نوع: محتوى تعليمي
%capture
!pip install sentence_transformers
from sentence_transformers import SentenceTransformer
model = SentenceTransformer('all-MiniLM-L6-v2') # load the pre-trained model.
text_emb = model.encode(bbc_docs) # embed the BBC documents.
نوع: METADATA
وزارة التعليم
167
2025 - 1447
🎴 بطاقات تعليمية للمراجعة
عدد البطاقات: 5 بطاقة لهذه الصفحة
ما هو نموذج تمثيلات الترميز ثنائية الاتجاه من المحولات (BERT)؟
الإجابة: نموذج تمثيل لغوي قوي طورته شركة جوجل، يعتمد على التدريب المسبق والضبط الدقيق لتطبيق نقل التعلم، مما يعني القدرة على الاحتفاظ بالمعلومات حول مشكلة ما والاستفادة منها في حل مشكلة أخرى.
الشرح: تم تطوير BERT بواسطة جوجل وهو أحد النماذج الرائدة في معالجة اللغة الطبيعية. يعتمد على مفهوم 'نقل التعلم' الذي يسمح له بالتكيف مع مهام مختلفة بكفاءة.
تلميح: فكر في الشركة التي قامت بتطويره والتقنيات الأساسية التي تميزه.
ما هي المهام التي يتم استخدامها في التدريب المسبق لنموذج BERT؟
الإجابة: يتم التدريب المسبق لـ BERT عبر تغذيته بكمية هائلة من البيانات غير المعنونة لعدة مهام، أبرزها 'التنبؤ المقنع' (Masked Language Modeling) وهو إخفاء كلمات عشوائية في مدخلات النصوص وجعل النموذج يتنبأ بها.
الشرح: التدريب المسبق لـ BERT يهدف إلى تعليمه فهم اللغة بشكل عميق. التنبؤ المقنع يساعده على تعلم العلاقات بين الكلمات والسياق العام للجمل.
تلميح: تذكر كيف يتعلم النموذج فهم سياق الكلمات المفقودة.
ما هو الهدف الأساسي من الضبط الدقيق (Fine-tuning) لنموذج BERT؟
الإجابة: يهدف الضبط الدقيق لـ BERT إلى تهيئة المتغيرات المدربة مسبقًا والتأكد من دقة عمل النموذج لمهام محددة باستخدام مجموعات بيانات معنونة خاصة بهذه المهام النهائية. لكل مهمة نهائية نموذج دقيق منفصل.
الشرح: بعد أن يتعلم BERT المفاهيم العامة للغة من خلال التدريب المسبق، يتم ضبطه بدقة على مهام معينة مثل تحليل المشاعر أو الإجابة على الأسئلة لزيادة كفاءته في تلك المهام.
تلميح: فكر فيما يحدث بعد الانتهاء من التدريب العام للنموذج.
ما هو الاختلاف الرئيسي بين BERT و SBERT (تمثيلات ترميز الجمل ثنائية الاتجاه من المحولات)؟
الإجابة: بينما تُدرب BERT للتنبؤ بالكلمات بناءً على سياق الجمل، تُدرب SBERT خصيصًا للتنبؤ بما إذا كانت جملتان متشابهتين دلاليًا. SBERT مصمم لإنشاء تضمينات (embeddings) لأجزاء النصوص الأطول من الجمل.
الشرح: BERT يركز على فهم سياق الكلمة، بينما SBERT يركز على فهم العلاقة الدلالية بين الجمل، مما يجعله مناسبًا لمهام مثل البحث عن الجمل المتشابهة أو التجميع الدلالي.
تلميح: ركز على الهدف الأساسي من تدريب كل نموذج.
ما هي الفائدة من استخدام مكتبة 'sentence_transformers'؟
الإجابة: توفر مكتبة 'sentence_transformers' وظائف كاملة ونماذج SBERT مدربة مسبقًا، كل منها مُدرب على مجموعة بيانات مختلفة ولأهداف مختلفة، مما يسهل عملية إنشاء تضمينات للنصوص.
الشرح: تُبسّط هذه المكتبة عملية استخدام نماذج SBERT المعقدة من خلال توفير واجهة سهلة الاستخدام ومجموعة من النماذج المحسنة مسبقًا، مما يقلل من الحاجة إلى تدريب النماذج من الصفر.
تلميح: فكر في الجاهزية وسهولة الاستخدام التي توفرها المكتبة.