في عالم يتسارع فيه تدفق المعلومات، أصبح "الصوت" الرقمي للعملاء أعلى من أي وقت مضى. تغريدة غاضبة على تويتر، مراجعة متحمسة على جوجل، أو حتى تعليق ساخر على فيسبوك؛ كلها تحمل في طياتها بيانات أثمن من الذهب: المشاعر. لكن ماذا لو كان هذا "الصوت" يتحدث بـ "لغة الضاد"؟ هنا يبدأ التحدي الحقيقي والفصل الأكثر إثارة في قصة الذكاء الاصطناعي.
![]() |
| من "الضاد" إلى البيانات: كيف يقرأ الذكاء الاصطناعي مشاعرك باللغة العربية؟ |
أهلاً بك في عالم "تحليل المشاعر باللغة العربية" (Arabic Sentiment Analysis). هذا ليس مجرد مصطلح تقني رنان، بل هو الجسر الذي تبنيه الشركات والمؤسسات اليوم للوصول إلى فهم حقيقي وعميق لجمهورها. لعقود، كانت اللغة العربية، بثرائها وتعقيدها، تمثل "الصندوق الأسود" لخوارزميات تحليل البيانات. لكن اليوم، وبفضل ثورة الذكاء الاصطناعي، بدأنا نرى الضوء في آخر النفق.
هذه المقالة ليست مجرد سرد تقني جاف، بل هي رحلة متكاملة.. رحلة نبدأها من "لماذا" (لماذا نحتاج هذا التحليل أصلاً؟) ، ونمر بـ "الكيف" (كيف تتغلب الخوارزميات على تحديات اللهجات والسخرية؟) ، وصولاً إلى "المستقبل" (ما الذي تخبئه لنا الأيام القادمة؟). سنغوص في أعماق الكود، ونستكشف النماذج اللغوية، ونرى كيف يمكن لهذه التقنية أن تكون سلاحك السري لفهم السوق.
ما هو "تحليل المشاعر"؟ ولماذا أصبح "أكسير الحياة" للشركات؟
دعنا نبسط الأمور. تحليل المشاعر، أو كما يُعرف أحيانًا بـ "التنقيب في الآراء" (Opinion Mining) ، هو ببساطة عملية استخدام تقنيات معالجة اللغة الطبيعية (NLP) والذكاء الاصطناعي لفهم "النغمة" العاطفية الكامنة وراء نص مكتوب.
هل هذا النص إيجابي (Positive)؟ أم سلبي (Negative)؟ أم أنه مجرد محايد (Neutral) ينقل معلومة؟
في الماضي، كانت الشركات تعتمد على الاستبيانات ومجموعات التركيز (Focus Groups) لفهم آراء عملائها. كانت هذه الطرق بطيئة، مكلفة، ومحدودة النطاق. أما اليوم، فلديك ملايين الآراء تُنشر طواعية كل ثانية على الإنترنت. المشكلة لم تعد في "الحصول" على الآراء، بل في "فهمها" على نطاق واسع.
لماذا هو حاسم وضروري؟
- رصد سمعة العلامة التجارية (Brand Reputation): معرفة ما يقوله الناس عنك في الوقت الفعلي تتيح لك التدخل السريع قبل أن تتحول "تغريدة" سلبية صغيرة إلى أزمة علاقات عامة كبيرة.
- تحسين تجربة العميل (CX): عبر تحليل آلاف المراجعات والشكاوى، يمكنك تحديد نقاط الألم الحقيقية في منتجك أو خدمتك. هل يشتكي الجميع من "بطء التوصيل"؟ أم أنهم يعشقون "سهولة الاستخدام" في تطبيقك؟
- أبحاث السوق الذكية: ما هي الميزة التي يطلبها عملاؤك ولم تنتبه لها بعد؟ ماذا يحبون في منتج منافسك؟ تحليل المشاعر يحول الضجيج الرقمي إلى رؤى استراتيجية.
- قياس نبض الرأي العام: لم يعد الأمر مقتصراً على الشركات، فالحكومات والمؤسسات البحثية تستخدمه لقياس التوجهات العامة نحو قضايا معينة، أو حتى للتنبؤ بالأحداث.
نقطة للتأمل
الفارق بين الشركة التي تستخدم تحليل المشاعر وتلك التي لا تستخدمه، هو كالفرق بين قبطان يبحر ببوصلة ورادار، وقبطان يبحر معتمداً على "الشعور" فقط. كلاهما قد يصل، لكن الأول يتجنب الجبال الجليدية ويعرف متى يغير مساره.
"الضاد" والتحدي الأكبر: لغز اللغة العربية أمام الذكاء الاصطناعي
"اللغة العربية صعبة". هذه ليست مجرد شكوى دارسين، بل هي حقيقة تقنية واجهها مهندسو الذكاء الاصطناعي لسنوات. تحليل المشاعر في اللغة الإنجليزية أصبح ناضجاً ومستقراً، لكن عندما نأتي إلى العربية، فاللعبة تختلف تماماً.
لماذا؟ لأن لغتنا ببساطة "كائن حي" شديد الثراء والتعقيد. إليك أبرز التحديات التي تجعل تحليل المشاعر بالعربية "كابوساً" تقنياً:
1. الثراء الصرفي والاشتقاق (Morphological Richness)
اللغة العربية لغة اشتقاقية. من جذر واحد مثل (ك-ت-ب)، يمكننا اشتقاق عشرات الكلمات (كاتب، مكتوب، مكتبة، كتاب، يكتبون، اكتتاب...). هذا الثراء يعني أن الكلمة الواحدة قد تحمل في طياتها (الكلمة الأصل + لاصقة سابقة + لاصقة لاحقة).
- مثال: كلمة "وسيكتبونها" هي (و + سـ + يكتبون + ها). كلها كلمة واحدة!
- التأثير على التحليل: النماذج التقليدية تفشل هنا. هي لا تستطيع تمييز أن "يكتبون" و "كتبوا" و "كاتب" كلها مرتبطة بنفس الجذر.
2. "حرب اللهجات" (The Dialect Dilemma)
نحن لا نكتب الفصحى على وسائل التواصل الاجتماعي. نحن نكتب بـ "العامية". نموذج ذكاء اصطناعي تدرب على نصوص "الجزيرة" و "الأهرام" سيصاب بالشلل التام أمام تعليق مثل:
- "الخدمة وايد زينة" (لهجة خليجية = إيجابي جداً)
- "التطبيق ده فاشل أوي" (لهجة مصرية = سلبي جداً)
- "الفيلم كان برشا مزيان" (لهجة مغاربية = إيجابي جداً)
هذا يعني أننا نحتاج إما إلى نماذج تفهم كل هذه اللهجات، أو إلى مجموعات بيانات ضخمة لكل لهجة على حدة.
3. وحش السخرية والغموض (Sarcasm & Ambiguity)
العرب أساتذة في السخرية. نحن نادراً ما نقول "هذا سيء" بشكل مباشر. نحن نقول:
"ما شاء الله على السرعة! طلبت الأكل إمبارح وصل النهاردة."
النموذج الساذج سيقرأ "ما شاء الله على السرعة" ويعتبرها (إيجابي). لكن الإنسان (والنموذج الذكي) سيفهم السياق ويعرف أنها (سلبي) بامتياز.
4. غياب التشكيل وحيادية النص (Lack of Diacritics)
كلمة مثل "علم" يمكن أن تكون "عِلْم" (Knowledge) أو "عَلَم" (Flag) أو "عَلَّمَ" (He taught). السياق هو الملك، والآلة يجب أن تكون ذكية كفاية لفهم هذا السياق بدون مساعدة التشكيل (الحركات).
5. ندرة الموارد والبيانات (The Data Famine)
لفترة طويلة، عانينا من "مجاعة بيانات" في المحتوى العربي. لبناء نموذج ذكي، أنت بحاجة لتدريبه على ملايين (أو مليارات) الجمل المصنفة يدوياً (هذه الجملة إيجابية، هذه سلبية...). مقارنة باللغة الإنجليزية، كانت الموارد العربية شحيحة جداً.
كيف يفكك الذكاء الاصطناعي شفرة المشاعر العربية؟
إذا كانت التحديات بهذه الصعوبة، فكيف نجحنا أصلاً؟ الجواب يكمن في التطور المذهل لتقنيات معالجة اللغات الطبيعية (NLP). مرت هذه التقنيات بثلاث مراحل رئيسية:
المرحلة الأولى: المدرسة القديمة (القواميس والقواعد)
الفكرة هنا بسيطة: سنقوم بإنشاء "قاموس" ضخم للمشاعر.
- "ممتاز"، "رائع"، "جميل" = تحصل على نقطة (+1)
- "سيء"، "فظيع"، "بطيء" = تحصل على نقطة (-1)
النتيجة؟ طريقة سريعة ورخيصة، لكنها ساذجة جداً. هي لا تفهم السخرية (تتذكر مثال "السرعة الرائعة"؟)، ولا تفهم النفي ("الخدمة ليست سيئة" قد تُحسب سلبية)، ولا تفهم السياق أبداً.
المرحلة الثانية: التعلم الآلي الكلاسيكي (Machine Learning)
هنا أصبحنا أذكى قليلاً. بدلاً من إعطاء الآلة القواعد، قررنا أن "تتعلم" القواعد بنفسها. قمنا بإعطائها آلاف الأمثلة المصنفة (نصوص إيجابية ونصوص سلبية) واستخدمنا خوارزميات مثل (Naive Bayes) أو (SVM).
النتيجة؟ أفضل بكثير! أصبحت الآلة تفهم أن كلمة "رائع" في سياق معين قد تكون أهم من كلمة "جداً". لكنها كانت لا تزال تكافح مع الترتيب المعقد للجمل وفهم المعاني العميقة.
المرحلة الثالثة: ثورة التعلم العميق (The Deep Learning Revolution)
هنا حدث الانفجار الحقيقي. مع ظهور نماذج مثل المحولات (Transformers)، وتحديداً نماذج مثل BERT و GPT، تغير كل شيء.
هذه النماذج لا تقرأ النص كلمة بكلمة. هي تقرأ النص بالكامل، وتفهم "العلاقات" بين الكلمات. هي تفهم أن "سرعة" في جملة "سرعة التوصيل" مرتبطة بـ "التوصيل"، وأن "رائعة" في جملة "خدمة رائعة" هي صفة لـ "الخدمة".
النماذج العميقة مثل BERT هي كمن يقرأ النص بالكامل، ثم يعود ويقرأه مرة أخرى وهو يضع في اعتباره السياق الكامل، ليفهم المعنى الحقيقي المقصود.
نجوم الساحة العربية: النماذج التي تتحدث "العربية" بطلاقة
الجميل في ثورة التعلم العميق أنها لم تتجاهل اللغة العربية. أدرك الباحثون أن أخذ نموذج BERT (الذي تدرب على الإنجليزية) وتطبيقه على العربية لن ينجح. لذلك، وُلدت "نماذج عربية" مخصصة:
| النموذج | المطور | مميزاته الرئيسية |
|---|---|---|
| AraBERT | جامعة بيرزيت وفريق ZB | من أوائل النماذج القوية المبنية على BERT، تدرب على كمية ضخمة من النصوص العربية الفصحى والعامية. أحدث ثورة في دقة المهام العربية. |
| AraGPT / Gpt-2 Arabic | مبادرات مجتمعية وبحثية | نماذج توليدية (مثل ChatGPT) ولكنها مدربة خصيصاً على المحتوى العربي. ممتازة في فهم وتوليد النصوص. |
| CamelBERT | جامعة كورنيل ومبادرة CAMeL | يتميز بتركيزه على معالجة اللهجات المختلفة بشكل صريح. يقدم إصدارات مختلفة مدربة على الفصحى، أو اللهجات المصرية، أو الخليجية. |
| MARBERT | جامعة بريتيش كولومبيا | نموذج BERT مدرب على كميات هائلة من تغريدات تويتر العربية، مما يجعله قوياً جداً في فهم اللهجات العامية ولغة السوشيال ميديا المختصرة. |
وجود هذه النماذج "المحلية" يعني أننا لم نعد بحاجة لـ "ترجمة" مشاعرنا لآلات لا تفهمنا. لدينا الآن آلات "تتحدث العربية" وتفهم تلميحاتنا وسخريتنا (إلى حد كبير!).
من الفكرة إلى التنفيذ: دليلك لبناء نموذج تحليل مشاعر عربي
حسناً، لقد اقتنعت بالأهمية وفهمت التقنية. كيف تبدأ الآن؟ إذا كنت ترغب في بناء نموذجك الخاص (بدلاً من استخدام أداة جاهزة)، فالطريق يتكون من عدة خطوات منهجية.
الخطوة الأولى: رحلة البحث عن "الكنز" (جمع البيانات)
البيانات هي وقود الذكاء الاصطناعي. بدون بيانات جيدة، فحتى أذكى نموذج هو عديم الفائدة.
- المصدر: أين جمهورك؟ هل هم على تويتر؟ هل يكتبون مراجعات على متجرك؟ أم أنك تريد تحليل استبيانات خدمة العملاء؟
- التصنيف (Labeling): هذه هي أصعب مرحلة. أنت بحاجة لأخذ عينة ضخمة من هذه البيانات (مثلاً 50,000 جملة) وجعل فريق من البشر يقرأونها ويصنفونها يدوياً: (إيجابي، سلبي، محايد).
الخطوة الثانية: التنظيف والترتيب (المعالجة المسبقة)
البيانات التي نجمعها من الإنترنت "فوضوية". يجب علينا تنظيفها أولاً. هذه العملية (Preprocessing) هي فن بحد ذاتها:
- التطبيع (Normalization): توحيد أشكال الحروف (إزالة الألف المقصورة "ى" واستبدالها بـ "ي"، توحيد الهمزات "أ، إ، آ" إلى "ا").
- إزالة الضوضاء: حذف الروابط (http://...) ، أسماء المستخدمين (@user) ، الرموز التعبيرية (Emojis) - أو أحياناً تحويلها إلى كلمات (مثلاً: 😊 = "مبتسم").
- إزالة كلمات التوقف (Stop Words): حذف الكلمات الشائعة التي لا تحمل معنى للمشاعر (مثل: "في"، "من"، "على"، "و").
- التجزئة (Tokenization): تقسيم الجملة إلى "كلمات" أو "رموز" (Tokens) ليفهمها النموذج.
الخطوة الثالثة: إرسال النموذج إلى "المدرسة" (التدريب)
هنا نختار "الطالب" الذكي (مثلاً نموذج AraBERT) ونعطيه "الكتب" التي حضرناها (بياناتنا النظيفة والمصنفة).
- نقسم بياناتنا: 80% للتدريب (ليتعلم منها)، و 20% للاختبار (لنختبره بها لاحقاً).
- تبدأ عملية التدريب (Fine-tuning) ، حيث يقوم النموذج بتعديل مليارات المعاملات داخله ليتعلم "الأنماط" التي تربط بين الكلمات والمشاعر.
الخطوة الرابعة: يوم النتائج (تقييم النموذج)
كيف نعرف أن نموذجنا "نجح"؟ نستخدم الـ 20% من البيانات التي خبأناها عنه (بيانات الاختبار) ونسأله: "ما هي مشاعر هذه الجمل؟". ثم نقارن إجاباته بإجاباتنا (التصنيف اليدوي الأصلي).
هناك عدة مقاييس نستخدمها، أهمها:
- الدقة (Accuracy): ما هي النسبة المئوية للإجابات الصحيحة؟ (مثلاً: 90% دقة).
- مقياس F1-Score: مقياس أكثر احترافية يوازن بين الدقة (Precision) والاستدعاء (Recall)، وهو مهم جداً إذا كانت بياناتك غير متوازنة (مثلاً: لديك 90% مراجعات إيجابية و 10% سلبية فقط).
أدوات ومنصات جاهزة: عندما لا تريد بناء كل شيء من الصفر
بناء نموذج خاص أمر قوي، لكنه مكلف ويحتاج لخبرة. لحسن الحظ، هناك أدوات رائعة تتيح لك البدء فوراً:
1. مكتبات بايثون للمطورين
- Hugging Face Transformers: المكتبة رقم واحد عالمياً. تتيح لك تحميل واستخدام نماذج مثل AraBERT و MARBERT في بضعة أسطر من الكود.
- Camel Tools: مجموعة أدوات ممتازة من جامعة كورنيل مخصصة لمعالجة اللغة العربية (التطبيع، التجزئة، وحتى تحليل المشاعر).
- NLTK و spaCy: مكتبات كلاسيكية في معالجة اللغات، ومع أنها تاريخياً كانت تركز على الإنجليزية، إلا أن دعمها للعربية (خاصة spaCy 3.0+) أصبح جيداً.
2. منصات جاهزة (SaaS) لغير المبرمجين
هذه المنصات توفر لك واجهة رسومية سهلة، وكل ما عليك هو رفع بياناتك أو ربط حساباتك الاجتماعية، وهي تقوم بالتحليل كاملاً:
- MonkeyLearn
- MeaningCloud
- IBM Watson Natural Language Understanding
- Google Cloud Natural Language AI
نصيحة: قبل الاشتراك في خدمة مدفوعة، اختبر دعمها للغة العربية واللهجات. بعضها يدعي دعم "العربية" لكنه في الواقع لا يفهم سوى الفصحى وبشكل ضعيف.
المستقبل بدأ الآن: إلى أين نتجه في تحليل المشاعر العربية؟
المجال يتطور بسرعة جنونية. ما كان يبدو خيالاً علمياً قبل 5 سنوات، أصبح واقعاً اليوم. لكن الرحلة لم تنتهِ. إليك ما يخبئه لنا المستقبل:
1. من "إيجابي/سلبي" إلى "تحليل المشاعر الدقيق" (Emotion AI)
لم يعد كافياً أن نعرف أن العميل "سلبي". نريد أن نعرف "لماذا". المستقبل هو في تصنيف المشاعر بدقة أكبر:
- بدلاً من "سلبي" -> هل هو (غاضب)؟ (محبط)؟ (حزين)؟ (خائف)؟
- بدلاً من "إيجابي" -> هل هو (سعيد)؟ (متحمس)؟ (ممتن)؟ (واثق)؟
2. تحليل المشاعر متعدد الوسائط (Multimodal)
الناس لا يعبرون بالنصوص فقط. المستقبل هو في تحليل المشاعر من الصوت (نبرة الصوت في مكالمة خدمة العملاء) والصورة (تعبيرات الوجه في مراجعة فيديو على يوتيوب)، ودمج كل هذا مع النص لفهم "الصورة الكاملة".
3. إتقان اللهجات وفهم السخرية
العمل مستمر على بناء نماذج "مدركة للسياق" (Context-Aware) يمكنها التمييز بين السخرية والجدية، ونماذج "عملاقة" تم تدريبها على كل اللهجات العربية لتفهمك سواء كتبت "برشا" أو "وايد" أو "كتير".
الخلاصة: لغة الضاد في عصر الذكاء
يمثل تحليل المشاعر باللغة العربية أحد أكثر المجالات تعقيداً وإثارة في الذكاء الاصطناعي اليوم. إنه ليس مجرد ترف تقني، بل هو ضرورة استراتيجية.
لقد قطعنا شوطاً طويلاً من القواميس الساذجة إلى النماذج العميقة التي تفهم الفروقات الدقيقة للهجات والسخرية. التحديات لا تزال موجودة، لكن الأدوات بين أيدينا أصبحت أقوى من أي وقت مضى.
الخلاصة؟ في العصر الرقمي، "الاستماع" هو الميزة التنافسية الأهم. والذكاء الاصطناعي هو الأداة الوحيدة التي يمكنها "الاستماع" إلى ملايين الأصوات الناطقة بالعربية في وقت واحد، وفهم ما "يشعرون" به حقاً. الشركات التي تتقن هذا الفن ليست فقط التي ستنجح، بل هي التي ستقود المستقبل.
الأسئلة الشائعة FAQ
س1: ما هو "تحليل المشاعر باللغة العربية" ولماذا هو ضروري للشركات؟
هو عملية استخدام الذكاء الاصطناعي وتقنيات معالجة اللغة الطبيعية (NLP) لفهم "النغمة" العاطفية (إيجابية، سلبية، أو محايدة) وراء نص عربي مكتوب. أصبح ضروريًا للشركات لأنه يساعد في رصد سمعة العلامة التجارية لحظيًا، تحسين تجربة العميل عبر تحديد "نقاط الألم" من المراجعات، وإجراء أبحاث سوق ذكية.
س2: ما هي أكبر التحديات التي تجعل تحليل اللغة العربية "لغزاً" للذكاء الاصطناعي؟
اللغة العربية تمثل تحديًا لعدة أسباب ذكرتها المقالة، أهمها:
- الثراء الصرفي والاشتقاق: (مثل اشتقاق عشرات الكلمات من جذر "ك-ت-ب").
- "حرب اللهجات": الناس يكتبون بالعامية (المصرية، الخليجية، المغاربية) وليس الفصحى.
- السخرية والغموض: (مثل "ما شاء الله على السرعة!" لوصف خدمة بطيئة).
- غياب التشكيل: (كلمة "علم" قد تعني "عِلْم" أو "عَلَم").
- ندرة الموارد: قلة مجموعات البيانات العربية المصنفة يدويًا مقارنة بالإنجليزية.
س3: كيف يتعامل الذكاء الاصطناعي مع "السخرية" في اللهجات العربية؟
هذا من أصعب التحديات. الطرق القديمة (القواميس) تفشل تمامًا لأنها تقرأ "سرعة رائعة" كإيجابية. لكن "ثورة التعلم العميق" ونماذج مثل (BERT) أصبحت قادرة على فهم "السياق" الكامل للجملة. هي لا تقرأ الكلمات منعزلة، بل تفهم العلاقات بينها، مما يمكنها من اكتشاف أن "السرعة" و "وصل النهاردة" في نفس الجملة يحملان معنى سلبيًا وساخرًا.
س4: هل تفهم النماذج اللهجات العامية (المصرية والخليجية) أم الفصحى فقط؟
النماذج القديمة التي تدربت على نصوص "الجزيرة" و "الأهرام" كانت تفشل أمام اللهجات. لكن النماذج الحديثة مثل (MARBERT) تم تدريبها خصيصًا على كميات هائلة من تغريدات تويتر العربية، مما يجعلها قوية جدًا في فهم اللهجات العامية ولغة السوشيال ميديا. كذلك نموذج (CamelBERT) يركز على معالجة اللهجات المختلفة.
س5: ما هي المراحل التي مرت بها تقنيات تحليل المشاعر العربية؟
مرت بثلاث مراحل رئيسية:
- القواميس والقواعد: طريقة "ساذجة" تعطي (+1) لكلمة "ممتاز" و (-1) لكلمة "سيء"، وتفشل في فهم السياق أو السخرية.
- التعلم الآلي الكلاسيكي (ML): أفضل، حيث يتعلم الأنماط من أمثلة مصنفة، لكنه يكافح مع المعاني العميقة.
- التعلم العميق (Transformers/BERT): "الانفجار الحقيقي"، هذه النماذج تقرأ النص بالكامل وتفهم "العلاقات" بين الكلمات والسياق.
س6: ما هي أشهر النماذج اللغوية المدربة خصيصاً على اللغة العربية؟
المقالة سلطت الضوء على "نجوم الساحة العربية" مثل:
- AraBERT: من أوائل النماذج القوية المبنية على BERT وتدرب على الفصحى والعامية.
- MARBERT: تدرب على تغريدات تويتر، مما يجعله قويًا في فهم لغة السوشيال ميديا واللهجات.
- CamelBERT: يتميز بتركيزه على معالجة اللهجات المختلفة بشكل صريح.
- AraGPT: نماذج توليدية (مثل ChatGPT) مدربة خصيصاً على المحتوى العربي.
س7: إذا أردت استخدام هذه التقنية، هل يجب أن أبني نموذجاً بنفسي؟
لا، ليس بالضرورة. بناء نموذج خاص أمر مكلف ويحتاج خبرة. المقالة توضح وجود خيارين:
- للمطورين: استخدام مكتبات بايثون جاهزة مثل (Hugging Face Transformers) لتحميل نماذج مثل AraBERT، أو (Camel Tools).
- لغير المبرمجين: استخدام منصات جاهزة (SaaS) مثل (IBM Watson) أو (Google Cloud Natural Language AI) التي توفر واجهة سهلة.
س8: ما هو مستقبل تحليل المشاعر باللغة العربية؟
المستقبل يتجه نحو "الدقة" و "الشمولية". بدلاً من مجرد "إيجابي/سلبي"، نتجه إلى:
- تحليل المشاعر الدقيق (Emotion AI): فهم هل العميل (غاضب)، (محبط)، (سعيد)، أم (ممتن).
- تحليل متعدد الوسائط (Multimodal): فهم المشاعر من "نبرة الصوت" في المكالمات أو "تعبيرات الوجه" في الفيديوهات، ودمجها مع النص.
- إتقان اللهجات والسخرية: الوصول لنماذج "مدركة للسياق" بشكل شبه كامل.
