إن قصة تطور الذكاء الاصطناعي رحلة طويلة وممتعة، حافلة بالفصول المثيرة: بداية من تأملات الفلاسفة في العصور القديمة، مرورًا بعصر الحواسيب الأولى في أربعينيات وخمسينيات القرن الماضي، ثم ظهور الخوارزميات الرمزية والأنظمة الخبيرة، وصولًا إلى فترات "شتاء الذكاء الاصطناعي" وعودة النشاط في التسعينيات بفضل «تعلم الآلة» و«التعلم العميق»، وانتهاءً بالانفجار الأخير مع نماذج اللغات الضخمة والتحولات المعمارية الجذرية مثل «المحولات» (Transformers). في هذا المقال، سنستعرض كيف انتقلنا من مجرد فكرة "آلة مفكرة" إلى حوارنا اليومي مع روبوتات الدردشة التي تصف لنا الصور وكأننا نتحدث مع أصدقائنا.
![]() |
من «اختبار تورنغ» لذكاء المحولات: رحلة تطور الذكاء الاصطناعي |
أصول الفكرة والمحاولات الأولى
في عام 1950، كتب آلان تورنغ ورقته البحثية الشهيرة "آلات الحوسبة والذكاء" (Computing Machinery and Intelligence)، التي طرح فيها فكرة "اختبار تورنغ" كطريقة عملية للإجابة على سؤال "هل يمكن للآلات أن تفكر؟".
بدأ تورنغ بـ"لعبة المحاكاة" (The Imitation Game)، حيث يقوم محاور بطرح أسئلة على إنسان وآلة، كلاهما متخفٍ، ويحاول التمييز بينهما بناءً على الإجابات النصية فقط، وهو ما شكّل تحولًا جوهريًا في التفكير حول الذكاء الاصطناعي.
في الفترة نفسها تقريبًا، خلال أربعينيات القرن الماضي، ظهر أول حاسوب إلكتروني حقيقي، وهو ENIAC (المكامل والمحاسب الرقمي الإلكتروني)، في بنسلفانيا، وأصبح جاهزًا للاستخدام في ديسمبر 1945 لحساب جداول قذائف المدفعية للجيش الأمريكي.
كان ENIAC عبارة عن شبكة ضخمة من الصمامات المفرغة (Vacuum Tubes)، تمكنت من إنجاز آلاف العمليات الحسابية في الثانية، واعتُبرت ثورة في سرعة الحوسبة آنذاك.
المثير للدهشة أنه لم يكن يحتوي على برامج مخزنة في الذاكرة (Stored Programs)؛ بل كان يتطلب إعادة توصيل الكابلات والمفاتيح يدويًا لبرمجته لكل مهمة جديدة.
على الجانب الآخر من العالم، في ألمانيا، قام كونراد تسوزه ببناء حاسوب Z3 وقدمه للعالم في 10 مايو 1941، كأول حاسوب مستقل وقابل للبرمجة بالكامل، قائم على المرحّلات الميكانيكية (Relays).
أجرى Z3 العمليات الحسابية بنظام الفاصلة العائمة (Floating Point)، وكان قابلاً للبرمجة باستخدام شريط مثقوب (Punched Tape)، مما دفع الكثيرين إلى اعتباره "الحاسوب الحقيقي الأول".
ورغم تدميره في قصف برلين عام 1943، أعاد تسوزه بناء نسخة طبق الأصل منه لاحقًا، والتي عُرضت في متحف ميونخ، مما يؤكد أهميته التاريخية البالغة.
عصر الذكاء الرمزي والأنظمة الخبيرة
لنكن واقعيين، كانت فترة الستينيات هي فترة "التفكير بالرموز"؛ فبدلًا من إعطاء الحاسوب أرقامًا فقط، بدأنا نمنحه قواعد ليحاول الاستنتاج كما يفعل الإنسان.
كانت أولى نجاحات الذكاء الاصطناعي الرمزي مع برنامج "المنظّر المنطقي" (Logic Theorist) الذي نفذه نيويل وسيمون عام 1955، والذي كان قادرًا على إثبات النظريات الرياضية، تمامًا كما نحل نحن ألغاز السودوكو.
- تمثيل المعرفة: كان الباحثون في ذلك الوقت يكتبون "حقائق" و"قواعد" بلغة شرطية (IF–THEN)، مثل: "إذا كان المريض يعاني من حرارة مرتفعة وتعرق، فمن المحتمل وجود عدوى".
- الأنظمة الخبيرة: في السبعينيات، ظهر نظام MYCIN، وهو نظام خبير كان يأخذ الأعراض ويحدد احتمالية نوع العدوى في الدم، لدرجة أنه كان يتفوق أحيانًا على الأطباء في تشخيص بعض الحالات الدقيقة.
- المميزات: دقة عالية في حل المشكلات المحددة، وسرعة استنتاج هائلة مقارنة بالاعتماد على المستندات الورقية البطيئة.
- العيوب: كان المنطق الرمزي يتطلب تحديثًا مستمرًا، فلو تغيرت قاعدة مثل "إذا انخفض الضغط عن قيمة معينة"، كان لا بد من تعديلها يدويًا.
كان الهدف باختصار هو جعل الحاسوب "يفهم" قواعد بسيطة ويحلل من خلالها مشكلات دقيقة. لكن عندما حاولنا الخروج عن هذا الإطار المحدود — مجرد أكواد منطقية — وجدنا أن هذا النهج يعيق الابتكار، لأنه يصعب عليه مواكبة التغيرات المعقدة في الواقع.
ولكن لا تخطئ، فهذا الأساس هو الذي مهد الطريق للأنظمة اللاحقة التي تعتمد على البيانات وتتعلم من التجربة بدلاً من القواعد الثابتة.
شتاء الذكاء الاصطناعي والضغط المالي
بعد الثورة الكبيرة في الستينيات والسبعينيات، اصطدم التفاؤل المفرط بالواقع التقني والمالي، وبدأت علامات الإحباط تظهر:
- في سبعينيات القرن العشرين، نُشر "تقرير لايتيل" (Lighthill Report) عام 1973، الذي انتقد أبحاث الذكاء الاصطناعي واعتبرها أنها لم تحقق التوقعات المرجوة، مما دفع الحكومة البريطانية إلى وقف تمويلها للمشاريع البحثية في هذا المجال.
- في الفترة نفسها، قلّص الكونغرس الأمريكي تمويل "وكالة مشاريع الأبحاث الدفاعية المتقدمة" (DARPA) بعد أن لاحظ أن الأنظمة الخبيرة عاجزة عن الوفاء بالوعود الضخمة التي أطلقها علماء الذكاء الرمزي. انخفض التمويل بشكل كبير من حوالي 85 مليون دولار في أوائل السبعينيات إلى أقل من 20 مليون دولار قبل عام 1980.
- كانت النتيجة هي انخفاض عدد الأبحاث والمنشورات العلمية، وإغلاق بعض المختبرات الجامعية التي كانت تعتمد على الدعم الحكومي، مما خلق فجوة كبيرة في تطور الذكاء الاصطناعي بين عامي 1974 و 1980، وهي الفترة التي أُطلق عليها "شتاء الذكاء الاصطناعي".
تُظهر الدراسات أن هذا الانحدار لم يكن نتيجة عامل واحد، بل تراكم عدة عوامل:
- محدودية القدرة الحاسوبية: كانت قدرات الأجهزة لا تزال ضعيفة مقارنة بحجم البيانات وتعقيد النماذج المقترحة.
- وعود غير واقعية: تجاوزت توقعات علماء الذكاء الرمزي الإمكانيات التقنية المتاحة، وكانت البرمجيات التي طوروها قادرة على معالجة حالات مبسطة فقط.
- تغير أولويات التمويل: بدأت الحكومات في تحويل استثماراتها إلى مشاريع أمنية واجتماعية أخرى، مقلصةً دعمها للأبحاث الأكاديمية في مجال الذكاء الاصطناعي.
خلال هذه الفترة، اتجه معظم الباحثين إلى مجالات أخرى مثل قواعد البيانات ولغات البرمجة. لكن مع ذلك، ظهر جيل جديد من الأنظمة الخبيرة في الثمانينيات بتمويل متجدد، مما مهد لعودة النشاط في مجال الذكاء الاصطناعي بعد سنوات قليلة.
بزوغ عصر تعلم الآلة والتعلم العميق
في أواخر التسعينيات وأوائل الألفية الجديدة، حدث "انفجار" حقيقي بفضل الزيادة الهائلة في قوة الحواسيب وظهور بحر من البيانات يُعرف بـ "البيانات الضخمة" (Big Data). وقد أتاح ذلك للباحثين استخدام الذكاء الاصطناعي في مهام كانت تبدو بسيطة في البداية ولكنها بالغة الأهمية، مثل تصنيف الصور والتعرف على الكلام.
تطور تعلم الآلة من خوارزميات بسيطة مثل الانحدار اللوجستي وأشجار القرار في التسعينيات، إلى أن ظهرت أساليب أكثر تقدمًا مثل الغابات العشوائية وتقنيات التعزيز (Boosting)، التي تجمع قرارات نماذج صغيرة متعددة لتقديم نتيجة أقوى وأكثر دقة.
لكن القفزة التي لفتت أنظار الجميع نحو "التعلم العميق" حدثت في عام 2012، عندما تمكنت شبكة عصبونية تلافيفية (CNN) تُدعى AlexNet، طورها كريجيفسكي وهينتون، من تحقيق دقة غير مسبوقة في مسابقة ImageNet لتصنيف الصور (نسبة خطأ بلغت حوالي 15% مقارنة بـ 26% للطرق السابقة).
كانت أسرار نجاح AlexNet تكمن في:
- استخدام وحدات معالجة الرسومات (GPUs) لتسريع تدريب النموذج على ملايين الصور.
- اعتماد دوال التنشيط ReLU التي تسرّع عملية التعلم وتقلل من مشكلة تشبع التدرج.
- استخدام تقنيات الإسقاط (Dropout) لتجنب فرط التخصيص (overfitting) وتحسين قدرة النموذج على التعميم.
ومنذ ذلك الحين، طُبّق التعلم العميق في مجالات مذهلة أخرى مثل:
- فهم الكلام وتحويله إلى نصوص في تطبيقات المساعدين الصوتيين.
- تشخيص الأمراض من الصور الطبية بدقة تفوق دقة الأطباء في بعض الحالات.
- التنبؤ بسلوك المستخدمين على وسائل التواصل الاجتماعي وتحسين تخصيص المحتوى.
أصبح التعلم العميق قائمًا على نماذج ضخمة — مثل نماذج اللغات الضخمة (LLMs) كـ GPT-3 و BERT — التي تتعلم من مليارات الكلمات وتستطيع توليد نصوص مفهومة ومتسقة. وأحدث فرعه الجديد، "الذكاء الاصطناعي التوليدي" (Generative AI)، ثورة عالمية عند ظهور ChatGPT للعالم في عام 2022.
يمكن القول إن هذه الفترة كانت بمثابة "الولادة الثانية" لـالذكاء الاصطناعي. ففي حين أن المحاولة الأولى مع الأنظمة الرمزية لم تجعل الذكاء الاصطناعي مرنًا بما فيه الكفاية، أصبحنا الآن أمام إمكانيات تكاد تكون غير محدودة.
طفرة المحولات ونماذج اللغات الضخمة
في عام 2017، قدم فريق من Google Brain ورقة بحثية بعنوان "الانتباه هو كل ما تحتاجه" (Attention Is All You Need)، والتي غيرت مشهد الذكاء الاصطناعي بالكامل، حيث طرحت فكرة "الشبكات المعتمدة على الانتباه" دون الحاجة إلى البنى التكرارية أو التلافيفية. الفكرة، التي كانت بسيطة وقوية في آن واحد، هي أن كل كلمة في الجملة يمكنها أن تركز على الكلمات الأخرى بناءً على أهميتها النسبية، بدلاً من معالجة الكلمات بشكل تسلسلي.
كانت الميزة الجوهرية هي "آلية الانتباه" (Attention Mechanism) التي توزع الأهمية على أجزاء مختلفة من الجملة بشكل ديناميكي، مما حل مشكلة الاعتماديات بعيدة المدى التي كانت تعاني منها الشبكات العصبية التكرارية (RNNs) التقليدية.
كان هذا العمل بمثابة نقطة انطلاق لولادة "المحولات" (Transformers) كأساس لنماذج لغوية ضخمة مثل BERT، الذي أطلقته جوجل عام 2018، والذي أظهر قدرة فائقة على الفهم السياقي ثنائي الاتجاه.
وبعد فترة وجيزة، ظهرت النسخة الأولى من GPT (GPT-1) من شركة OpenAI، ثم تبعتها نسخة أقوى، GPT-2، في عام 2019، وأخيرًا GPT-3، الذي تدرب على مليارات من البيانات وأطلق جيلاً جديدًا من الأنظمة التوليدية القادرة على كتابة المقالات والرد على الاستفسارات وكأنك تتحدث مع إنسان حقيقي.
ومع إطلاق ChatGPT في أواخر عام 2022، ساد الذهول بين الناس: فجأة أصبح هناك روبوت دردشة يفهم السؤال والسياق ويتفاعل معك كصديق في جلسة حوارية. لم يعد يقتصر دوره على تقديم الإجابات، بل أصبح يعمل كـ"زميل" في الكتابة والترجمة والتفكير الإبداعي.
من هنا، اتجه العالم بقوة نحو "الذكاء الاصطناعي التوليدي" (Generative AI)، الذي أصبح يستخدم فكرة المحولات في تطبيقات متنوعة؛ من توليد الصور والفيديو (مثل DALL·E و Stable Diffusion)، إلى التصميم والألعاب، وحتى البرمجة الآلية بواسطة GitHub Copilot.
بصراحة، طفرة المحولات هي التي أدت إلى الانفجار الحالي في الذكاء الاصطناعي. ومع التطور المستمر في المحولات الكبيرة ودمجها مع تقنيات جديدة، يبشرنا المستقبل بإمكانيات لم نكن نحلم بها في الماضي.
ما هي التحديات التي قد نواجهها؟
قبل أن نحتفل ونقول "لقد وصلنا!"، يجب أن نكون واقعيين، فهناك تحديات حقيقية لا بد من مواجهتها.
- تحيّز النماذج (Model Bias)
يعتمد الذكاء الاصطناعي على بيانات التدريب، وعندما تكون هذه البيانات متحيزة، تتعلم النماذج هذا التحيّز وتكرره في قراراتها.
مثال عملي: تعاني أنظمة التعرف على الوجوه من صعوبة في تمييز أصحاب البشرة الداكنة بسبب قلة تمثيلهم في بيانات التدريب، مما يؤثر سلبًا على تطبيقات السلامة والأمن.
- تسريب البيانات وحمايتها (Data Leakage & Privacy)
مع التوسع في استخدام الذكاء الاصطناعي لتحليل البيانات الشخصية، تزداد مخاطر تسرب أو اختراق البيانات. يمكن للمخترقين استغلال الثغرات في نماذج الذكاء الاصطناعي لسرقة معلومات حساسة.
تكشف تقارير حديثة عن استغلال ثغرات "flowbreaking exploits" في تطبيقات توليد المحتوى لتسريب بيانات الشركات الداخلية، مما يضر بالثقة ويهدد الأعمال.
- خطر الأتمتة على الوظائف (Job Automation Risks)
يمكن للتقنيات الذكية أداء مهام كانت تتطلب موظفين، مما قد يسبب خسائر وظيفية. فمنذ عام 2000، فُقد حوالي 1.5 مليون وظيفة في قطاع التصنيع بسبب الأتمتة.
ولكن في الوقت نفسه، من المتوقع أن تُخلق ملايين الوظائف الجديدة في مجالات صيانة وتوجيه هذه الأنظمة. المعادلة ليست صفرية، ولكن يجب علينا تجهيز القوى العاملة لهذا التحول.
- الحوكمة والأخلاقيات (Governance & Ethics)
لا يزال النقاش حول الذكاء العام الاصطناعي (AGI) مستمرًا: هل سيصبح حقيقة قبل نهاية القرن أم لا؟ ومع هذا الاحتمال، نحتاج إلى أطر حوكمة دولية قوية لضمان تطوير آمن ومسؤول.
تقدم مجموعات من الخبراء، مثل "SingularityNET" والمعهد الوطني للمعايير والتكنولوجيا (NIST)، أطرًا لإدارة مخاطر الذكاء الاصطناعي، منها إطار NIST AI RMF الذي يركز على الموثوقية والخصوصية والأمان.
- الأمان والسلامة (Safety & Security)
أثبت الذكاء الاصطناعي التوليدي قدرته على إنشاء محتوى واقعي، لكنه في المقابل أتاح إمكانية خلق "التزييف العميق" (deepfakes) ونشر معلومات مضللة. لا بد من تطوير آليات للكشف والتوثيق.
تركز أطر أخرى، مثل تحالف EDSAFE AI، على مبادئ العدالة والشفافية والإنصاف للحد من الأضرار المحتملة.
آفاق مستقبلية
المستقبل واعد لدمج الذكاء الاصطناعي في مجالات مثل الطب الشخصي، حيث سيستخدم الأطباء الرقميون بياناتك الجينية وتاريخك الصحي لاختيار أنسب الأدوية والجرعات المثالية لك، بل والتنبؤ بالمخاطر الصحية قبل ظهور الأعراض.
مثال بسيط: جهاز يحلل عينة منك ويخبرك: "خطر إصابتك بالسكري مرتفع في السنوات القادمة"، مما يتيح لك تغيير نظامك الغذائي مبكرًا وتقليل مخاطر المرض.
في الزراعة الذكية، سنرى مزارع آلية مجهزة بأجهزة استشعار وإنترنت الأشياء، تجمع بيانات عن رطوبة التربة ودرجة الحرارة وجودة الهواء، ليقوم الذكاء الاصطناعي بتحليلها لحظيًا واتخاذ قرار مثل "قم بالري الآن" أو "عدّل كمية السماد".
النتيجة: محاصيل أوفر وموارد أقل هدرًا، وكأن الأرض أصبحت تتحدث إلينا.
أما بالنسبة للتعليم التفاعلي، فستتعلم منصات الذكاء الاصطناعي من أداء كل طالب وتقدم له دروسًا مخصصة تناسب نقاط قوته وتساعده على تجاوز نقاط ضعفه. هذا يعني أنه بدلاً من درس واحد للجميع، سيجد كل طالب محتوى مصممًا خصيصًا له ويسير بالسرعة التي تناسبه. كما ستساعد هذه المنصات المعلمين على تحديد الطلاب الذين يحتاجون إلى دعم إضافي.
بالطبع، يجب علينا معالجة القضايا التنظيمية والأخلاقية. تطرح أطر حوكمة الذكاء الاصطناعي مثل NIST AI RMF ومبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية (OECD AI Principles) مبادئ واضحة للشفافية والعدالة وحماية البيانات، وعلى الحكومات والمؤسسات تطبيقها بفعالية. هذا يعني أنه قبل إطلاق أي نظام ذكي، يجب أن يخضع لمراجعة قانونية وأخلاقية تضمن حماية خصوصيتك وسلامتك.
ستكون الشراكة بين الحكومات والمؤسسات البحثية والشركات مفتاح النجاح. هذا التعاون سيمكننا من تطوير سياسات وقوانين صارمة لأطر الحوكمة، وتوفير التمويل للأبحاث المسؤولة، وتشجيع إنشاء مختبرات مستقلة لاختبار نماذج الذكاء الاصطناعي قبل إطلاقها. وفي حال حدوث أخطاء أو تجاوزات، يجب أن تكون هناك آليات مساءلة واضحة لمعاقبة منتهكي القواعد.
في النهاية، ينادينا المستقبل لنجعل الذكاء الاصطناعي شريكًا لنا في الطب والزراعة والتعليم وكل قطاع يمسه، ولكن يجب أن يكون هذا التطور مراقبًا بعناية وتحت رقابة أخلاقية وتقنية، لتظل التقنية في خدمة البشرية، وليس العكس.
من الأساس النظري لتورنغ، إلى الذكاء الرمزي، وفترات "شتاء" التمويل، ثم تعلم الآلة، والتعلم العميق، وصولًا إلى نماذج المحولات والجيل الجديد من روبوتات الدردشة — كانت رحلة الذكاء الاصطناعي مشوارًا طويلاً ومذهلاً. من المهم أن نعرف أصل هذه الرحلة ونفهم تحدياتها لنتمكن من المشاركة في صياغة مستقبلنا التكنولوجي معًا، ونجعل هذه التقنية في صالحنا، لا ضدنا.