أخلاقيات الذكاء الاصطناعى: عيش بأمان في حياتك الرقمية

دليلك الشامل لفهم أخلاقيات الذكاء الاصطناعى وحوكمة استخدامه بشكل عملي ومسؤول، مع بعض النصائح التى ستعرفك على كيف تحمي خصوصيتك وتعزز الشفافية.

لا يمكن لأحد أن ينكر أن الذكاء الاصطناعي أصبح يحيط بنا في كل مكان حتى دون أن ندرك ذلك تمامًا. وبعد أن أصبحنا نستخدمه في عملنا، وتعليم أبنائنا، ومشاريعنا الصغيرة، علينا أن نكون واقعيين ونتخذ خطوة لنسأل أنفسنا: هل الذكاء الاصطناعي أخلاقي من الناحية الصحية؟ وللإجابة على هذا السؤال، سنتناول المبادئ العالمية التي وُضعت للحفاظ على حقوقنا وضمان أن هذه التكنولوجيا تخدمنا بدلاً من أن تضيعنا في متاهات خصوصيتنا وحقوقنا الإنسانية.

أخلاقيات الذكاء الاصطناعى: عيش بأمان في حياتك الرقمية
أخلاقيات الذكاء الاصطناعى: عيش بأمان في حياتك الرقمية

لماذا يجب أن نهتم بأخلاقيات الذكاء الاصطناعي؟

بصراحة، هذا الموضوع ليس هينًا على الإطلاق. لقد دخل الذكاء الاصطناعي حياتنا وأصبح يستخدم بياناتنا ويشارك في اتخاذ قرارات قد تغير وجهات نظرنا وحياتنا اليومية. لذا، يجب أن نفهم أربعة جوانب مهمة وأن نكون على دراية بالمخاطر وكيفية السيطرة عليها.

خصوصيتك

لنكن واقعيين، كل تطبيق أو موقع يستخدم الذكاء الاصطناعي لرصد بياناتك وجمعها لتحسين خدماته أو بيعها لأطراف ثالثة. وهذا يشمل معلومات حول أنشطتك على الإنترنت، مشترياتك، وحتى موقعك الحالي، وغالبًا ما يتم ذلك دون علمك. توجد قوانين مثل اللائحة العامة لحماية البيانات (GDPR) وقانون خصوصية المستهلك في كاليفورنيا (CCPA) التي تحاول تنظيم هذا الأمر، لكنها لن تكون كافية إذا لم تلتزم الشركات فعليًا بتطبيق مبادئ الخصوصية حسب التصميم.

العدالة والشفافية

إذا كان نظام الذكاء الاصطناعي هو من يقرر أهليتك للحصول على قرض أو يختار المرشحين لوظيفة ما، فيجب أن يكون شفافًا حتى تعرف المعايير التي يعمل بناءً عليها. المشكلة أن الكثير من الخوارزميات تعمل كـ "صندوق أسود"، حيث لا يمكننا رؤية ما بداخلها، وهذا يجعل من المستحيل معرفة سبب قرار معين إذا كان ظالمًا. يجب أن نطالب بنماذج قابلة للتفسير (Explainable AI) حتى يتمكن الناس من فهم سبب الوصول إلى نتيجة معينة.

المسؤولية

إذا حدث خطأ أو ظلم بسبب الذكاء الاصطناعي، فمن سيتحمل المسؤولية؟ بالتأكيد ليس الجهاز ولا الشيفرة البرمجية. يجب أن يكون هناك هيكل مسؤولية قانوني واضح. تتحدث بعض المقالات عن "فجوة المسؤولية" التي تحدث عندما يصعب ربط الخطأ بمبرمج أو شركة معينة، مما يترك الضحية غير قادرة على رفع دعوى قضائية. لهذا السبب، بدأت الحكومات في دراسة قوانين تفرض مبدأ "المسؤولية المباشرة" على مطور النظام أو مشغله.

المستقبل الوظيفي

لنكن واقعيين، سيغير الذكاء الاصطناعي شكل سوق العمل بطريقة أو بأخرى. يشير تقرير للمنتدى الاقتصادي العالمي إلى أن حوالي 40% من الشركات قد تقلل عدد موظفيها بسبب الأتمتة، ولكنه في الوقت نفسه سيخلق فرص عمل جديدة. تشير الدراسات إلى أن 75 مليون وظيفة قد تختفي بحلول عام 2025، لكن في المقابل، من المتوقع أن تظهر 133 مليون وظيفة جديدة.

أهم المبادئ العالمية لحوكمة الذكاء الاصطناعي

سنتكلم عن أهم المبادئ لحوكمة الذكاء الاصطناعى فى السطور القادمة:

توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي

اعتمدت اليونسكو توصية غير ملزمة في نوفمبر 2021 لوضع إطار قيمي وأخلاقي لحوكمة الذكاء الاصطناعي عالميًا. الهدف هو حماية حقوق الإنسان وكرامته مع ضمان الشفافية والوضوح في استخدام التقنيات الذكية.

تركز التوصية على خمس قيم أساسية: احترام حقوق الإنسان وكرامته، الشفافية في آليات اتخاذ القرار، المساءلة عن النتائج، النزاهة في التصميم والتطوير، والاستدامة البيئية لمشاريع الذكاء الاصطناعي.

كما طورت اليونسكو أداة لتقييم الأثر الأخلاقي لمساعدة المؤسسات على تحليل خوارزمياتها والتأكد من توافقها مع هذه القيم، مع إتاحة معلومات التطوير للجمهور.

دليل التصميم المتوافق أخلاقيًا (Ethically Aligned Design) من IEEE

أصدرت جمعية مهندسي الكهرباء والإلكترونيات (IEEE) دليل «Ethically Aligned Design» في نسخته الأولى عام 2016، ثم نسخة محدثة (v2) في 2017. يهدف الدليل إلى فتح حوار عام حول كيفية تطبيق المبادئ الأخلاقية والاجتماعية في أنظمة الذكاء الاصطناعي والحفاظ على رفاهية الإنسان في سياقات ثقافية متنوعة.

شجع هذا الدليل على إنشاء سلسلة معايير IEEE P7000™ التي تعالج قضايا اجتماعية وقانونية مثل الشفافية، والخصوصية، ومسؤولية المطورين. وقد عمل أكثر من 250 خبيرًا من جميع أنحاء العالم على وضع توصيات وقواعد واضحة لمعيار EAD v2.

تصدر IEEE أيضًا ملخصًا تنفيذيًا ووثائق مفصلة لكل مشروع من سلسلة P7000™ لتمكين الحكومات والشركات من اعتماد نماذج قابلة للتفسير (Explainable AI) ومسارات للتدقيق المستمر.

مبادئ منظمة التعاون الاقتصادي والتنمية (OECD) للذكاء الاصطناعي

اعتمدت منظمة التعاون الاقتصادي والتنمية (OECD) مبادئ للذكاء الاصطناعي في 22 مايو 2019، وكان هذا أول إطار دولي يضم مبادئ وقيمًا ملموسة للحكومات وشركات الذكاء الاصطناعي العالمية.

تشمل المبادئ القيمية الخمسة: النمو الشامل والمستدام، احترام حقوق الإنسان والقيم الديمقراطية، الشفافية والقابلية للتفسير، الأمان والموثوقية، والمسؤولية القانونية والأخلاقية في حالات الخطأ أو التحيز.

بالإضافة إلى ذلك، قدمت المنظمة خمس توصيات سياسية: تعزيز التعاون الدولي، اتباع نهج قائم على المخاطر، بناء القدرات الوطنية، تحسين حوكمة البيانات، ودعم الشمول الرقمي. كل هذا لضمان أن تطبيق الذكاء الاصطناعي يوازن بين الابتكار وحماية المجتمع.

هذه المبادئ قابلة للتحديث، وقد نشرت OECD مؤخرًا نسخة منقحة تتناول تحديات الذكاء الاصطناعي التوليدي والأنظمة العامة للذكاء الاصطناعي.

ميثاق أسيلومار للذكاء الاصطناعي (Asilomar AI Principles)

انطلق ميثاق أسيلومار من مؤتمر «الذكاء الاصطناعي المفيد» (Beneficial AI) في 30 يناير 2017، واتفق عليه أكثر من 3700 باحث في الذكاء الاصطناعي والروبوتات كإطار إرشادي للتطوير الآمن والمفيد لـالذكاء الاصطناعي.

يضم الميثاق 23 مبدأ، منها ضمان أمان النماذج الأولية وتقييم المخاطر، والالتزام بالقيم الإنسانية مثل الكرامة والخصوصية والحرية، وضرورة الإشراف البشري المستمر على الأنظمة الذكية.

بالإضافة إلى مبادئ تتعلق بالشفافية في البحث العلمي ونشر نتائج الأبحاث، ومنع سباق التسلح التكنولوجي القائم على الذكاء الاصطناعي، والحفاظ على ثقافة التشارك والمسؤولية المشتركة بين الحكومات والمؤسسات والشركات الصغيرة.

التحديات التي نواجهها

فى الحقيقة الذكاء الاصطناعى يواجه تحديات كبيرة سنتكلم عنها فى السطور التالية:

  • التحيز والتمييز

    عندما تكون البيانات غير ممثلة لجميع شرائح المجتمع، تتعلم الخوارزميات أنماطًا متحيزة، سواء كانت عنصرية أو جندرية أو اجتماعية. يظهر هذا في أنظمة التوظيف والائتمان. تظهر الدراسات أنه حتى بدون قصد، ينسى غالبية مطوري الأنظمة إضافة تنوع كافٍ في بيانات التدريب، مما يجعل النظام يركز على التحيزات التاريخية ويعززها. وتنبه تقارير من جهات مستقلة إلى ضرورة المراقبة الدورية والتدقيق الخارجي لتجنب التمييز غير المعلن.

  • الشفافية

    تشبه العديد من أنظمة الذكاء الاصطناعي "صندوقًا أسود"؛ نضع البيانات في طرف، وفي الطرف الآخر نحصل على قرار دون أن نعرف لماذا أو كيف تم حساب النتيجة. غياب هذا الشرح يجعل المساءلة شبه مستحيلة إذا كان القرار ظالمًا، لذا يجب أن نتجه نحو نماذج قابلة للتفسير (Explainable AI) لفهم خطوات الخوارزمية.

  • الخصوصية

    تُجمع البيانات الشخصية بكثافة من المواقع والتطبيقات دون علم كامل من المستخدم، مما يعرضنا لمخاطر سرقة أو استغلال معلومات حساسة. لقد واجهت مبادئ الخصوصية التقليدية، مثل تحديد الغرض والاستخدام المحدود، تحديات كبيرة مع التوسع الهائل في جمع البيانات وتحليلها. تنصح تقارير من جامعات مرموقة بوضع سياسات واضحة لحماية البيانات ومعايير حوكمة صارمة تتضمن موافقة صريحة ومتجددة من المستخدمين.

  • التأثير على الوظائف

    يشير تقرير المنتدى الاقتصادي العالمي إلى أن حوالي 40% من الشركات تخطط لتقليص عدد الموظفين مع مساهمة الأتمتة والذكاء الاصطناعي في تنفيذ المهام المتكررة. في الوقت نفسه، وجد مسح حديث في بريطانيا لمديري الأعمال أن النتيجة العملية لا تزال بعيدة عن استبدال البشر، لأن معظم أدوات الذكاء الاصطناعي الحالية تدعم الموظفين بدلاً من أن تحل محلهم.

  • الاستدامة البيئية

    يستهلك تدريب النماذج الضخمة طاقة هائلة وينتج غازات دفيئة بشكل كبير، خاصة إذا كانت مراكز البيانات تعتمد على مصادر طاقة غير متجددة. كما تحتاج مراكز البيانات إلى تبريد مستمر وكميات كبيرة من المياه لتجنب الحرارة الزائدة، مما يزيد الضغط على الموارد المائية في مناطق معينة. قدم باحثون في جامعة هارفارد مقترحات للاعتماد على مصادر طاقة متجددة وتصميم نماذج أخف وأقل استهلاكًا للطاقة لتقليل البصمة الكربونية.

كيف نتعامل مع هذه التحديات بأسلوب بسيط وقريب من الناس؟

في الحقيقة، لا يمكننا إيقاف تقدم الذكاء الاصطناعي، لكن يمكننا وضعه تحت سيطرتنا من خلال إجراءات قريبة من حياتنا اليومية، دون تعقيد أو لغة رسمية مبالغ فيها.

  • نشر الثقافة والمعرفة

    احرص دائمًا على متابعة مقاطع الفيديو القصيرة على يوتيوب أو إنستجرام التي تشرح ببساطة كيف يعمل الذكاء الاصطناعي، وشارك مع الناس قصصًا واقعية عن استخداماته. يمكن لورش العمل البسيطة في الكليات والمدارس، حتى لو كانت لمدة ساعة أو ساعتين، أن تغير نظرة الناس وتجعلهم يفهمون المصطلحات دون أن يشعروا بأنهم يدرسون مادة معقدة.

  • تطوير معايير شفافة

    يمكن للشركات نشر شيفرة برمجية مبسطة على GitHub أو مدونة تقنية قصيرة تشرح منهجياتها في بناء الخوارزميات، وإصدار تقارير دورية لإعلام الناس بالخطوات التي تم اتخاذها. كما يمكنها وضع دليل مصغر للمستخدمين حول كيفية طرح الأسئلة أو تقديم ملاحظات إذا شعروا بأي ظلم أو تحيز.

  • حماية البيانات

    اجعل تطبيقك يستخدم التشفير من لحظة جمع البيانات حتى حذفها، ووضح للمستخدمين ببساطة كيفية ضبط إعدادات الخصوصية على أجهزتهم. كما نحتاج إلى قوانين تفرض غرامات ليست مالية فحسب، بل تصل إلى منع التعامل مع الجهات التي تشارك البيانات دون موافقة واضحة وصريحة.

  • حماية الخصوصية بشكل عملي

    علّم المستخدمين كيفية تفعيل إعدادات "الخصوصية" في أجهزتهم وتطبيقاتهم:

    • استخدم "التصفح الخاص" لتجنب تتبع المواقع لنشاطك. 
    • فعّل المصادقة الثنائية (2FA) لحساباتك المهمة على الإنترنت.
    • راجع أذونات التطبيقات بانتظام واحذف ما لا تحتاجه منها.
    • استخدم شبكة افتراضية خاصة (VPN) أو متصفحًا مشفرًا إذا كنت تستخدم شبكات عامة.

    هذه الخطوات بسيطة وستساعد في الحفاظ على بياناتك بعيدًا عن الاستخدام التجاري أو الاختراق.

  • التقييم الأخلاقي المستمر

    قبل إطلاق أي مشروع ذكاء اصطناعي، شكّل لجنة أخلاقية صغيرة تضم موظفين ومستخدمين، واجتمع معهم بشكل دوري. بعد الإطلاق أيضًا، يجب أن تكون هناك مراجعة دورية. استخدم نموذج تقييم بسيط يقيس تأثير التقنية على الإنسان والمجتمع، تمامًا كما نجري تقييمًا أمنيًا أو بيئيًا، وسجّل الملاحظات وحاول حل أي مشكلة تظهر بسرعة.

  • دعم موظفي المستقبل

    يمكن لكل شركة أو مؤسسة أن تقدم برامج إعادة تدريب للعاملين لاكتساب مهارات جديدة مرتبطة بالذكاء الاصطناعي، مثل دورات قصيرة في تحليل البيانات أو صيانة الأنظمة. كما يجب توفير منح دراسية أو حوافز مالية لمن يرغب في تعلم مجالات جديدة، بالإضافة إلى وسائل حماية اجتماعية في حال حدوث تسريح جماعي بسبب الأتمتة.

خلاصة القول هي أننا يجب أن نتعامل مع الذكاء الاصطناعي كأداة نستفيد منها، لا كوحش كاسر أو ملاك طاهر. تذكر أن من يتحكم في التكنولوجيا ليس الحاسوب أو الهاتف، بل نحن من يضع المبادئ والقوانين. ولكي نكون واقعيين، يجب أن نتشارك، ونسأل، ونعرف حقوقنا، وندفع المؤسسات للشعور بالمسؤولية. في النهاية، هل ستخدمنا التكنولوجيا أم ستتعبنا؟ القرار في أيدينا.

الأسئلة الشائعة (FAQ)

ماذا تعني أخلاقيات الذكاء الاصطناعي؟

أخلاقيات الذكاء الاصطناعي هي مجموعة من المبادئ والقواعد التي تهدف إلى ضمان استخدام التكنولوجيا بشكل آمن وعادل ومسؤول، مع الحفاظ على حقوق الإنسان وكرامته. تشمل هذه المبادئ الشفافية، والعدالة، وحماية الخصوصية، والمسؤولية، والحفاظ على البيئة.

كيف يمكنني حماية خصوصيتي من أنظمة الذكاء الاصطناعي؟

يمكنك حماية خصوصيتك عبر مراجعة أذونات التطبيقات بشكل دوري وحذف غير الضروري منها، واستخدام متصفحات آمنة ووضع التصفح الخفي، وتفعيل المصادقة الثنائية (2FA)، والاعتماد على شبكات VPN المشفرة عند استخدام الواي فاي العام.

ما هي الأنظمة القابلة للتفسير (Explainable AI) ولماذا هي مهمة؟

الأنظمة القابلة للتفسير هي خوارزميات وتقنيات تمكن المستخدمين والمراقبين من فهم كيفية اتخاذ نماذج الذكاء الاصطناعي لقراراتها. هذه الشفافية ضرورية لتجنب «الصندوق الأسود»، واكتشاف التحيزات أو الأخطاء وضمان موثوقية النتائج.

كيف أستفيد من مبادئ اليونسكو وOECD وميثاق أسيلومار؟

يمكنك الاستفادة من الأدوات والتقييمات التي توفرها اليونسكو وOECD وIEEE، مثل أداة تقييم الأثر الأخلاقي (Ethical Impact Assessment) ومعايير P7000™ من IEEE، وتنظيم خوارزمياتك وبياناتك وفقًا لهذه المعايير، ومتابعة التحديثات الدورية التي تصدرها هذه المؤسسات.

About the author

حسام السعود
في موبتك، نوفر لك شروحات ودروساً عملية في الذكاء الاصطناعي وتطبيقاته التقنية. أهلاً بك فى مدونة موبتك

إرسال تعليق