أخلاقيات الذكاء الاصطناعى: عيش بأمان في حياتك الرقمية

دليلك لفهم أخلاقيات الذكاء الاصطناعى وحوكمة استخدامه بشكل عملي ومسؤول، مع نصائح لحماية خصوصيتك وتعزيز الشفافية.

محدش يقدر ينكر إن الذكاء الاصطناعى بقى حوالينا في كل حتة وإحنا مش واخدين بالنا، وبعد ما بقينا بنستخدمه في شغلنا، تعليم أولادنا، ومشروعاتنا الصغيرة، خلينا نكون واقعيين لازم نعرف ناخد خطوة ونسأل نفسنا: هو الذكاء الاصطناعى ده صحياً أخلاقي؟ وعشان نجاوب على السؤال ده، هنتكلم عن المبادئ العالمية اللي اتحطت عشان تحافظ على حقوقنا وتضمن إن التكنولوجيا دي تخدمنا بدل ما تضيعنا في متاهات خصوصيتنا وحقوقنا الإنسانية.

أخلاقيات الذكاء الاصطناعى: عيش بأمان في حياتك الرقمية
أخلاقيات الذكاء الاصطناعى: عيش بأمان في حياتك الرقمية

ليه نسأل عن أخلاقيات الذكاء الاصطناعى؟

بصراحة الموضوع ده مش هزار، الذكاء الاصطناعى دخل حياتنا بيقى بيستخدم بياناتنا وبيشتغل في قرارات ممكن تغير وجهات نظرنا وحياتنا اليومية، وعلشان كده لازم نفهم أربعة جوانب مهمة ونكون عارفين إيه المخاطر وإزاي نقدر نتحكم فيها.

خصوصيتك

خلينا نكون واقعيين، كل تطبيق أو موقع بيجيله رادار الذكاء الاصطناعى على بياناتك، وبيجمعها عشان يحسن خدماته أو يبيعها للغير وده بيشمل معلومات عن تحركاتك على النت، مشترياتك، وحتى مكانك الحالي أوقات كتير من غير علمك في قوانين زي GDPR وCCPA بتحاول تضبط الموضوع ده، لكنها مش كفاية لو الشركات مش ملتزمة فعلياً بتطبيق مبادئ خصوصية التصميم. 

العدل والشفافية

لو نظام الذكاء الاصطناعى بيحدد لك قرض أو بينقّح لمين ينقبل وظيفة، لازم يكون شفاف تعرف إيه المعايير اللي بيشتغل بيها المشكلة إن كتير من الخوارزميات “صندوق أسود” مش عارفين نشوف جوهرها وده بيخلي لو حصل ظلم يبقى مستحيل تعرف سبب القرار بالظبط لازم نطالب بنماذج قابلة للتفسير Explainable AI علشان الناس تفهم ليه جات النتيجة دي.

المسؤولية

لو حصل خطأ أو ظلم بسبب الذكاء الاصطناعى، مين هيتحاسب؟ مش الجهاز وهولا الكود، لازم يكون في هيكل مسؤولية قانوني واضح في مقالات بتتكلم عن “فجوة المسؤولية” لما يبقى صعب نربط الخطأ بمبرمج أو شركة معينة، وده بيخلّي الضحية مش عارفة ترفع قضية عشان كده الحكومات بقت بتدرس قوانين بتحط مبدأ “المسؤولية المباشرة” على مطوّر النظام أو المشغل بتاعه.

المستقبل الوظيفي

خلينا نكون واقعيين، الذكاء الاصطناعى هيغيّر شكل الشغل بشكل أو بآخر في تقرير للـ Forum بيقول إن حوالي أربعين في المية من الشركات ممكن تقلل موظفيها عشان الأتمتة، وفي نفس الوقت هيخلق فرص عمل جديدة الدراسات بتشير إن 75 مليون وظيفة ممكن تختفي بحلول 2025، لكن في 133 مليون وظيفة جديدة كمان هتظهر.

أهم المبادئ العالمية لحوكمةالذكاء الاصطناعى

توصية اليونيسكو عن أخلاقيات الذكاء الاصطناعى

اليونسكو اعتمدت توصية غير ملزمة في نوفمبر 2021 عشان تحط إطار وقيمي لحوكمة الذكاء الاصطناعى عالمياً، والهدف منها حماية حقوق الإنسان وكرامته مع ضمان شفافية ووضوح في استخدام التقنيات الذكية.

التوصية بتركز على خمس قيم أساسية: احترام حقوق الإنسان وكرامته، الشفافية في آليات اتخاذ القرار، المساءلة على النتائج، النزاهة في التصميم والتطوير، والاستدامة البيئية لمشاريع الذكاء الاصطناعى.

كمان طورت اليونسكو أداة تقييم الأثر الأخلاقي علشان المؤسسات تحلل خوارزمياتهم ويتأكدوا إنها متوافقة مع القيم دي ومعلومات التطوير متاحة للناس.

دليل Ethically Aligned Design من IEEE

جمعية IEEE أصدرت «Ethically Aligned Design» أول نسخة في 2016 ونسخة محدثة (v2) في 2017، بتهدف لفتح نقاش عام حول إزاي نطبق مبادئ أخلاقية واجتماعية في نظم الذكاء الاصطناعى وتحافظ على رفاهية الإنسان في سياقات ثقافية مختلفة.

الدليل ده شجّع إنشاء سلسلة معايير IEEE P7000™ اللي بتعالج قضايا اجتماعية وقانونية زي الشفافية، الخصوصية، ومسؤولية المطورين، وبقى فيه أكتر من ميتين وخمسين خبير من حوالين العالم يشتغلوا على ترشيحات وقواعد واضحة لمعيار EAD v2. 

كمان الـ IEEE بتصدر ملخص تنفيذي وثائق مفصلة لكل مشروع من P7000™ علشان تمكّن الحكومات والشركات من اعتماد نماذج قابلة للتفسير Explainable AI ومسارات للتدقيق المستمر.

مبادئ OECD للذكاء الاصطناعى

منظمة التعاون الاقتصادي والتنمية (OECD) أعتمدت مبادئ للذكاء الاصطناعى في 22 مايو سنة 2019، وده كان أول إطار دولي يضم مبادئ وقيم ملموسة لحكومات وشركات الذكاء الاصطناعى العالمية.

المبادئ القيمية الخمسة بتشمل: النمو الشامل والمستدام، احترام حقوق الإنسان والقيم الديمقراطية، الشفافية والقابلية للتفسير، الأمان والموثوقية، والمسؤولية القانونية والأخلاقية للحالات اللي فيها خطأ أو انحياز.

بالإضافة لقائمة توصيات خمس: تعزيز التعاون الدولي، اتباع نهج مستند للمخاطر، بناء القدرات الوطنية، تحسين حوكمة البيانات، ودعم الشمول الرقمي، وكل ده عشان يضمنوا إن تطبيق الذكاء الاصطناعى يوازن بين الابتكار وحماية المجتمع.

المبادئ دي قابلة للتحديث، والـ OECD نشرت نسخة منقحة مؤخراً بتتناول تحديات الذكاء الاصطناعى التوليدي والأنظمة العامة للذكاء الاصطناعى.

ميثاق Asilomar للذكاء الاصطناعى

ميثاق Asilomar انطلق من مؤتمر «Beneficial AI» في 30 يناير سنة 2017، واتفق عليه أكتر من 3700 باحث في الذكاء الاصطناعى والروبوتات كإطار إرشادي للتطوير الآمن والمفيد لـالذكاء الاصطناعى.

الميثاق بيضم 23 مبدأ، منهم ضمان أمان النماذج الأولية وتقييم المخاطر، والالتزام بقيم إنسانية زي الكرامة والخصوصية والحرية، وضرورة الإشراف البشري المستمر على الأنظمة الذكية.

بالإضافة لمبادئ تتعلق بالشفافية في البحث العلمي ونشر نتائج الأبحاث، ومنع سباق التسلح التكنولوجي بالذكاء الاصطناعى، والحفاظ على ثقافة التشارك والمسؤولية المشتركة بين الحكومات والمؤسسات والشركات الصغيرة.

التحديات اللي بنواجهها

  • التحيز والتمييز

    لما تكون البيانات مش ممثلة لكل شرائح المجتمع، الخوارزميات بتتعلم انماط منحازة سواء عنصرية أو جندرية أو اجتماعية وده بيظهر في أنظمة التوظيف والائتمان دراسات بتوري إن حتى من غير قصد، الغالبية من مطوري الأنظمة بينسوا يضيفوا تنوع كافي في بيانات التدريب، فالنظام بيركّز على التحيزات التاريخية ويعزّزها في تقارير من جهات مستقلة بينبهوا إن لازم مراقبة دورية وتدقيق خارجي عشان نتفادى التمييز الغير معلن.

  • الشفافية

    كتير من نظم الذكاء الاصطناعى شبيهة بـ“صندوق أسود”؛ بنحط بيانات في الآخر يطلع لنا قرار من غير ما نعرف ليه أو إزاي اتحسبت النتيجة غياب الشرح ده بيخلّي المساءلة شبه مستحيلة لو طلع القرار ظالم، ولازم نتجه لنماذج قابلة للتفسير Explainable AI عشان نفهم خطوات الخوارزمية.

  • الخصوصية

    البيانات الشخصية بتتجمع بكثافة من مواقع وتطبيقات بدون علم كامل من المستخدم، وده بيعرضنا لمخاطر سرقة أو استغلال معلومات حساسة مبادئ الخصوصية التقليدية زي تحديد الغرض واستخدام محدود اتعرضت للتحدي مع التوسع الكبير في جمع البيانات وتحليلها تقارير جامعات مرموقة بتنصح بوضع سياسات واضحة لحماية البيانات ومعايير حوكمة صارمة تتضمن موافقة صريحة ومتجددة من المستخدمين.

  • التأثير على الوظايف

    تقرير المنتدى الاقتصادي العالمي بيشير إن حوالي 40% من الشركات ناوية تقلص موظفين لما الأتمتة والذكاء الاصطناعى يساعدوا في تنفيذ مهام متكررة في نفس الوقت، مسح حديث في بريطانيا لمديرين أعمال لقى إن النتيجة العملية لسه بعيدة عن استبدال البشر، لأن معظم أدوات الذكاء الاصطناعى حالياً بتساند موظفين مش بتحل محلهم.

  • الاستدامة البيئية

    تدريب موديلات ضخمة بيستهلك طاقة هائلة وينتج غازات دفيئة بشكل كبير خصوصاً لو مراكز البيانات بتعتمد على مصادر طاقة غير متجددة كمان مراكز البيانات بتحتاج تبريد مستمر ومياه كثيرة لتفادي السخونة الزايدة، وده بتركيز الضغط على الموارد المائية في مناطق معينة باحثين في هارفارد قدموا مقترحات للاستعانة بمصادر طاقة متجددة وتصميم موديلات أخف وزن وأقل حاجة للطاقة عشان نقلل البصمة الكربونية.

إزاي نتعامل معاها بشكل بسيط وقريب من الناس

بصراحة مش هنقدر نوقف التقدم بتاع الذكاء الاصطناعى، بس ممكن نحطه تحت إدارتنا بإجراءات قريبة من حياتنا اليومية، من غير تعقيد ولا كلام رسمي كتير.

  • نشر الثقافة والمعرفة

    خليك دايمًا متابع فيديوهات قصيرة على يوتيوب أو إنستجرام تشرح ببساطة إزاي الذكاء الاصطناعى بيشتغل، وتشارك الناس قصص واقعية عن استخداماته ورش عمل بسيطة في الكليات والمدارس، حتى لو كانت ساعة أو ساعتين، ممكن تغير نظرة الناس وتخليهم يفهموا المصطلحات من غير ما يحسوا إنهم بيتعلموا مادة معقدة.

  • تطوير معايير شفافة

    الشركات ممكن تنشر كود بسيط على GitHub أو مدونة تقنية قصيرة تشرح منهجياتها في بناء الخوارزميات، وتعمل تقارير دورية للناس تبقى عارفا إيه الخطوات اللي اتاخدت وكمان تحط دليل مصغر للمستخدمين عن إزاي يقدروا يسألوا أو يقدموا ملاحظات لو حسوا بأي ظلم أو انحياز.

  • حماية البيانات

    خلي تطبيقك يستخدم تشفير من أول ما تجمع البيانات لحد ما تمسحها، ووضح للمستخدمين بشكل بسيط إزاي يحطوا إعدادات الخصوصية على جهازهم وكمان محتاجين قوانين تفرض غرامات مش بس مالية، كمان منع التعامل مع اللي بيشارك البيانات من غير موافقة واضحة وصريحة.

  • حماية الخصوصية بشكل عملي

    علّم المستخدمين إزاي يفعّلوا إعدادات “الخصوصية” في أجهزتهم وتطبيقاتهم:

    • استخدم “التصفح الخاص” لتجنب تتبع المواقع لنشاطك. 
    • فعّل المصادقة الثنائية (2FA) لحساباتك المهمة على الإنترنت.
    • راجع أذونات التطبيقات بانتظام واحذف اللي ما بتحتاجه.
    • استخدم VPN أو متصفح مُشفّر لو كنت على شبكات عامة.

    الخطوات دي بسيطة وهتحافظ على بياناتك بعيداً عن الاستخدام التجاري أو الاختراق.

  • التقييم الأخلاقي المستمر

    قبل إطلاق أي مشروع الذكاء الاصطناعى، اعمل لجنة أخلاقية صغيرة من موظفين ومستخدمين وتجتمع معاهم بشكل دوري، بعد الإطلاق كمان لازم يكون فيه مراجعة دورية استخدم نموذج تقييم بسيط يقيس تأثير التقنية على الإنسان والمجتمع زي ما بنعمل تقييم أمني أو تقييم بيئي، وسجّل الملاحظات وحاول تحل أي مشكلة تطلع بسرعة.

  • دعم موظفي المستقبل

    كل شركة أو مؤسسة ممكن تعمل برامج إعادة تدريب للعاملين علشان يكتسبوا مهارات جديدة مرتبطة بالذكاء الاصطناعى، زي دورات قصيرة في تحليل البيانات أو صيانة الأنظمة كمان لازم يكون فيه منح دراسية أو حوافز مالية للي عايز يتعلم مجالات جديدة، ووسائل حماية اجتماعية لو حصل فصل جماعي بسبب الأتمتة.

خلاصة الموضوع

الموضوع كله إننا نتعامل مع الذكاء الاصطناعى كأداة بنستفيد منها، مش وحش جامد أو ملاك طاهر خلي بالك إن اللي بيحكم التقنية مش هما اللاب توب ولا الموبايل، إحنا اللي نحط المبادئ والقوانين وعلشان نكون واقعيين لازم نشارك بعض، ونسأل، ونعرف حقوقنا، وندفع المؤسسات تحس بالمسؤولية وفي الآخر التكنولوجيا هي اللي هتخدمنا ولا هتتعبنا، وإحنا اللي بنقرر.

About the author

حسام السعود
في موبتك، بنقربلك عالم التقنية بمحتوى بسيط، سريع، وسهل تفهمه. هنساعدك تتابع الجديد وتختار الأنسب ليك، أيًا كان اهتمامك التقني. أهلاً بك فى مدونة موبتك

Post a Comment