من اختبار تورنغ لذكاء المحولات: رحلة تطور الذكاء الاصطناعى

رحلة تطور الذكاء الاصطناعي: من أفكار قديمة لحواسيب أولى، لخوارزميات وشتاء الذكاء، لتعلم الآلة والتعلم العميق، لحد انفجار النماذج اللغوية والمحولات.

موضوع تطور الذكاء الاصطناعى قصة طويلة وممتعة مليانة فصول: من أفكار الفلاسفة في العصور القديمة، لعصر الحواسيب الأولى في أربعينات وخمسينات القرن الماضي، لظهور خوارزميات الرموز والأنظمة الخبيرة، مرورًا بفصول فصول “شتاء الذكاء” وعودة الحركة في التسعينات بفضل «تعلم الآلة» و«التعلم العميق»، لحد الانفجار الأخير مع نماذج اللغات الضخمة والتحوّلات المعمارية زي «الترانسفورمر». هنعرف في المقال ده إزاي وصلنا من أول فكرة لـ«آلة تفكير» لحد ما بقينا بنحكي مع شات بوت ويوصفلنا صور وكأننا بنتكلم مع صحابنا.

من «اختبار تورنغ» لذكاء المحولات: رحلة تطور الذكاء الاصطناعى
من «اختبار تورنغ» لذكاء المحولات: رحلة تطور الذكاء الاصطناعى

أصول الفكرة وأولى المحاولات

في سنة 1950 ميلادية، آلان تورنغ كتب ورقته الشهيرة “Computing Machinery and Intelligence” وطرح فيها فكرة “اختبار تورنغ” كطريقة عملية نسأل بيها “هل الآلة بتفكر فعلًا؟”

تورينج بدأ بيه “لعبة التقليد” اللي فيها محاور بيرسل أسئلة لشخص وآلة متنكرين، وبيحاول يميز بينهم عن طريق النص بس، وده كان تحول جوهري في التفكير عن AI.

وبنفس الفترة تقريبًا، في أربعينات القرن الماضي، ظهر أول حاسوب إلكتروني حقيقي ENIAC أو (Electronic Numerical Integrator and Computer) في بنسلفانيا، وجاهز للاستخدام بديسمبر سنة 1945 علشان يحسب جداول مدافع الأسلحة للجيش الأمريكي.

ENIAC كان عبارة عن شبكة ضخمة من الصمامات المفرغة Vacuum Tubes، قدرت تنجز آلاف العمليات الحسابية في الثانية، واعتُبر ثورة في سرعة الحوسبة.

الغريب إن ما كانش فيه ذخيرة داخلية Programs stored in memory؛ كان بيحتاج توصيلات وكابلات تتبادل مكانها عشان تبرمجه لكل مهمة جديدة.

بالناحية التانية من العالم، في ألمانيا، كونراد زوزه بنى الZ3 وقدمها للعالم في 10 مايو سنة 1941 كأول حاسوب برمجي قابل للبرمجة بالكامل ومستقل، قائم على الريليهات الميكانيكية Relays.

الZ3 نفذ العمليات الحسابية بنظام النقطة العائمة Floating Point، وكان قابل للبرمجة عن طريق شريط مثقوب Punched Tape، وده خلى الناس تسميه “الحاسوب الحقيقي الأول”.

مع إنه اتحرق في قصف برلين في سنة 1943، زوزه أعاد بنائه فيما بعد replica وقدموه للعرض في متحف ميونخ، وده بيأكد مدى أهميته التاريخية.

عصر الذكاء الرمزي والأنظمة الخبيرة

خلينا نكون واقعيين، الستينات كانت فترة “يلا نفكر بالرموز”—يعني بدل ما ندي الحاسوب أرقام وبس، ندي له قواعد ويحاول يستنتج زي الإنسان شوية.

أول لعبه كبيرة دخلها الذكاء الاصطناعى الرمزي كانت مع “Logic Theorist” اللي نفّذها نيويل وسيمون سنة 1955، وكان بيحلّل النظريات الرياضية زي ما إحنا بنحل ألغاز Sudoko.

  • تمثيل المعرفة: الباحثين في الوقت ده كانوا بيكتبوا “حقائق” و”قواعد” بلغة تشبه الكلام (IF–THEN)، زي “لو المريض عنده حرارة عالية وبيعرق، ممكن يكون فيه عدوى”.
  • أنظمة خبيرة: في السبعينات طلع MYCIN، نظام خبير بياخد الأعراض وبيحدد احتمالية نوع العدوى في الدم، لدرجة إنه كان بيشخّص أخطاء كان ممكن الطبيب يغلط فيها.
  • المميزات: دقة عالية في مشاكل محددة، وسرعة استنتاج رهيبة بدل المستندات الورقية اللي كانت بتتاخر
  • العيوب: الرمز محتاج تحديث مستمر، يعني لو قاعدة “إذا الضغط قلّ عن كذا” اتغيرت، لازم نمسح ونكتبها من الأول.

الموضوع باختصار كان إزاي نخلي الحاسوب “يفهم” قواعد بسيطة ويحلل بيها مشكلات دقيقة، لكن لو طلعنا من الصندوق—مجرد أكواد منطقية—لقينا ده بيعوق الابتكار، لأنه صعب يواكب التغيرات الكتيرة في الحياة الواقعية.

بس ما تغلطش، الأساس ده هو اللي فتح الباب لأجهزة بعد كده تعتمد على بيانات وتعلم من التجربة بدل القواعد الثابتة بس.

شتاء الذكاء الاصطناعى والضغط المالي

بعد الثورة الكبيرة في الستينات والسبعينات، التفاؤل زاد لكنه اتصادم مع الواقع التقني والمالي، وبدأت علامات الإحباط تبان:

  • في سبعينات القرن العشرين، نُشر تقرير ليثويل (“Lighthill Report”) سنة 1973 اللي انتقد بحوث الذكاء الاصطناعى ووصفها بإنها ما طلعتش زي ما اتوقعوا، وده دفع الحكومة البريطانية توقف تمويلها للمشروعات البحثية في المجال.
  • في نفس الفترة، الكونغرس الأمريكي قلل التمويل ل (Defense Advanced Research Projects Agency) أو DARPA وهي وكالة مشاريع الأبحاث الدفاعية المتقدمة التابعة لوزارة الدفاع الأمريكية (DoD) بعد ما لاحظ إن الأنظمة الخبيرة مش قادرة تحقق الوعود الضخمة اللي اتكلموا عنها علماء الرموز؛ التمويل انخفض بشكل ملحوظ من حوالي 85 مليون دولار في أوائل السبعينات لأقل من 20 مليون دولار قبل سنة 1980.
  • النتيجة كانت انخفاض عدد الأبحاث والمنشورات، وكمان إغلاق بعض المختبرات الجامعية اللي كانت معتمدة على دعم حكومي ثابت، وده خلق فجوة كبيرة في تطور الذكاء الاصطناعى بين سنة 1974 و 1980، وهو ما سٌمّي ب “شتاء الذكاء الاصطناعى”.

الدراسات بتوضح إن الانخفاض ده ما كانش نتيجة عامل واحد بس، لكن تراكم عوامل:

  • محدودية الحوسبة: قدرات الأجهزة كانت لسة ضعيفة مقارنة بحجم البيانات وتعقيد النماذج اللى اتعملت عليها.
  • وعود غير واقعية: توقعات علماء الذكاء الرمزي اتجاوزت الإمكانيات التقنية، والبرمجيات اللي بنوها كانت بتعالج حالات مبسطة فقط.
  • تغير أولويات التمويل: الحكومات بدأت تحوّل الاستثمارات لمشروعات أمنية واجتماعية ثانية، وقللوا من دعم البحوث الأكاديمية في AI.

خلال الفترة دي، معظم الباحثين اتجهوا لمجالات تانية زي قواعد البيانات واللغات البرمجية، لكن غير كده ظهر جيل جديد من الأنظمة الخبيرة في الثمانينات بتمويل متجدد، وده مهّد لعودة النشاط في مجال الذكاء الاصطناعى بعدها بسنين قليلة.

بزوغ عصر تعلم الآلة والتعلم العميق

في أواخر التسعينات وأول الألفينات، حصل “انفجار” حقيقي بسبب زيادة قوة الحواسيب وظهور بحر من البيانات اللي بيُطلق عليه “Big Data”، وده خلي الباحثين يستخدموا الذكاء الاصطناعى في مهام أبسط في الأول لكنها مهمة جداً زي تصنيف الصور والتعرف على الكلام.

تعلم الآلة اتطور من خوارزميات بسيطة زي الانحدار اللوجستي وشجر القرار في التسعينات لغاية ما ظهرت أساليب متقدمة أكتر زي الغابات العشوائية والـBoosting اللي بتجمع قرارات نماذج صغيرة مع بعض عشان تدي نتيجة أقوى وأدق.

لكن القفزة اللي خلت الكل يبص لـ“التعلم العميق” بتركيز أكتر كانت سنة 2012، يوم ما شبكات عصبية تلافيفية (CNNs) زي AlexNet اللي طوّروها كريجيفسكي وهينتون بتنافس في مسابقة ImageNet وبقت تحقق دقة أعلى بشكل كبير عن أي حاجة قبلها (خطأ تصنيف حوالى 15٪ بدل 26٪).

الأسرار ورا نجاح AlexNet كانت:

  • استخدام معالجات GPU لتسريع التدريب على ملايين الصور.
  • اعتماد دوال تنشيط ReLU اللي بتسرّع عملية التعلم وتقلل من مشكلة التشبع.
  • تقنيات Dropout لتجنب فرط الملائمة (“overfitting”) وتحسين التعميم.

ومن ساعتها والتعلم العميق اتطبق في مجالات تانية جامدة زي:

  • فهم الكلام وتحويله لنصوص في تطبيقات المساعدين الصوتيين.
  • تشخيص الأمراض من الأشعة الطبية بأدق من الطبيب في بعض الحالات.
  • التكهن بسلوك المستخدم على السوشيال ميديا وتحسين التخصيص.

التعلم العميق بقى قائم على موديلات ضخمة—LLMs زي GPT-3 وBERT—اللي بتتعلم من مليارات الكلمات وتقدر تولّد نصوص مفهومة ومتناسقة، وفرعها الجديد “الذكاء التوليدي” Generative AI قلب الدنيا في سنة 2022 لما ChatGPT ظهر للعالم.

خلينا نقول إن الفترة دي كانت بمثابة “الولادة التانية” لـالذكاء الاصطناعى، لأن المرة الأولى مع الرموز والأنظمة الخبيرة لم تخلي الذكاء الاصطناعى مرن كفاية، لكن الآن بقى في إمكانيات غير محدودة تقريبًا.

طفرة المحولات ونماذج اللغات الضخمة

في سنة 2017، اتبلورت ورقة “Attention Is All You Need” اللي اقترحها فريق من جوجل اسمه Google Brain، وغيّرت خريطة الذكاء الاصطناعى بالكامل بفرض فكرة “الشبكات المعتمدة على الانتباه” دون حاجة للتكرار أو الالتفاف. الفكرة البسيطة- ومع ذلك القوية- كانت إن كل كلمة في جملة بتقدر تركّز على الكلمات التانية حسب أهميتها بدلاً من المرور على الكلمات بشكل تسلسلي.

الميزة الجوهرية كانت “Attention Mechanism” اللي بتوزع القوة على أجزاء الجملة بشكل ديناميكي، وفكّت عُقد الزمن الطويل dependency اللي كان بيعاني منه RNNs التقليديين.

الشغل ده كان بداية لولادة “المحولات” Transformers كأساس لنماذج لغوية ضخمة زي BERT اللي طلعته جوجل في سنة 2018 زي BERT اللي بينفّذ الفهم الثنائي الاتجاه Contextual Understanding بشكل فذ.

وبعدها ببُقعة بسيطة، ظهرت GPT في أول نسخة ليها GPT-1 على يد OpenAI، ثم GPT-2 دفعة أكبر في سنة 2019، وأخيرا GPT-3 العاملة على مليارات العناصر وخلق جيل جديد من الأنظمة التوليدية Generative AI اللي بتقدر تكتب لك مقالات وترد على استفسارات وكأنك بتتكلم مع إنسان حي.

ومع نزول ChatGPT في أوائل سنة 2022، انتشر الذهول بين الناس: فجأة بقى فيه بوت فاهم السؤال والسياق ومتفاعل معاك زي صاحبي في القعدة، ومش بس بيعطيك إجابات، لكن كمان بيشتغل كـ“زميل” في الكتابة والترجمة والتفكير الإبداعي.

من هنا، العالم اتجه بقوة لـ “الذكاء التوليدي” Generative AI، واللي بقى بيستخدم نفس فكرة المحولات في تطبيقات متنوعة؛ من توليد الصور والفيديو (زي DALL·E وStable Diffusion)، للتصميمات والألعاب وحتى البرمجة الأوتوماتيكيّة بواسطة GitHub Copilot.

بصراحة، طفرة المحولات هي الترند اللي حقق الانفجار الحالي في الذكاء الاصطناعى، ومع التطور المستمر في المحولات الكبيرة ودمجها مع تقنيات جديدة، المستقبل مبشّر بإمكانيات ما كناش نحلم بيها زمان.

ايه التحديات اللي ممكن نواجهها؟

قبل ما نفرح ونقول “خلصنا!”، لازم نكون واقعيين لأن فيه تحديات حقيقية لازم نواجهها.

- تحيّز النماذج (Model Bias)

الذكاء الاصطناعى بيعتمد على بيانات التدريب، ولما تكون البيانات متحيزة، النماذج بتتعلم وتحاكي التحيّز ده وتكرّره في القرارات.

مثال عملي: أنظمة التعرف على الوجوه بتعاني في تمييز بشرة داكنة بسبب نصاب تدريب أقل، وده مأثر سلبًا في تطبيقات السلامة والأمن.

- تسريب البيانات وحمايتها (Data Leakage & Privacy)

مع توسع استخدام AI في تحليل البيانات الشخصية، مخاطر تسرب أو اختراق البيانات بتزيد— hackers ممكن يستغلوا الثغرات في نماذج الـAI ويسرقوا معلومات حساسة.

تقارير حديثة بتكشف عن استغلال “flowbreaking exploits” في تطبيقات توليد المحتوى لتسريب بيانات الشركات داخليًا، وده بيضر الثقة ويهدد الأعمال.

- خطر الأتمتة على الشغل (Job Automation Risks)

التقنيات الذكية بتقدر تؤدي مهام كانت محتاجة موظفين، وده ممكن يسبب خساير وظيفية—منذ عام 2000، خسرنا حوالي مليون ونصف وظيفة في التصنيع بسبب الأتمتة.

ولكن في نفس الوقت، بنتوقع إنشاء ملايين وظائف جديدة في مجالات صيانة وتوجيه الأنظمة—المعادلة مش صفرية، لكن لازم نجهز القوى العاملة للانتقال.

- الحوكمة والأخلاقيات (Governance & Ethics)

نقاش AGI (الذكاء العام) لسة مستمر: هل هيصبح ممكن قبل نهاية القرن ولا لأ؟ ومعاه بنحتاج أطر حوكمة دولية صلبة عشان نضمن سلامة التطوير.

مجموعة من الخبراء زي مِجموعة “Singularity Net” وNIST بيقدموا أطر لإدارة مخاطر AI، ومنها NIST AI RMF اللي بيركز على الموثوقية والخصوصية والأمان.

- الأمان والسلامة (Safety & Security)

الذكاء التوليدي قدر يولّد محتوى واقعي وحقيقي، لكن برضه قدر يخلق “deepfakes” وأكاذيب مُضللة—لازم نطوّر آليات كشف وتوثيق.

وأطر أخرى زي EDSAFE AI Alliance بتركّز على مبادئ العدالة والشفافية والإنصاف للتقليل من الضرر المحتمل.

آفاق مستقبلية

المستقبل واعد لدمج الذكاء الاصطناعى في مجالات زي الطب الشخصي، حيث هتلاقي الدكاترة الرقميين بيستخدموا بياناتك الجينية وتاريخك الصحي عشان يختاروا لك أنسب أدوية والجرعات المثالية، وكمان يتنبؤوا بالمخاطر الصحية قبل ما تظهر الأعراض. 

مثال بسيط: جهاز بيحلل عينتك ويقولك “خطر السكري عالي عندك في السنين الجاية”، فتقدر تغير نظامك الغذائي بدري وتقلل مخاطر المرض.

في الزراعة الذكية، هتشوف مزارع أوتوماتيكية مجهزة بأجهزة استشعار وإنترنت الأشياء، بتجمع بيانات عن رطوبة التربة ودرجة الحرارة وجودة الهواء، والـAI بيحللها لحظيًا ويقرر “اروي دلوقتي” أو “اضبط السماد”. 

النتيجة: محاصيل أكثر وموارد أقل ضياع، وكأن الأرض بقت بتتكلم معانا.

وبالنسبة للتعليم التفاعلي، منصات الذكاء الاصطناعى هتتعلم من أداء كل طالب وتقدم له دروس تفصيلية تناسب نقاط قوته وتساعده في نقاط ضعفه، يعني مش تحضر درس واحد للجميع، لكن كل طالب يدخل النظام يلاقي محتوى مصمم له بالظبط وبسرعته الخاصة. كمان هيساعد المعلمين يعرفوا فين محتاجين دعم إضافي أو توجيه أكتر.

بس بالطبع لازم نعالج القضايا التنظيمية والأخلاقية؛ أطر حوكمة AI زي NIST AI RMF وOECD AI Principles بتطرح مبادئ واضحة للشفافية والعدالة وحماية البيانات، ولازم الحكومات والمؤسسات تطبقها فعليًا. يعني قبل ما تنزل أي نظام ذكي، لازم يكون عنده مراجعة قانونية وأخلاقية تضمن إن خصوصيتك وسلامتك محمية.

الشراكة بين الحكومات والمؤسسات البحثية والشركات هتكون مفتاح النجاح؛ التعاون ده هيمكننا نطور سياسات وقوانين صارمة لأطر الحوكمة، ويوفر تمويل للبحوث المسؤولة، ويشجع إنشاء مختبرات مستقلة تختبر نماذج AI قبل إطلاقها. كمان لو حصلت أخطاء أو تجاوزات، لازم يبقى فيه آليات مساءلة واضحة تتحكم في منتهكي القواعد.

في النهاية، المستقبل بينادي إن الذكاء الاصطناعى يشتغل معانا في الطب والزراعة والتعليم وكل قطاع يلمسه، بس لازم يكون التطور دايمًا مراقب بعناية وتحت رقابة أخلاقية وتقنية، عشان التقنية تخدم البشر مش العكس.

خلاصة الرحلة

من الأساس النظري لـتورينج، للذكاء الرمزي، وشتايات التمويل، لتعلم الآلة، للتعلم العميق، لحد نماذج المحولات والجيل الرابع من الشات بوتات—رحلة الذكاء الاصطناعى مشوار طويل وعجيب. المهم نعرف أصل الرحلة ونفهم تحدياتها عشان نقدر نشارك في صياغة مستقبلنا التكنولوجي مع بعض، ونخلي التقنية دي في صالحنا مش ضدنا.

About the author

حسام السعود
في موبتك، بنقربلك عالم التقنية بمحتوى بسيط، سريع، وسهل تفهمه. هنساعدك تتابع الجديد وتختار الأنسب ليك، أيًا كان اهتمامك التقني. أهلاً بك فى مدونة موبتك

Post a Comment