د. عبدالحق عزوزي
تنظم هاته الأيام في نيودلهي قمة عالمية للذكاء الاصطناعي، تتناول قضايا تمتد من تأثير التكنولوجيا على سوق العمل إلى سلامة الأطفال، في وقت تتصاعد فيه المخاوف بشأن تداعيات الذكاء الاصطناعي على المجتمع والبيئة؛ وتُعد هذه النسخة رابع اجتماع دولي من نوعه، بعد قمم استضافتها كل من باريس وسيول وبليتشلي في المملكة المتحدة. وتتوقع الحكومة الهندية مشاركة نحو 250 ألف زائر، بينهم 20 زعيماً وطنياً و45 وفداً وزارياً، في أكبر نسخة تُعقد حتى الآن.. والذكاء الاصطناعي هو -قبل كل شيء- مبحث علمي تقني تتسارع البلدان للاستثمار فيه لأنه صار سلطة مؤثرة في تخليق أكبر الثروات في عالمنا المعاصر. والسؤال المطروح: هل يمكن وضع الذكاء الاصطناعي تحت السيطرة؟ الجواب صعب. وللتذكير، فإن الجمعية العامة للأمم المتحدة اعتمدت منذ مدة أول قرار أممي بشأن الذكاء الاصطناعي حيث حصل على دعم 123 دولة عضو في المنظمة الأممية حين اعتماده؛ وهذا القرار يعتبر خطوة تاريخية نحو وضع معايير دولية واضحة للذكاء الاصطناعي وتعزيز أنظمة آمنة وموثوقة لهذه التكنولوجيا؛ كما أن هذا النص الأممي الذي يحمل عنوان «اغتنام الفرص التي تتيحها أنظمة الذكاء الاصطناعي الآمنة والموثوقة من أجل التنمية المستدامة» يُبيّن الطريق التي يجب اتباعها في مجال الذكاء الاصطناعي بحيث يمكن لكل دولة اغتنام الفرص التي تتيحها هذه التكنولوجيا وتدبير مخاطر الذكاء الاصطناعي؛ كما يشدد على الحاجة إلى مواصلة المناقشات حول مناهج الحكامة الملائمة للذكاء الاصطناعي التي ترتكز على القانون الدولي.
واتفق تمام الاتفاق مع الدبلوماسي المغربي عمر هلال الذي قام بتقديم القرار في ندوة صحفية مع نظيرته الأمريكية السفيرة الممثلة الدائمة للولايات المتحدة لدى الأمم المتحدة،، عندما قال إن هذا القرار ليس غاية في حد ذاته، بل بداية مشروع جماعي لتشكيل أنظمة ذكاء اصطناعي آمنة وموثوقة؛ نعم إنها البداية لأن تطور الذكاء الاصطناعي يحدث بسرعة تفوق الخيال وتفوق كل القوانين وكل الحدود، ومكوناته وتشعباته تتعدى ما ألفه البشر في مجال الاختراعات والتكنولوجيا الحديثة؛ وهذا الكلام نجد له تفسيرا عندما نفهم الأسباب التي جعلت «عراب الذكاء الاصطناعي» البريطاني- الكندي جيفري هينتون يستقيل من غوغل في مايو/ أيار 2023، مبررا قراره بالقول إنه يريد «التحدث بحرية عن مخاطر الذكاء الاصطناعي».
وبالفعل، ففي خرجاته الإعلامية المتكررة، تحدث هينتون عن مخاطر الذكاء الاصطناعي والبطالة التكنولوجية، وسوء الاستخدام المتعمد لهذا الابتكار، من قبل جهات وصفها بـ»الخبيثة». وقال: «لقد وصلت إلى استنتاج بأن نوع الذكاء الذي نطوره يختلف كثيراً عن الذكاء الذي لدينا. نحن أنظمة بيولوجية وهذه أنظمة رقمية، والفرق الكبير أنه مع الأنظمة الرقمية لديك العديد من النسخ من ذات مجموعة الأوزان، ومن نموذج العالم ذاته». قبل أن يضيف: «جميع هذه النسخ تستطيع التعلم بشكل منفصل، لكنها تشارك معرفتها فوراً. فإن كان لديك 10 آلاف شخص، عندما يتعلم شخص واحد شيئا ما، سيعرفه الجميع تلقائياً. وهكذا يمكن أن تعرف روبوتات الدردشة أكثر من شخص واحد بكثير». وقال أيضا بأن الذكاء الاصطناعي «قد يتجاوز قريبا القدرة المعلوماتية للدماغ البشري»، ووصف بعض المخاطر التي تشكلها برامج الدردشة الآلية هذه بأنها «مخيفة للغاية».
ولهذا السبب تحاول اليوم العديد من الدول وضع تنظيمات لتطوير الذكاء الاصطناعي واستخدامه في المجال العسكري، محذرة من «عواقب غير مرغوب فيها» وأخرى متعلقة بـ «مسألة الانخراط البشري» إضافة إلى «انعدام الوضوح على صعيد المسؤولية» و»العواقب غير المقصودة المحتملة».
في الجامعة الأورومتوسطية بفاس، كنا من السباقين في خلق تكوينات عليا في مجال الذكاء الاصطناعي، وقد تخرج من هاته التكوينات العديد من المهندسين بعضهم يشتغل اليوم في كبريات الشركات العالمية؛ وخلق هاته التكوينات ينطلق من إيماننا بأن الجامعة، وإن كانت لها تخصصات متعددة، فإنها يجب أن تنجح في التموقع كقبلة في تكوين أجيال المستقبل في التخصصات التي ستفيد بلدانها وعلى رأسها الذكاء الاصطناعي، ولكن ما نفتأ ندافع عن مسلمة إنسانية وحضارية في هاته التكوينات مفادها أنه يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية، وأن مخاطرها ستكون تحت السيطرة.