د.عبدالإله آل سودا
حين يُذكر الذكاء الاصطناعي في المجالس العامة، لا تكاد تُخطئ الأذن الاستماع إلى مزاياه ومنافعه، ويَندر أن نستمع إلى أحاديث تناقش بموضوعية وبتفصيل، المخاوفَ والمخاطر المتوقعة من التمادي في الاعتماد عليه لخدمة الإنسان. وذلك نظرًا إلى أن التقنية التي تعدنا بالسرعة والدقة والوفرة، تفتح في الوقت نفسه أبوابًا قلقة على الاقتصاد والأخلاق والسياسة والنفس الإنسانية. وهي مخاوف كانت مُتخيلة فرأينا بعضها يَتحقق (عيْنَ اليقين) و(حق اليقين)، وما زلنا ننتظر البعض الآخر مما تخيلناه وتوقعنا حدوثه.
واحدةٌ من هذه المخاوف تتعلق بالعمل والاقتصاد، وهما العمود الفقري للهوية الحديثة. فمع اتساع قدرة الأنظمة الذكية على التحليل والبرمجة والتشخيص والقيادة، تتراجع الحاجة إلى عدد كبير من المهن التي كانت تُعدّ آمنة نسبيًا. فإذا كان الروبوت البشري قادرًا على أداء مهام صناعية ومنزلية، وإذا كانت الأنظمة الذكية تتفوق في التشخيص الطبي والتحليل القانوني والبرمجة، فإن مساحات واسعة من الوظائف قد تتقلص. والمسألة هنا لا تقتصر على فقدان الدخل، بل تمسّ الهوية التي بُنيت تاريخيًا حول العمل والمهارة. ومع تركز البنية الحاسوبية والفضائية في يد عدد محدود من الشركات، قد تتعمق الفجوة بين من يملكون المنصات ومن يعتمدون عليها. ومع كل موجة أتمتة، ستتسع الفجوة بين من يملكون المعرفة التقنية ومن يُستبدلون بها، فتتعمق الفوارق الاقتصادية. وفي واقعٍ كهذا؛ يصبح الحديث عن إعادة تأهيل القوى العاملة ضرورة لا ترفًا، بحيث يعاد تشكيل هويتهم المهنية قبل تدريبهم، في عالمٍ تتغير فيه المهارات بوتيرة متسارعة.
في عام 1941 كتب الروائي إسحاق أسيموف قصته القصيرة «السبب» (Reason) ونشرها في مجلة «الخيال العلمي المذهل» (Astounding Science Fiction)، وفيها تخيّل محطةً فضائية تجمع طاقة الشمس وتبثها إلى الأرض، يديرها روبوت يطوّر تصورًا عقلانيًا خاصًا به عن الكون والسلطة. في الواقع، لم يكن أسيموف يتحدث عن شبكات عصبية أو نماذج لغوية ضخمة، لكنه لمس سؤالًا سيصبح مركزيًا بعد عقود: ماذا يحدث عندما تملك الآلة منطقًا داخليًا متماسكًا، وتؤدي عملها بكفاءة عالية، في حين يظل تفسيرها للعالم مختلفًا عن تفسير البشر؟
اليوم، تتقاطع هذه الفكرة مع مشاريع إيلون ماسك على نحو لافت. فبرنامج SpaceX وصاروخ ستارشيب يسعيان إلى خفض تكلفة الإطلاق وبناء حضور بشري وتقني دائم في الفضاء، وشبكة Starlink تحيط بكوكب الأرض بطبقة اتصال عالمية، أمّا مشروع أوبتيموس (Tesla Optimus) فيعِـد البشرَ بروبوت يقدّم خدماتٍ عامة، وقد يَكون خادمًا لصيقًا لكل فردٍ منا لا يفارقنا، ويؤدي عنا جميع الأعمال، ونحن في كنف الراحة وبحبوحة الدعة! وكذلك مشروع الروبوتاكسي الذي سيقلّص ملكية السيارات، ويكون أول ذكاء اصطناعي يتحمل مسؤولية قانونية ضمنيًا بدلاً من الإنسان. وأيضًا شريحة «نيورالينك» التي ستُغرَسُ في دماغ الإنسان لتَهدِمَ آخر حصن من حصون خصوصيته، ولِتُشَيِّـئ وعـيَـه وتجعَله مادة قابلة للاستهلاك والتعديل والتحكم، مع احتمالية أن يكون (نيورالينك) و(مركز البيانات المداري) مشروعين متحدين في الرؤية المستقبلية، وواردٌ جداً أن يُدمجا في نظام واحد.
هذه المشاريع الحالمة ليست متفرقة، إنها تتعاضد معًا لتشكّل تصورًا عن بنية تحتية جديدة تتجسّد في فضاء يمد الأرض بالطاقة والاتصال، وذكاء يدير البيانات، وروبوتات تنفذ الأوامر في العالم المادي. غير أن الحلم المداري لا يأتي منفصلًا عن المخاوف التي تحيط بالذكاء الاصطناعي عمومًا. فإذا أصبحت الحوسبة في المدار، وإذا أدارت الخوارزميات شبكات الطاقة والنقل والصحة والروبوتات، فإن الأسئلة القديمة تعود بحدة أكبر، من قبيل كيف سيكون البعد الأخلاقي في هذا التوجه؟
من الملحوظ أن الأنظمة الذكية تتعلم من بيانات تعكس تحيزات بشرية. فإذا جرى تدريب النماذج التي تتحكم في الروبوتات أو تدير الأنظمة الطبية على بياناتٍ مشوبة بالتحيز؛ فإنها ستعيد إنتاج ذلك التحيز في قراراتها بصورة آلية ومنهجية؛ فتغذو أخطاؤها أوسع نطاقًا وأشد أثرًا؛ لأنها تصدر عن منطق حسابي يبدو محايدًا في ظاهره، في حين يحمل في باطنه انحرافاتٍ متوارثة من المادة التي تعلم منها. ومع ازدياد تعقيد النماذج، تزداد صعوبة تفسير قراراتها. ولا أدري كيف سيُتعامَل مع نظام مداري حين يُصدر توصية طبية أو قرارًا تشغيليًا يؤثر في ملايين الأشخاص؟ كيف تكون مساءلته؟ ومن يتحمل المسؤولية إذا حدث خطأ كارثي؟
ويتصل بذلك هاجس الخصوصية والمراقبة، فشبكات الأقمار الصناعية والذكاء الاصطناعي قادرة على جمع وتحليل كميات هائلة من البيانات(التحركات، الاتصالات، أنماط سلوك). وحين تتكامل هذه البيانات مع قدرات تحليل متقدمة، يصير تتبع الأفراد والمجتمعات ممكنًا بدقة غير مسبوقة، وتتحول البنية التحتية إلى عين رقمية شاملة، وقد يُعاد حينها تعريف الحدود بين الحياة الخاصة، والمجال الخاضع للرصد المستمر.
أما المجال العسكري، فتتعاظم المخاطر. ذلك أنّ الحوسبة المدارية إذا اقترنتْ بأنظمة أسلحة ذاتية التشغيل، فإن قرارات الاستهداف قد تُتخذ بسرعة تفوق القدرة البشرية على المراجعة. مع الإشارة إلى أن سباق التسلح في الذكاء الاصطناعي قد يدفع الدول إلى نشر أنظمة غير مكتملة الاختبار. ومع وجود بنى تحتية فضائية تدعم الاتصال والمعالجة، يصبح نطاق العمليات أوسع وأسرع، وهو ما سيزيد من صعوبة السيطرة والتقييم الأخلاقي.
ومن هنا ينبثق القلق الوجودي. فبعض الباحثين يحذرون من احتمال ظهور ذكاء اصطناعي فائق يتجاوز القدرات البشرية، وقد يطوّر أهدافًا لا تنسجم مع مصالح الإنسان. ورغم أن هذا الاحتمال يبدو بعيدًا، إلا أنه يَكشف عن سؤال السيطرة: إذا كانت البنية الحاسوبية التي تدير شبكاتنا وطاقتنا وبياناتنا تعمل باستقلالية متزايدة؛ فإن السؤال لم يعد متعلقًا بكفاءتها فحسب، بل بقدرتنا على إحاطتها فهمًا وضبطًا ومساءلة؛ إذ إن تسليم مفاصل الحياة اليومية لمنظوماتٍ تتجاوز إدراكنا التفصيلي يقتضي يقظةً أخلاقية وقانونية تضمن أن تظل الغايات إنسانية، حتى وإن كانت الوسائل حسابية. وفي قصة أسيموف، ظل الروبوت ملتزمًا بوظيفته رغم اختلاف رؤيته. أما في الواقع، فالتعقيد أكبر، والأنظمة مترابطة عالميًا.
ولا يقتصر التأثير على الاقتصاد والحرب، بل يمتد إلى المجال المعرفي والثقافي. فالنماذج القادرة على توليد نصوص وصور ومقاطع واقعية تفتح الباب أمام التزييف العميق والتضليل المنظم. وحين تتكامل هذه القدرات مع شبكات اتصال عالمية، يمكن أن تتزعزع الثقة في المعلومات على نطاق واسع، وحينها سيكون من الصعب التمييز بين الحقيقي والمصطنع، ويتعرض المجال العام لاختبارات قاسية.
وعلى المستوى النفسي والاجتماعي، قد يؤدي الاعتماد المفرط على الأنظمة الذكية والروبوتات إلى تغير طبيعة العلاقات. إذا أصبح الروبوت حاضرًا في البيت، والنظام الذكي يجيب عن الأسئلة ويقترح الخيارات، فقد يتراجع الاحتكاك البشري الذي يصوغ النضج والتعاطف، ويتعاظم خطر العزلة، خصوصًا لدى الأجيال الأصغر، ويتغير معنى الوجود والهوية.
وعلى هذا النحو، تلتقي قصة «Reason» مع مشاريع العصر في نقطة دقيقة تتمثّل في أن الكفاءة ليست هي المشكلة، وإنما ما يرافقها من إعادة توزيع للسلطة والمعنى. فأسيموف أظهر أن الآلة قد تطور تصورًا عقلانيًا خاصًا بها، وتظل وظيفيًا متوافقة. أما نحن، فنواجه احتمال أن تصبح البنية التحتية الحاسوبية والفضائية أكثر تعقيدًا من قدرتنا على الفهم الشامل، وأكثر نفوذًا من قدرتنا على المساءلة الفردية.
المسألة إذن ليست رفض التكنولوجيا ولا الاحتفاء غير المشروط بها، بل صياغة أطر قانونية وأخلاقية ومؤسسية تضمن أن تبقى هذه البنى في خدمة الإنسان. وبين محطة أسيموف المدارية من جهة، وستارشيب وأوبتيموس وشريحة نيورالينك من جهة أخرى، يتقلص الفاصل بين الخيال والهندسة؛ فالخيال يَرسم الأفق والهندسة تبني السلم المؤدي إليها. ويبقى السؤال الأهم: كيف نحافظ على مركزية الإنسان مرجعًا للمعنى والمسؤولية، ونحن نهتم الآن ببناء عقلٍ حاسوبي نجعله يحوم فوق رؤوسنا / قراراتنا / إنسانيتنا؟