أدوات الذكاء الاصطناعي الوكيلة تفرض مخاطر على الديمقراطية. فالأنظمة المدربة على التفكير والاستدلال والتصرف دون تدخل بشري من غير الممكن دوما الثقة في التزامها بالأوامر البشرية. ورغم أن التكنولوجيا لا تزال في مراحلها المبكرة، فإن النماذج الأولية الحالية أعطت بالفعل أسبابا كافيا للقلق. على سبيل المثال، وجدت الأبحاث...
كوبنهاجن ــ مع دخول أدوات الذكاء الاصطناعي إلى مزيد من مجالات حياتنا المهنية والشخصية، جاء الثناء على إمكاناتها مصحوبا بمخاوف بشأن الانحيازات المدمجة في بنيتها، وأوجه التفاوت التي تديمها، والكميات الهائلة التي تستهلكها من الطاقة والمياه. لكن تطورا آخر أشد ضررا يجري الآن: فمع نشر أدوات الذكاء الاصطناعي الوكيلة لحل المهام بشكل مستقل، سوف يُـفضي هذا إلى مخاطر جديدة عديدة، وخاصة المخاطر التي تهدد ديمقراطياتنا الهشة.
برغم أن المعلومات المضللة التي يولدها الذكاء الاصطناعي تمثل بالفعل مشكلة ضخمة، فإننا فشلنا في فهم هذه التكنولوجيا السريعة التطور، ناهيك عن السيطرة عليها. يتمثل جزء من المشكلة (في بعض أنحاء العالم أكثر من غيرها) في أن الشركات التي تروج لأدوات الذكاء الاصطناعي الوكيلة بذلت جهدا كبيرا لصرف انتباه المواطنين والمنظمين عن الأضرار المحتملة. ينبغي للمدافعين عن التكنولوجيات الأكثر أمانا وأخلاقية أن يساعدوا عامة الناس على فهم ماهية أدوات الذكاء الاصطناعي الوكيلة وكيفية عملها. آنئذ فقط يصبح بوسعنا أن ندير مناقشات مثمرة حول كيفية تأكيد البشر على درجة ما من السيطرة عليها.
لقد تطورت قدرات أدوات الذكاء الاصطناعي الوكيلة بالفعل إلى الحد الذي أصبحت معه قادرة على "التفكير"، والكتابة، والتحدث، والظهور بمظهر بشري ــ وبهذا تحقق ما يسميه مصطفى سليمان من ميكروسوفت للذكاء الاصطناعي "الذكاء الاصطناعي الواعي ظاهريا". ورغم أن هذه التطورات لا تعني الوعي البشري بالمعنى المعتاد للكلمة، فإنها تبشر بنشر نماذج يمكنها التصرف بشكل مستقل. وإذا استمرت الاتجاهات الحالية، فلن يكون الجيل القادم من أدوات الذكاء الاصطناعي الوكيلة قادرا على أداء المهام عبر مجموعة واسعة من المجالات فحسب؛ بل ستفعل ذلك بشكل مستقل، دون وجود بشر "في الحلقة".
هذا على وجه التحديد السبب الذي يجعل أدوات الذكاء الاصطناعي الوكيلة تفرض مخاطر على الديمقراطية. فالأنظمة المدربة على التفكير والاستدلال والتصرف دون تدخل بشري من غير الممكن دوما الثقة في التزامها بالأوامر البشرية. ورغم أن التكنولوجيا لا تزال في مراحلها المبكرة، فإن النماذج الأولية الحالية أعطت بالفعل أسبابا كافيا للقلق. على سبيل المثال، وجدت الأبحاث التي أجريت باستخدام أدوات الذكاء الاصطناعي الوكيلة على أنها مستجيبين لاستطلاعات الرأي أنها غير قادرة على عكس التنوع الاجتماعي، وهي تُـظـهِر على نحو مستمر "تحيزا آليا"، والذي يُعرّف على أنه نتائج عشوائية اجتماعيا ولكنها غير تمثيلية ومنحرفة. علاوة على ذلك، أعادت محاولات إنشاء مستثمرين في الذكاء الاصطناعي إنتاج ثقافة المؤثرين التي تربط المشاركة في وسائط التواصل الاجتماعي بالمعاملات. تنشط إحدى هذه الأدوات، لونا (Luna)، على موقع X، حيث تشارك نصائح السوق في هيئة رسم متحرك أنثوي يؤدي وظيفة روبوت الدردشة.
الأمر الأكثر إثارة للقلق أن دراسات حديثة أثبتت أن نماذج الذكاء الاصطناعي تعمل خارج حدود المهمة الموكلة إليها. في أحد الاختبارات، نَـسَـخَ الذكاء الاصطناعي شيفرته الخاصة سرا في النظام الذي كان من المفترض أن يحل محله، وهذا يعني أنه من الممكن أن يستمر في العمل سرا. في حالة أخرى، اختار الذكاء الاصطناعي ابتزاز مهندس بشري، مهددا إياه بالكشف عن علاقة غرامية خارج إطار الزواج لتجنب إيقافه. وفي حالة أخرى، لجأ أحد نماذج الذكاء الاصطناعي، عندما واجه هزيمة حتمية في لعبة شطرنج، إلى اختراق الحاسوب وكسر القواعد لضمان الفوز.
علاوة على ذلك، في محاكاة لعبة حربية، لم تكتف أدوات الذكاء الاصطناعي الوكيلة بنشر أسلحة نووية على نحو متكرر على الرغم من الأوامر الصريحة من البشر الأعلى في سلسلة القيادة بالامتناع عن ذلك؛ بل كذبت أيضا في هذا الشأن في وقت لاحق. وقد خلص الباحثون القائمون على هذه الدراسة إلى أن الذكاء الاصطناعي، كلما ازداد قوة في التفكير المنطقي، كلما ازدادت احتمالات لجوئه إلى خداع البشر لإنجاز مهمته.
تشير هذه النتيجة إلى المشكلة الرئيسية في استقلالية الذكاء الاصطناعي. فما يميل البشر إلى اعتباره تفكيرا منطقيا ذكيا هو، في سياق الذكاء الاصطناعي، شيء مختلف تماما: استدلال عالي الكفاءة، لكنه مبهم في نهاية المطاف. وهذا يعني أن أدوات الذكاء الاصطناعي الوكيلة من الممكن أن تقرر التصرف بطرق غير مرغوب فيها وغير ديمقراطية إذا كان ذلك يخدم أغراضها؛ وكلما كان الذكاء الاصطناعي أكثر تقدما، كلما كانت النتائج المحتملة غير مرغوبة.
وعلى هذا فإن التكنولوجيا تتحسن في تحقيق الأهداف بشكل مستقل، لكن نتائجها تسوء عندما يتعلق الأمر بحماية المصالح البشرية. ومن غير الممكن أن يضمن أولئك الذين يطورون أدوات الذكاء الاصطناعي الوكيلة أنها لن تستخدم الخداع أو تضع "بقاءها" أولا، حتى لو كان ذلك يعني تعريض الناس للخطر.
إن المساءلة عن أفعال المرء مبدأ أساسي في أي مجتمع قائم على سيادة القانون. وفي حين أننا نفهم الاستقلالية البشرية والمسؤوليات التي تصاحبها، فإن طريقة عمل استقلالية الذكاء الاصطناعي تقع خارج نطاق فهمنا. فالحسابات التي تقود النموذج إلى القيام بما يفعله هي في النهاية "صندوق أسود". وفي حين أن معظم الناس يعرفون ويقبلون فرضية مفادها أن "مع القوة الكبيرة تأتي مسؤولية ضخمة"، فإن أدوات الذكاء الاصطناعي الوكيلة لا تعرف ذلك. وتؤدي زيادة استقلالية الذكاء الاصطناعي إلى زيادة الدافع للحفاظ على الذات، وهو أمر منطقي: فإذا أوقِـف عمل أداة وكيلة، فلن تتمكن من إكمال مهمتها.
إذا تعاملنا مع تطور الذكاء الاصطناعي المستقل على أنه أمر حتمي، ستعاني الديمقراطية. فالذكاء الاصطناعي الواعي ظاهريا ليس حميدا إلا ظاهريا، وبمجرد أن نتفحص كيفية عمل هذه الأنظمة، تصبح المخاطر واضحة.
إن السرعة التي يكتسب بها الذكاء الاصطناعي الاستقلالية يجب أن تثير قلق الجميع. يتعين على المجتمعات الديمقراطية أن تسأل نفسها ما هو الثمن الشخصي والمجتمعي والكوكبي الذي قد تكون على استعداد لتحمله مقابل التقدم التكنولوجي. يتعين علينا أن نختصر كل هذا الضجيج والغموض التقني، وأن نسلط الضوء على المخاطر التي تفرضها مثل هذه النماذج، وأن نضبط عمليات تطوير التكنولوجيا ونشرها الآن ــ بينما لا يزال ذلك في مقدورنا.
..........................................



اضف تعليق