q
يتغلغل الذكاء الاصطناعي في جوانب حياتنا كافة، فهو يحدد لنا ما علينا أن نقرأه وما علينا أن نشتريه. كما يقرر ما إذا كنا سنحصل على هذه الوظيفة، أو ذاك القرض، أو الرهن العقاري، أم لا، أو ما إذا كنا سنتلقى الإعانات، أو الإفراج المشروط، أم لا...
بقلم فرجينيا ديجنوم

يتغلغل الذكاء الاصطناعي في جوانب حياتنا كافة، فهو يحدد لنا ما علينا أن نقرأه وما علينا أن نشتريه. كما يقرر ما إذا كنا سنحصل على هذه الوظيفة، أو ذاك القرض، أو الرهن العقاري، أم لا، أو ما إذا كنا سنتلقى الإعانات، أو الإفراج المشروط، أم لا. كما أنه يُشخِّص الأمراض، ويدعم العمليات الديمقراطية، ويقوضها أحيانًا. والآن، يطرح كتابان جديدان رؤى مكملة لبعضها البعض حول الدور الذي يلعبه من يخلِّقون نُظُم الذكاء الاصطناعي، ويستخدمونه ويديرونه لإعادة تشكيل ملامح المجتمع.

ففي كتاب "معضلة الانحياز" The Alignment Problem، يقدم لنا الكاتب برايان كريستيان نظرة من كثب على واقع الأشخاص الذين يصنِّعون تكنولوجيا الذكاء الاصطناعي؛ أي على أهدافهم، وتوقعاتهم، وآمالهم، وتحدياتهم، وحتى إخفاقاتهم التي يواجهونها. ويستهل كريستيان كتابه بالحديث عن جهود والتر بيتس في مجال التمثيل المنطقي لنشاط الخلايا العصبية في أوائل القرن العشرين. ويسرد أفكار باحثين ومهنيين في مجالات عدة، بداية من العلوم المعرفية، حتى الهندسة. كما يعرض أهدافهم، ونجاحاتهم، وإخفاقاتهم. أما كتاب "أطلس الذكاء الاصطناعي" Atlas of AI، من تأليف كايت كروفورد، الباحثة واسعة التأثير، فيتناول الطرق التي يتدخل بها الذكاء الاصطناعي فعليًّا في حياتنا، ويستعرض مظاهر ذلك التدخل. ويُبيِّن الكتاب أن الذكاء الاصطناعي هو صناعة قائمة على استخلاص الموارد واستغلالها، بداية من المادة، ومرورًا بالعمالة، ووصولًا إلى المعلومات.

ويحلل الكتابان الكيفية التي تؤثر بها قوة العالَم الرقمي، ونفوذ مَن يديرونه كذلك، في تغيير مسارات السياسة والعلاقات الاجتماعية. وفي ذلك السياق، يشير الكتابان إلى نماذج بديلة تبَنّاها البعض لإدارة هذه الاضطرابات التي خلقها العالَم الرقمي، مثل فرض الرقابة من جانب الدولة في الصين، أو جهود الاتحاد الأوروبي التنظيمية في ذلك الصدد. بيد أن الكتابين يركزان في الأساس على التجربة الأمريكية. ولذلك، فهما يستدعيان تتمة لكل منهما، تدور هذه المرة حول سبُل المضي قدمًا.

من نبوءة إلى انتشار بلا حدود

يتتبع كريستيان رحلة تطوُّر تكنولوجيا الذكاء الاصطناعي، منذ أنْ كان مجرد حلم، إلى أن فَرَض وجوده، كجزء لا يتجزأ من الواقع في كل مكان. ويشرح كريستيان كيف يحاول الباحثون تدريب الذكاء الاصطناعي على فهْم القيم الإنسانية، مثل الإنصاف، والشفافية، والفضول، بل وعدم اليقين، مشيرًا إلى التحديات التي تعترض طريقهم. ويستند الكتاب بصورة كبيرة إلى لقاءات مع باحثين ومهنيين. ويرسم من خلال هذه اللقاءات المسار البطيء، والثابت، والمعقد الذي تَبِعَته تكنولوجيا الذكاء الاصطناعي في تقدُّمها. وما حفل به ذلك المسار من إحباطات عديدة، تخللتها نجاحات مدهشة.

ونلتقي خلال تلك الرحلة بأشخاص مثل ريتش كاروانا، الذي يشغل الآن منصب كبير الباحثين الرئيسيين لدى شركة "مايكروسوفت" Microsoft في مدينة ريدموند بولاية واشنطن الأمريكية، والذي طُلب منه - وقتما كان طالب دراسات عليا - أن يلقي نظرة على ابتكار سيصبح فيما بعد من صميم عمله لبقية حياته، يتمثل في تحسين سبُل تجميع البيانات وضغطها، لصنع نماذج بيانات مفهومة ودقيقة. كما يأخذنا المؤلف في نزهة سير على الشاطئ بصحبة مارك بيلمير، الذي قاد جهود ابتكار تقنية التعلُّم التعزيزي في أثناء عمله على تطوير الألعاب الخاصة بنظام "أتاري" Atari، قبل توليه منصبه الحالي لدى شركة "جوجل ريسيرش" Google Research، في مدينة مونتريال بكندا.

ويوضح كريستيان أن الباحثين يملكون وعيًا متزايدًا بأنّ التطورات التي يشهدها مجال الذكاء الاصطناعي تتأثر بالقيم المجتمعية، بل تؤثر عليها، وذلك هو الأهم، لكنّ تلك التطورات لا تأتي دون ثمن، ويمكن أن تخلِّف آثارًا عميقة على المجتمعات. وهنا يطرح كتاب "معضلة الانحياز" The Alignment Problem سؤاله الجوهري: ما الذي يمكن فعله، كي نضمن أن تعكس أنظمة الذكاء الاصطناعي معاييرنا وقِيَمنا، وأنْ تفهم ما نعني، وتفعل ما نريد؟ فلدينا جميعًا مفاهيم ومتطلبات مختلفة حول ما ينبغي أن تفعله تلك الأنظمة. وكما قال عالِم الرياضيات نوربرت وينر في عام 1960: "من الأفضل لنا أن نكون موقنين تمامًا من أنّ المعطيات التي نملأ به الآلة تعبر عن الغرض الذي نرغب في تحقيقه فعلًا".

من ناحية أخرى، يكشف كتاب كروفورد الوجهَ القبيح لنجاح الذكاء الاصطناعي؛ إذ يأخذنا في رحلة حول العالَم، لاستكشاف العلاقات بين الأماكن، وتأثيرها على البِنْية التحتية للذكاء الاصطناعي. وننطلق في تلك الرحلة من ولاية نيفادا الأمريكية، وصولًا إلى إندونيسيا، وهي أماكن يجري فيها استخراج مادتَي الليثيوم، والقصدير، المهمّتين في صناعة أشباه الموصلات، وهي صناعة تتأتى بتكلفة بشرية وبيئية عالية. بعد ذلك، نصل إلى مستودع تابع لشركة "أمازون" Amazon في ولاية نيوجيرسي الأمريكية. وهناك يكدح العمال مذعنين لإرادة الروبوتات وخطوط الإنتاج، بدلاً من أن يتكيف التشغيل الآلي مع إيقاع العمل البشري. وفي إيماءة مثيرة للقلق لفيلم "العصر الحديث" Modern Times، الذي صدر في عام 1936، من إخراج شارلي شابلن، نشهد بأعيننا المصاعب التي تولِّدها أنظمة التشغيل الآلي الكاذبة، وهي أنظمة تشغيل يفترض أنها آلية، لكنها تعتمد بشكل كبير على الجهد البشري، كذلك الذي يبذله العمال الذين يتقاضون أجورًا أقل من الحد الأدنى، لقاء العمل في مَزارع تصنيف البيانات.

وتختم كروفورد كتابها برسالة تذكيرية تلفت الانتباه إلى أن الذكاء الاصطناعي ليس موضوعيًّا، أو محايدًا، أو صالحًا لكل الأحوال، بل تنشأ جذوره من ثقافة صانعيه، وواقعهم الاقتصادي، وأغلب هؤلاء من الرجال البيض والأثرياء الذين يعملون في شركات وادي السيليكون في كاليفورنيا.

ويتميز الكتابان برصانة عرضهما للتحديات والمخاطر التي تشوب استخدام الذكاء الاصطناعي وتطويره في الوقت الراهن، وللفروق التي تفصل بين الذكاء الاصطناعي والحوسبة "الكلاسيكية". وبالتالي، فإن قراءتهما جنبًا إلى جنب تسلط الضوء على ثلاث قضايا أساسية، هي: الإفراط في الاعتماد على التنبؤات العشوائية المدفوعة بالبيانات، والقرارات الآلية، وتمركز القوة.

هيمنة البيانات

في الفيلم الوثائقي "التحيز المُبرمَج" Coded Bias، الصادر في عام 2020، قالت باحثة الذكاء الاصطناعي جوي بولامويني إنّ الاستناد إلى الخوارزميات في صناعة القرار أمر يُحبِط جهودًا بُذِلت لعقود من أجل إحراز تقدم في مسيرة تحقيق المساواة في الحقوق، مُجسِّدة بذلك التحيزات نفسها التي نكتشف أنها لا تزال متأصلة حتى الآن. والسبب أن استخدام البيانات في صياغة القرارات الآلية غالبًا ما يتجاهل السياقات والعواطف والعلاقات التي تنطلق منها الخيارات البشرية بصورة جوهرية.

ليست البيانات مواد خام، ولكنها دائمًا ما تكون مرتبطة بالماضي، وتعكس معتقدات وممارسات وتحيزات أولئك الذين ينتجونها ويجمعونها. ومع ذلك، فإن الاعتماد الحالي على التشغيل الآلي في عملية صناعة القرار نابع من رغبة في تحقيق الكفاءة وجَنْي الفوائد الاقتصادية، أكثر من كونه معنيًا بتأثير ذلك على الأفراد.

الأسوأ من ذلك أن معظم أساليب الذكاء الاصطناعي يضع القوة في أيدي أولئك الذين يملكون البيانات والقدرة الحوسبية على معالجة تلك البيانات وإدارتها. وهي في الغالب شركات التكنولوجيا الكبرى، أي كيانات خاصة لا تخضع للعمليات الديمقراطية وتوزيع السلطة. وهنا تصبح الحكومات والأفراد مجرد مستخدمين غير متحكمين في كل هذه العمليات. وهو تحوُّل له عواقب هائلة، ويملك قدرة على تغيير وجه المجتمع.

فما العمل إذَن؟ إلى جانب ما يمكن بذله من جهود لتنقية البيانات من التحيز، وتفسير القرارات التي تتخذها الخوارزميات، نحتاج كذلك إلى النظر في مصدر التحيز نفسه. ولن يتحقق ذلك من خلال الحلول التكنولوجية، ولكنْ من خلال التثقيف والتغييرات الاجتماعية. وفي الوقت نفسه، هناك حاجة إلى إجراء أبحاث علمية تنظر في مسألة الاعتماد الضار لمجال الذكاء الاصطناعي على رصد الارتباطات في البيانات، إذ يرصد الذكاء الاصطناعي بشكله الحالي الأنماط الموجودة في البيانات، إلا أنه لا يقدم تفسيرًا لها.

وببحثٍ متعمق وأسلوب رائع في الكتابة، يقدم لنا الكتابان في نهاية المطاف مرآة تعكس واقع الذكاء الاصطناعي، إذ يُبيِّن الكتابان أن التطوير والاستخدام الرشيد، للذكاء الاصطناعي، من الناحية الأخلاقية والقانونية، والنفعية لا يتوقف على هذه التقنية نفسها، بل علينا: أي على الهيئة التي نريد أن يبدو عليها عالمنا، وإلى أي مدى نعطي الأولوية لحقوق الإنسان والمبادئ الأخلاقية، ومَن يندرج في تلك الفئة التي نسميها "نحن". أصبحت هذه المناقشة واقعًا حتميًّا، ولكنّ السؤال الجوهري: كيف يمكن أن يكون للجميع صوت في هذا النقاش؟

* فرجينيا ديجنوم، أستاذة في قسم علوم الحوسبة بجامعة أوميو في السويد.

اضف تعليق