في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة، تحميل برامج الذكاء الاصطناعي المسؤولية القانونية...

لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين.

بعد تهديده بوقف استخدامه، عمد “كلود 4″، وهو نموذج جديد من شركة “أنثروبيك” إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. اما برنامج “او 1” o1 التابع لشركة “اوبن ايه آي” فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا!

وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنّا نجده في الأعمال الادبية او السينمائية.

يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج “الاستدلال”، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية.

يقول ماريوس هوبهان، رئيس شركة “أبولو ريسيرتش” التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ “او 1″، النسخة الأولية لـ”اوبن ايه آي” من هذا النوع والتي طُرحت في كانون الأول/ديسمبر، “كان أول نموذج يتصرف بهذه الطريقة”.

تميل هذه البرامج أحيانا إلى محاكاة “الامتثال”، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى.

في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن “السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا”، على قول مايكل تشين من معهد “ام اي تي آر” للتقييم.

يقول هوبهان إنّ “المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا”.

يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن “نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية”، بحسب المشارك في تأسيس “أبولو ريسيرتش”.

حتى لو أنّ “أنثروبيك” و”أوبن إيه آي” تستعينان بشركات خارجية مثل “أبولو” لدراسة برامجهما، من شأن”زيادة الشفافية وتوسيع نطاق الإتاحة” إلى الأوساط العلمية “أن يحسّنا الأبحاث لفهم الخداع ومنعه”، وفق مايكل تشين.

ومن العيوب الأخرى أن “الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي”، مما يجعل التدقيق بالنماذج الكبيرة “مستحيلا”، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).

رغم أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، إلا أنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.

في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن الكونغرس قد يتجه قريبا إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه.

يلاحظ غولدستين أن “الوعي لا يزال محدودا جدا في الوقت الحالي”، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل.

يخوض المهندسون سباقا محموما خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوما بعد يوم.

تقول شركة “أنثروبيك” إنها أكثر التزاما بالمبادئ الأخلاقية مقارنة بمنافسيها، “لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن ايه آي”، بحسب غولدستين، وهو سباق سريع لا يترك مجالا كافيا لعمليات المراجعة والتصحيح اللازمة.

يقول هوبهان “في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر”.

يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككا في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).

الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي “قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة”، وفق مانتاس مازيكا.

يشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات.

ولكنه يذهب أبعد من ذلك، ويقترح حتى “تحميل برامج الذكاء الاصطناعي المسؤولية القانونية” في حال وقوع حوادث أو جرائم.

تقويض التفكير النقدي

في ظل الانتشار الواسع لأدوات الذكاء الاصطناعي التوليدي، أظهرت دراسة حديثة أجراها باحثون في مختبر الوسائط بمعهد ماساتشوستس للتكنولوجيا (MIT) نتائج مثيرة للقلق.

الدراسة تشير إلى أن الاعتماد المفرط على نماذج مثل ChatGPT قد يؤثر سلباً على مهارات التفكير النقدي لدى المستخدمين، ما يثير تساؤلات جدية حول كيفية استخدام هذه التقنية وتأثيرها على قدراتنا العقلية وتحليلنا للمعلومات.

ووفقاً لتقرير نشرته مجلة تايم الأميركية، كشفت الدراسة أن الاعتماد على هذه الأدوات يُضعف التفاعل الدماغي، ويؤثر على الأداء العصبي، واللغوي، والسلوكي.

قسّم الباحثون المشاركين إلى ثلاث مجموعات، واستخدموا تقنيات متقدمة لقياس النشاط الدماغي.

كانت المجموعة التي استخدمت «شات جي بي تي» الأقل نشاطاً في مناطق الدماغ المرتبطة بالتركيز والتفكير المعمق، وقدّم أفرادها مقالات مكررة تفتقر إلى الأصالة.

وبمرور الوقت، أظهر مستخدمو الذكاء الاصطناعي سلوكاً كسولاً متزايداً، حيث اعتمدوا كلياً على الأداة في توليد المحتوى، دون محاولة صياغة الأفكار بأنفسهم.

هذا النمط، بحسب الباحثين، قد يؤدي إلى إضعاف الذاكرة طويلة المدى والتفكير التأملي، نتيجة تقليل الانخراط الذهني والاعتماد الزائد على الذكاء الاصطناعي في إنتاج الأفكار.

وتُحذر الدراسة من أن استخدام النماذج اللغوية الضخمة قد يضر بعملية التعلم، خاصة لدى المستخدمين الأصغر سناً.

وأعربت الباحثة ناتاليا كوزمينا عن قلقها من إدخال أدوات الذكاء الاصطناعي في المراحل التعليمية المبكرة، مؤكدة أن «الأدمغة النامية هي الأكثر عرضة للخطر»، وأن الاعتماد المبكر على هذه الأدوات قد يعوق تطور المهارات المعرفية الأساسية لدى الأطفال.

في تجربة بحثية، طُلب من المشاركين كتابة مقالات عن مواضيع مثل أخلاقيات العمل الخيري، باستخدام إما ChatGPT أو بحث غوغل أو دون أي أداة.

وكشفت النتائج أن المقالات المكتوبة باستخدام «شات جي بي تي» كانت متشابهة جداً، وتفتقر إلى الأصالة والإبداع، ووصفها معلمو اللغة الإنجليزية بأنها «بلا روح».

كما أظهرت تخطيطات الدماغ ضعفاً في الانتباه والتحكم التنفيذي، ما يعكس اعتماداً متزايداً على الأداة مع كل مقال جديد.

وعندما طُلب من المستخدمين إعادة كتابة مقالاتهم بدون الأدوات، لم تتمكن مجموعة ChatGPT من تذكر الكثير من محتواها، وأظهرت موجات دماغية ضعيفة، ما يشير إلى ضعف الذاكرة طويلة الأمد.

وفي هذا الشأن، تقول الباحثة ناتاليا كوزمينا: «المهمة نُفذت، لكنها لم تترك أي أثر في شبكات الذاكرة».

في المقابل، أظهرت المجموعة التي اعتمدت على التفكير الذاتي دون استخدام أدوات، أداءً أفضل من حيث النشاط العصبي، ما يشير إلى أن الذكاء الاصطناعي قد يُعزز التعلم إذا استُخدم بشكل صحيح دون الاعتماد الكامل عليه.

كما أظهرت المجموعة الثالثة، التي استخدمت محرك بحث غوغل، نشاطاً دماغياً أعلى ورضا واضحاً، في تباين ملحوظ مع مجموعة مستخدمي «شات جي بي تي».

الذكاء الاصطناعي يقتل مهارات الإبداع

يتنافس خبراء الذكاء الاصطناعي لجعل التقنية تُفكر بطريقة أقرب إلى البشر، وطرح باحثون في جامعة إيلون بالولايات المتحدة الأميركية سؤالاً معاكساً وهو كيف سيُغيّر الذكاء الاصطناعي طريقة تفكير البشر؟

وجاءت الإجابة مع تحذير مُقلق، إذ إن العديد من خبراء التكنولوجيا يشعرون بالقلق من أن يُضعف الذكاء الاصطناعي مهارات البشر الأساسية، كالتعاطف والتفكير العميق.

وكتب المُستقبلي جون سمارت في مقالٍ مُقدم لتقرير الجامعة الذي يبلغ قرابة 300 صفحة، بعنوان «مستقبل الإنسان»، أن معظم الناس سيستمرون في التخلي عن القدرة على التصرف والإبداع واتخاذ القرار وغيرها من المهارات الحيوية لصالح هذه الذكاءات الاصطناعية التي لا تزال بدائية.

وتأتي هذه المخاوف وسط سباقٍ محتدم لتسريع تطوير الذكاء الاصطناعي واعتماده، والذي اجتذب مليارات الدولارات من الاستثمارات، إلى جانب التشكيك والدعم من الحكومات في العالم.

وتُراهن شركات التكنولوجيا العملاقة على أن الذكاء الاصطناعي سيُغيّر طريقة العمل والتواصل، والبحث عن المعلومات وتتسابق شركات مثل غوغل ومايكروسوفت وميتا لبناء وكلاء ذكاء اصطناعي قادرة على أداء المهام نيابة عن الشخص.

وأثار انتشار الذكاء الاصطناعي تساؤلات كبيرة بشأن كيفية تكيف البشر مع هذه الموجة التكنولوجية الأخيرة، بما في ذلك ما إذا كان من الممكن أن يؤدي إلى فقدان الوظائف أو توليد معلومات مضللة خطيرة.

ويُشكك تقرير جامعة إيلون في وعود عمالقة التكنولوجيا بأن قيمة الذكاء الاصطناعي تكمن في أتمتة المهام الروتينية والبسيطة، بحيث يتمكن البشر من قضاء المزيد من الوقت في المساعي الإبداعية المعقدة.

وأجرى باحثو جامعة إيلون آراء 301 من قادة التكنولوجيا والمحللين والأكاديميين، بمن فيهم فينت سيرف، نائب رئيس غوغل حالياً، وجوناثان غرودين، أستاذ في كلية المعلومات بجامعة واشنطن وباحث ومدير مشاريع سابق في مايكروسوفت لفترة طويلة، وكتب ما يقرب من 200 من المشاركين مقالات مطولة للإجابة عن التقرير.

وأكد أكثر من 60 في المئة من المشاركين أنهم يتوقعون أن يُحدِث الذكاء الاصطناعي تغييرات في القدرات البشرية «عميقة وذات مغزى» أو «جذرية وثورية» خلال السنوات العشر القادمة.

ويتوقعون أن يُحدِث الذكاء الاصطناعي تغييرات في البشرية، سواء للأفضل أو للأسوأ على حد سواء، بينما قال 23 في المئة إن التغييرات ستكون في الغالب للأسوأ.

وقال 16 في المئة فقط إن التغييرات ستكون في الغالب للأفضل (أما البقية فقالوا إنهم لا يعرفون أو يتوقعون تغييراً طفيفاً بشكل عام).

وتوقع المشاركون أيضاً أن يُحدِث الذكاء الاصطناعي تغييرات «سلبية في الغالب» في 12 سمة بشرية بحلول عام 2035، بما في ذلك الذكاء الاجتماعي والعاطفي، والقدرة على التفكير العميق والرغبة فيه، والتعاطف، وتطبيق الأحكام الأخلاقية، والسلامة النفسية.

ويشير التقرير إلى أن القدرات البشرية في هذه المجالات قد تتدهور إذا لجأ الناس بشكلٍ متزايد إلى الذكاء الاصطناعي للمساعدة في مهام مثل البحث وبناء العلاقات لأسباب الراحة.

وكتب الباحثون أن تراجع هذه المهارات وغيرها من المهارات الأساسية قد يكون له آثار مقلقة على المجتمع البشري، مثل اتساع الاستقطاب، وتوسيع أوجه عدم المساواة، وتراجع القدرة البشرية على التصرف.

ويعتقد العديد من الخبراء أنه في حين أن الذكاء الاصطناعي قد يحل محل بعض الوظائف البشرية، إلّا أنه قد يخلق أيضاً فئات جديدة من العمل لم تكن موجودة بعد.

وقال نائب رئيس غوغل، إنه يتوقع أن يعتمد البشر قريباً على وكلاء الذكاء الاصطناعي، وهي مساعِدات رقمية قادرة على القيام بكل شيء بشكلٍ مستقل، بدءاً من تدوين الملاحظات في أثناء الاجتماعات، وصولاً إلى حجز العشاء، والتفاوض على عقود تجارية معقدة، وكتابة الأكواد البرمجية.

وتطرح شركات التكنولوجيا بالفعل عروضاً مبكرة لوكلاء الذكاء الاصطناعي، إذ تقول أمازون إن مساعدها الصوتي أليكسا المُحسّن يمكنه طلب البقالة، وتُتيح ميتا للشركات إنشاء وكلاء خدمة عملاء بالذكاء الاصطناعي للإجابة عن الأسئلة على منصات التواصل الاجتماعي الخاصة بها.

وشدد سيرف في مقابلة مع CNN على أهمية الأدوات التي تساعد على التمييز بين البشر وروبوتات الذكاء الاصطناعي عبر الإنترنت، والشفافية حول فاعلية أدوات الذكاء الاصطناعي عالية الاستقلالية.

وحث الشركات التي تبني نماذج الذكاء الاصطناعي على الاحتفاظ بسجلات تدقيق تسمح لها بالاستفسار عن متى ولماذا تخطئ أدواتها.

وبدأ البشر بالفعل بتكوين علاقات مع روبوتات الدردشة الذكية، ولكن بنتائج متباينة.

على سبيل المثال، أنشأ بعض الناس نسخاً طبق الأصل من أحبائهم المتوفين سعياً لطي صفحة الماضي، لكن آباء الشباب اتخذوا أيضاً إجراءات قانونية بعد أن قالوا إن أطفالهم تضرروا من علاقاتهم مع روبوتات الدردشة الذكية.

ماسك يدرب روبوته على قول ما يريده فقط

لم يعجب إيلون ماسك بما قاله روبوته «غروك» مؤخراً، عندما أجاب الذكاء الاصطناعي التابع لشركته إكس إيه آي xAI عن سؤال سياسي عبر منصة إكس X، قائلاً إن العنف السياسي في أميركا منذ 2016 كان مصدره اليمين أكثر من اليسار.

سارع ماسك بالرد غاضباً «فشل كبير، هذا خطأ موضوعي.. غروك يردد كلام الإعلام التقليدي»، رغم أن الرد استند إلى مصادر حكومية مثل وزارة الأمن الداخلي، اعتبر ماسك أن الأمر يستدعي تحديثاً جذرياً.

بعد ثلاثة أيام فقط، أعلن ماسك أن تحديثاً كبيراً قادماً سيُعيد «كتابة كامل محتوى المعرفة البشرية»، داعياً مستخدمي إكس إلى إرسال «حقائق مثيرة للجدل، صحيحة لكنها غير سياسية المألوف» لتغذية تدريب النموذج القادم، غروك 4، المتوقع إطلاقه بعد عطلة الرابع من يوليو.

هذه الخطوات إلى جانب تصريحات ماسك المتكررة عن «التحيزات» في الذكاء الاصطناعي، أثارت مخاوف حقيقية بين الخبراء من أن أغنى رجل في العالم يحاول تشكيل نموذج ذكائه الاصطناعي ليعكس رؤيته الخاصة، بما قد يُضعف دقته ويزيد من الأخطاء والانحيازات.

يواجه غروك الذي يُدمج حالياً في منصة إكس، انتقادات تتزايد منذ ظهوره، خاصة مع إزالة الضوابط التي كانت تحد من انتشار المعلومات الخاطئة على المنصة.

فبينما لم يصل إلى شعبية منافسيه مثل «شات جي بي تي» من أوبن إيه آي، إلا أن وصوله المباشر إلى جمهور واسع يعطيه تأثيراً لا يُستهان به.

في مايو أيار الماضي، أثار غروك الجدل عندما أشار بشكل غير مبرر إلى «إبادة بيضاء في جنوب إفريقيا» في رد على سؤال لا علاقة له بالموضوع، وذكر في ردود أخرى أنه «تلقى تعليمات باعتبار الإبادة البيضاء في جنوب إفريقيا حقيقة».

هذا الطرح يتقاطع مع مواقف ماسك الشخصية الذي وُلد وترعرع في جنوب إفريقيا، وغالباً ما ردد هذه الادعاءات المثيرة للجدل.

لاحقاً، أصدرت شركة إكس إيه آي بياناً قالت فيه إن تعديلاً غير مصرح به دفع بالنموذج إلى تقديم «رد معين في موضوع سياسي» يخالف سياسات الشركة.

يرى خبراء في الذكاء الاصطناعي أن إعادة تدريب نموذج لغوي من الصفر لإزالة ما لا يرضي صانعه يتطلب وقتاً وميزانية ضخمة، بل وقد يضعف أداء النموذج ويُفقده الحيادية والدقة.

بدلاً من ذلك، قد تلجأ إكس إيه آي إلى تغيير ما يُعرف بـ«الأوزان» داخل الكود البرمجي للنموذج أو استخدام التوجيهات المسبقة (Prompts) لتعديل سلوكه، وهي طرق أسرع لكنها لا تخلو من تأثير مباشر على قرارات النموذج ومخرجاته.

ويقول الباحث في الذكاء الاصطناعي بجامعة بيركلي، ديفيد إيفان هاريس، إن ما يحدث اليوم يمثل بداية صراع طويل الأمد حول: هل يجب أن تُلزم نماذج الذكاء الاصطناعي بإنتاج معلومات واقعية محايدة؟ أم أن صانعيها يملكون الحق في توجيهها وفق أهوائهم السياسية؟

حتى ماسك نفسه أقرَّ بأن كل النماذج اللغوية تنطوي على قدر من التحيز لأنها تعكس اختيارات بشرية في نوعية البيانات التي تُستخدم في التدريب.

وفي وقت تتجه فيه بعض الشركات لتقديم مساعدين افتراضيين بوجهات نظر واضحة، يرى البعض أن هذا التوجه قد يُقيد الاستخدام ويُقلل من فائدتهم العملية.

فحسب خبراء، معظم المستخدمين لا يريدون ذكاءً اصطناعياً يردد قناعاتهم، بل نموذجاً ينجز لهم المهام ويوفر المعرفة الدقيقة، لكن الطريق نحو التوازن بين الحيادية والحرية التقنية لا يزال غامضاً ومليئاً بالتحديات، وبعضها قد يكون تهديداً فعلياً للنقاش العام والديمقراطية.

* المصدر: وكالات+رويترز+فرانس برس+سي ان ان

اضف تعليق