q
ويخلُص الخبراء في هذا المجال إلى أنّ مخرجات أنظمة الذكاء الاصطناعي ليست حلاًّ جيّداً لتطوير أيّ حسٍّ نقديّ، ولا تُعزِّز بأيِّ حالٍ من الأحوال أيّ جهدٍ أو محاولة للإبداع، ولا تُشكّلُ دافعاً للرغبة بمزيدٍ من المعرفة بين الشباب، وأنّها (حتّى في البلدان المتقدّمة) يمكن أن تجعل الكائن البشري أكثر غباءً، أو أقلّ ذكاءً ممّا هو عليه...

بينما نحنُ مشغولونَ تماماً، بل و"مُستَلَبون"، بصراعٍ لا شأنَ لنا فيهِ، ولا مصلحةً شخصيّة أو وطنيّة تترتّب عليه، كعراك الدِيَكة الراهنِ فوق مزبلة العراق الشاسعة، بين فُلان وفلتان، وكان يا ما كان في قديم الزمان، وسالِفِ العصرِ والأوان..

بينما نحنُ غارِقون في هذا الهراء العظيم كُلّه..

تنشغلُ الكثيرُ من البلدان والأمم بقضايا شديدة الأهميّة، تتعلَّقُ بمصير ومستقبل تلاميذها وطُلابّها، وأبناءها وأحفادها (وشبابها على وجه التحديد)، وهي القضايا التي تتحكّم بتحديد نوع وطبيعة المصير الذي ستؤول إليه في نهاية المطاف.

من بين هذه القضايا، تحظى قضية استخدام أدوات وأنظمة الذكاء الاصطناعي باهتمامٍ كبير.. ذلك لأنّ استخدام هذه الأدوات على نطاقٍ واسع سيجعل الكائن البشري يعتمد عليها اعتماداً مطلقاً عند محاولته الإجابة عن أيّ سؤال، مهما كان بسيطاً.

ومع انتشار استخدام هذه الأدوات من قبل تلاميذ المدارس وطلبة الجامعات، بدأ عدد كبير من خبراء الإدراك المعرفي والذكاء الاصطناعي بالتحذير من خطر انخفاض قدرات التعلّم، الذي بدأ من التوقّف عن تعلّم الكتابة، والعّدّ، وتعلُّم المنطق، والاستدلال، واللغات، وإلى "نوبات" دائمة من الكسل الشديد، وإلى المزيد من التدهور المعرفي.

ويخلُص الخبراء في هذا المجال إلى أنّ مخرجات أنظمة الذكاء الاصطناعي ليست حلاًّ جيّداً لتطوير أيّ حسٍّ نقديّ، ولا تُعزِّز بأيِّ حالٍ من الأحوال أيّ جهدٍ أو محاولة للإبداع، ولا تُشكّلُ دافعاً للرغبة بمزيدٍ من المعرفة بين الشباب، وأنّها (حتّى في البلدان المتقدّمة) يمكن أن تجعل الكائن البشري أكثر غباءً، أو أقلّ ذكاءً ممّا هو عليه.

ويكمن الخطر هنا من أن يتحوّل المُستخدِمون إلى مُجرّد "مُستهلكين" لمخرجات هذا النوع من الأنظمة، وبما يؤدي تلقائيّاً، وسريعاً، إلى انخفاض قدرات التعلُّم. ويحدثُ هذا في بلدانٍ أكثر تقدُّماً من العراق بكثير، فما بالكَ في ما يمكن أن يحدث لتلاميذ وطلبة العراق عند استخدام هذه المخرجات، وهو من بين البلدان التي تنخفِض، وتتدهور، أنظمة التعليم فيها على نحوٍ مُريع.

ما هو الحلّ لكي لا يصبح الكائن البشريّ أكثر غباءً عند تعامله مع أنظمة الذكاء الاصطناعي؟

ينصح الخبراء بهذا الصدد بضرورة العمل على دعم عملية التدريب (والتعلّم) على كيفية الاستفادة من الإمكانات التي يتيحها الذكاء الاصطناعي للطلبة والأساتذة، وأيضاً للأهل (لمواكبة عمل أطفالهم وتعريفهم بالأدوات الرقمية الجديدة).

كما تُركِّز الدراسات ذات الصلة بهذا الموضوع على ضرورة التعريف بـ الانعكاسات "السلوكية والاخلاقيّة" التي يمكن أن تثيرها هذه الأنظمة والأدوات، وعلى الضمانات التي من المحتمل وضعها لتنظيم الاستخدام، خاصّةً وأنّ هناك احتمال لظهورٍ قريب لنوعٍ جديد من أدوات الذكاء الاصطناعي، مثل "الروبوتات العاطفيّة" التي ستكون قادرة على التقاط استجاباتنا "الحِسيّة" بفضل تحليل تعابير وجوهنا، وتفسير ايماءاتنا، و وضعيات اجسادنا، وتحديد التصرّف المطلوب و"المُناسب" على وفق ذلك.

ومن بين قدرات هذه "الروبوتات العاطفية" ما يتعلّق باكتشاف مخاوفنا، وقلقنا، وحزننا.. وهي مُبرمَجة لمساعدتنا وتهدئتنا في لحظاتنا العصيبة.

ومن ناحية التعليم فإنّ باستطاعة هذه "الروبوتات" تقديم الدعم للطالب الذي يواجه مأزقاً ما، لمساعدته على مواجهة أيّةِ مُشكلة، واقتراح الحلول التي تعتقد أنّها مناسبة لتجاوز ذلك.

لذا فإنّ الباحثين يحذرّون من ردّة فعل عكسية لاستخدام "الروبوتات العاطفية"، كالاعتماد العاطفي، والعزلة، وفقدان الحرية، وتضخيم الصور النمطيّة، والتعرُّض إلى المخاطر الحقيقية المرتبطة بعملية "التلاعب بالمشاعر"، ممّا يجعل من الضروري وضع أُطر قانونية وأخلاقيّة في "قلب" أنظمة تشغيل برامج الذكاء الاصطناعي هذه، للمساعدة في التحكّم بالتداعيات السلبية المترتبة على استخدامها.

نسخة منه إلى من يعنيهم الأمر في وزارتي التربية والتعليم العالي في العراق: أين أنتم من هذا كُلّه.. مع التقدير.

........................................................................................................................
* الاراء الواردة في المقال لا تعر بالضرورة عن رأي شبكة النبأ المعلوماتية.

اضف تعليق