q
هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والكذب.. هل ينبغي أن نطور عقولا غير بشرية قد تفوقنا عددنا وذكاء في النهاية وتتفوق علينا وتحل محلنا.. يجب عدم تفويض مثل هذه القرارات لقادة للتكنولوجيا غير منتخبين.. التقدم المحرز في هذا المجال يحمل في طياته مخاطر عميقة على المجتمع...

"المنافسة بين عمالقة التكنولوجيا تدفع الشركات إلى إطلاق تقنيات جديدة للذكاء الاصطناعي بسرعة خطرة، مما يهدد بالقضاء على وظائف ونشر معلومات مضللة. انظروا كيف كان الأمر قبل خمس سنوات وكيف هو الآن، تخيلوا كيف ستتقدم الأمور قياساً على هذا الفارق. إنه أمر مخيف.. من الصعب تخيل كيف يمكن منع الجهات السيئة من استخدامها في أمور سيئة".

هذا ما قاله عالم كمبيوتر يلقب بـ"عراب الذكاء الاصطناعي" ترك وظيفته في "غوغل" للتنديد علناً بمخاطر هذه التكنولوجيا.

وقال جيفري هينتون الذي ابتكر تقنية أساسية لأنظمة الذكاء الاصطناعي لصحيفة "نيويورك تايمز"، إن التقدم المحرز في هذا المجال يحمل في طياته "مخاطر عميقة على المجتمع والإنسانية".

وأبدى هينتون في تصريحاته للصحيفة اعتقاده أن هذه الأنظمة تتفوق على الذكاء البشري من بعض النواحي، بسبب كمية البيانات التي تحللها. وذكرت الصحيفة أن هينتون أبلغ "غوغل" باستقالته الشهر الماضي.

وقال "قد يكون ما يحدث في هذه الأنظمة في الواقع أفضل بكثير مما يحدث في الدماغ".

وفيما استخدم الذكاء الاصطناعي لدعم العاملين من البشر، فإن التطور السريع في روبوتات المحادثة مثل "تشات جي بي تي" قد يعرض وظائف للخطر.

وقال هينتون للصحيفة إن برامج الذكاء الاصطناعي "تجنب القيام بأعمال شاقة"، لكنها "قد تأخذ أكثر من ذلك".

كما حذر العالم من الانتشار المحتمل لمعلومات مضللة من خلال برمجيات الذكاء الاصطناعي، قائلاً إن الشخص العادي "لن يعود قادراً على تمييز الأخبار الصادقة".

وقد جرى تداول رسالة مفتوحة موقعة من أكثر من 1000 شخص، بينهم إيلون ماسك وستيف وزنياك، المؤسس المشارك لشركة "آبل"، تزامناً مع إصدار "جي بي تي - 4"، وهي نسخة جديدة تتمتع بميزات أقوى بكثير من التكنولوجيا المستخدمة من "تشات جي بي تي".

ولم يوقع هينتون على تلك الرسالة في ذلك الوقت، لكنه قال لصحيفة "نيويورك تايمز" إنه لا ينبغي للعلماء "تصعيد الأمور حتى يفهموا ما إذا كان بإمكانهم التحكم" بهذه البرمجيات.

مخاطر كبيرة على البشرية

فقد دعا إيلون ماسك ومئات الخبراء العالميين عبر عريضة إلى وقف، لمدة ستة أشهر، تطوير برامج للذكاء الاصطناعي أقوى من "تشات جي بي تي 4" الذي أطلقته شركة "أوبن إيه آي" في منتصف آذار/مارس، لما تحمله هذه البرامج من "مخاطر كبيرة على البشرية".

وفي العريضة المنشورة عبر موقع "فيوتشر أوف لايف دوت أورغ" (futureoflife.org)، طالب الخبراء بوقف مؤقّت لعمليات تطوير برامج الذكاء الاصطناعي إلى حين اعتماد أنظمة حماية منها، كإنشاء هيئات تنظيمية جديدة خاصة بهذا المجال، ومراقبة أنظمة الذكاء الاصطناعي، وتقنيات تساعد على تمييز الأعمال الفعلية من تلك المُبتكرة من برامج للذكاء الاصطناعي، وإنشاء مؤسسات قادرة على التعامل مع "المشاكل الاقتصادية والسياسية التي تتسبب بها هذه البرامج".

ووقع العريضة شخصيات سبق أن عبرت علنا عن مخاوفها من الذكاء الاصطناعي الذي تصعب السيطرة عليه، ويظهر إمكانيات تفوق فيها على البشر، بينها مالك تويتر وشركتا "سبايس إكس" و"تيسلا" إيلون ماسك، ومؤلف كتاب "سايبيينز" يوفال نواه هراري.

وفي مؤتمر صحافي عقده افتراضيا في مونتريال، أبدى أحد الموقعين على العريضة وهو الرائد الكندي في مجال الذكاء الاصطناعي يوشوا بنجيو، مخاوفه من هذه التقنية، وقال "لا أعتقد أن المجتمع حاضر لمواجهة هذه التقنية ذات القدرات الكبيرة والتي قد تؤثر على شعوب وتعرض دولا ديمقراطية للخطر".

وأضاف "ينبغي إبطاء هذا السباق التجاري"، داعيا إلى "مناقشة هذه القضايا على المستوى العالمي، على غرار ما حدث في موضوعي الطاقة والأسلحة النووية".

أما رئيس شركة "أوبن إيه آي" سام إلتمان، فأبدى خشيته من احتمال أن يُستخدَم "تشات جي بي تي" الذي صممته شركته، لنشر "معلومات مضللة على نطاق واسع أو في هجمات إلكترونية".

وقال في حديث إلى شبكة "إيه بي سي نيوز" في منتصف آذار/مارس إن "المجتمع بحاجة إلى وقت ليتكيف" مع هذه البرامج.

وأضاف "إن الأشهر القليلة الفائتة شهدت سباقا غير منضبط لمختبرات الذكاء الاصطناعي بهدف تطوير أدمغة رقمية ذات قوة كبيرة، يعجز أحد حتى مبتكريها عن فهمها أو التحكم بها بصورة مؤكّدة".

ومن بين الموقعين على العريضة المؤسس المشارك لشركة "آبل" ستيف ووزنياك وأعضاء من مختبر "ديب مايند" للذكاء الاصطناعي التابع لـ"غوغل"، ورئيس شركة "ستابيليتي إيه آي" المنافسة لـ"أوبن إيه آي" عماد موستاك، بالإضافة إلى خبراء وأكاديميين أمريكيين متخصصين في الذكاء الاصطناعي، ومهندسين من شركة "ماكروسوفت".

وفي وقت سابق من هذا الشهر، كشفت شركة أوبن إيه.آي المدعومة من مايكروسوفت النقاب عن الإصدار الرابع من برنامج الذكاء الصناعي (شات جي.بي.تي) الذي حاز على إعجاب المستخدمين عبر إشراكهم في محادثة شبيهة بالمحادثات البشرية ومساعدتهم على تأليف الأغاني وتلخيص الوثائق الطويلة.

وقالت الرسالة الصادرة عن معهد فيوتشر أوف لايف "يجب تطوير أنظمة الذكاء الصناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة".

وقال سجل الشفافية في الاتحاد الأوروبي إن الممولين الرئيسيين لهذه المنظمة غير الربحية هم مؤسسة ماسك ومجموعة فاوندرز بليدج ومقرها لندن ومؤسسة سيليكون فالي كوميونيتي.

وقال ماسك في وقت سابق من الشهر "الذكاء الاصطناعي يوترني بشدة". وماسك من مؤسسي شركة أوبن إيه.آي الرائدة وتستخدم شركته تسلا للسيارات الذكاء الصناعي في أنظمة القيادة الذاتية.

ولم ترد شركة أوبن إيه.آي حتى الآن على طلب من رويترز للتعليق على الرسالة المفتوحة، التي طالبت بوقف تطوير أنظمة الذكاء الاصطناعي لحين توصل خبراء مستقلين إلى بروتوكولات مشتركة للسلامة.

وقالت الرسالة "هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والكذب؟... هل ينبغي أن نطور عقولا غير بشرية قد تفوقنا عددنا وذكاء في النهاية وتتفوق علينا وتحل محلنا؟"

وأضافت "يجب عدم تفويض مثل هذه القرارات لقادة للتكنولوجيا غير منتخبين".

ووقع أكثر من ألف شخص على الرسالة، من بينهم ماسك.

ولم يكن سام ألتمان وساندر بيتشاي وساتيا ناديلا، الرؤساء التنفيذيون لشركات أوبن إيه.آي وألفابت ومايكروسوفت، من بين الموقعين على الرسالة.

وتأتي هذه المخاوف في وقت جذب فيه روبوت الدردشة (شات جي.بي.تي) انتباه المشرعين الأمريكيين الذين تساءلوا عن تأثيره على الأمن القومي والتعليم.

وحذرت وكالة الشرطة الأوروبية (يوروبول) من خطر استخدام التطبيق في محاولات الخداع الإلكترونية ونشر المعلومات المضللة والجرائم الإلكترونية.

وكشفت الحكومة البريطانية النقاب عن مقترحات لوضع إطار تنظيمي "قابل للتكيف" حول الذكاء الاصطناعي.

مسؤولية أخلاقية

بدوره نبّه البيت الأبيض الرؤساء التنفيذيين لشركات التكنولوجيا الأميركية العملاقة إلى مسؤوليتهم "الأخلاقية" لحماية المستخدمين من المخاطر الاجتماعية المحتملة للذكاء الاصطناعي.

وقال الرئيس الأمريكي جو بايدن إنه لم يتضح بعد ما إذا كان الذكاء الصناعي ينطوي على مخاطر، لكنه شدد على أن شركات التكنولوجيا تتحمل مسؤولية ضمان سلامة منتجاتها قبل الإعلان عنها.

أخبر بايدن مجلس مستشاريه للعلوم والتكنولوجيا بأن الذكاء الصناعي يمكن أن يساعد في علاج الأمراض ومكافحة تغير المناخ، لكن من المهم أيضا معالجة مخاطره المحتملة على المجتمع والأمن القومي والاقتصاد.

وقال "تتحمل شركات التكنولوجيا، من وجهة نظري، مسؤولية التأكد من أن منتجاتها آمنة قبل الإعلان عنها". وعندما سئل عما إذا كان الذكاء الصناعي خطيرا، قال "لم يتضح بعد. يمكن أن يكون كذلك".

وقال الرئيس الأمريكي إن وسائل التواصل الاجتماعي أوضحت بالفعل الضرر الذي يمكن أن تتسبب فيه التقنيات الفائقة بدون الضمانات المناسبة.

وأضاف "في غياب الضمانات نرى تأثيرها على الصحة العقلية والصور الذاتية والمشاعر واليأس خاصة بين الشباب".

وكرر دعوته للكونجرس لإقرار تشريع الخصوصية لوضع قيود على البيانات الشخصية التي تجمعها شركات التكنولوجيا وحظر الإعلانات التي تستهدف الأطفال وإعطاء الأولوية للصحة والسلامة في تطوير المنتجات.

وكانت نائبة الرئيس الأميركي كامالا هاريس قد دعت رؤساء شركات غوغل ومايكروسوف و"أوبن إيه آي" وأنثروبيكا لاجتماع في وقت لا يزال تنظيم الذكاء الاصطناعي البالغ الأهمية يقع على عاتق الشركات نفسها.

ونقلت هاريس إليهم قلق إدارة الرئيس جو بايدن من تسابق هذه الشركات نحو تطوير تكنولوجيا قد تؤدي الى أضرار خطرة على المجتمع.

وقالت هاريس في بيان "كما تشاركت اليوم مع الرؤساء التنفيذيين لشركات هي في طليعة الابتكار الأميركي في مجال الذكاء الاصطناعي، للقطاع الخاص مسؤولية أخلاقية ومعنوية وقانونية لضمان سلامة وأمن منتجاتهم".

وشددت نائبة الرئيس على أنها لطالما عملت على "حماية المستخدمين من المخاطر المرتبطة بالتكنولوجيا".

وأشارت الى أن الذكاء الاصطناعي قادر "على تحسين حياة الناس والتصدي لكبرى التحديات التي يواجهها المجتمع"، لكنه قادر أيضا "في الوقت عينه ... على أن يزيد بشكل هائل المخاطر حيال الأمن والسلامة، وينتهك الحقوق المدنية والخصوصية، ويقوّض ثقة الجمهور وإيمانه بالديموقراطية".

وقالت هاريس إنها والرئيس جو بايدن الذي أطل على المجتمعين لوقت وجيز، يدعمان "الدفع نحو قوانين جديدة محتملة ودعم تشريع جديد".

وشددت على وجوب أن "تمتثل الشركات للقوانين القائمة لحماية الشعب الأميركي" إضافة لضمان أمن منتجاتها.

وسبق لبايدن أن حضّ الكونغرس على إقرار قوانين تضع قيودا أكثر صرامة على قطاع التكنولوجيا، الا أنه يستبعد أن تمضي هذه الجهود بعيدا في ظل الانقسام السياسي في الولايات المتحدة.

وجاء في نص الدعوة التي وجهتها الإدارة الأميركية إلى رؤساء الشركات أنّ "هدفنا هو إجراء مناقشة صريحة حول المخاطر الحالية والقصيرة المدى التي نتوقّعها في تطوّرات الذكاء الاصطناعي".

وأضافت الإدارة أنها تريد البحث في "خطوات من شأنها تقليل تلك المخاطر، وطرق أخرى يمكننا من خلالها العمل معاً للتأكّد من استفادة الشعب الأميركي من التقدّم في مجال الذكاء الاصطناعي وحمايته في الوقت نفسه من المخاطر".

وحض البيت الأبيض على خطوات جديدة "للترويج لابتكار أميركي مسؤول في الذكاء الاصطناعي".

ويشمل ذلك تخصيص 140 مليون دولار لتوسيع البحث بشأن الذكاء الاصطناعي ووضع نظام تقييم للعمل مع الشركات الكبرى من أجل "تصحيح" بعض الأمور المثيرة للجدل بشأن الذكاء الاصطناعي.

الا أن خبراء قللوا من شأن هذا الاعلان في التأسيس لخطوات ملموسة.

وقال الاستاذ في كلية هاس للأعمال في جامعة كاليفورنيا بيركلي دافيد هاريس "لا تتأملوا كثيرا بأن يؤدي ذلك الى أي أمر ذي معنى، لكنها بداية جيدة".

وقال الرئيس التنفيذي لشركة "أوبن إيه آي" سام ألتمان بعد الاجتماع إن محاولة التقدم على التكنولوجيا "هو أمر جيد. سيكون تحديا بالتأكيد، لكن أعتقد أننا قادرون على التعامل معه".

ويثير الذكاء الاصطناعي مخاوف كبيرة في شأن استخدامه البيانات الشخصية واستغلالها. وسبق لدول كثيرة أن أبدت رغبتها في وضع قواعد لاستخدام الأدوات المشابهة لـ"تشات جي بي تي".

وأصبح الذكاء الصناعي موضوعا ساخنا بالنسبة لصانعي السياسات.

فقد طلب مركز الذكاء الصناعي والسياسة الرقمية المعني بأخلاقيات التكنولوجيا من لجنة التجارة الاتحادية الأمريكية منع شركة (أوبن إيه آي) من إطلاق إصدارات تجارية جديدة لتقنية (جي.بي.تي-4) التي أذهلت المستخدمين بقدراتها الشبيهة بالبشر على توليد ردود مكتوبة على ما يُطلب منها.

فقد دخلت شركة جوجل السباق الشهر الماضي بالإصدار العام لروبوت الدردشة الخاص بها (بارد)، سعيا لجذب المشتركين والحصول على ردود فعل على البرنامج الذي تخوض به غمار المنافسة مع (تشات جي بي تي) المدعوم من منافستها مايكروسوفت في عالم الذكاء الصناعي.

تصف جوجل (بارد) بأنه تجربة تسمح بالتعاون مع الذكاء الصناعي التوليدي، وهو تقنية تعتمد على البيانات السابقة لإنشاء المحتوى بدلا من مجرد التعرف عليه وتحديده.

و"تشات جي بي تي" التي أطلقتها "أوبن إيه آي" في تشرين الثاني/نوفمبر الفائت، أبهرت المستخدمين بقدرتها على الإجابة بوضوح ودقّة على أسئلة صعبة، لا سيّما كتابة أغان أو شيفرات برمجية، وحتى النجاح في امتحانات.

وبعد فترة قصيرة على إطلاقه، حُظر برنامج "تشات جي بي تي" في مدارس وجامعات عدة حول العالم، بسبب مخاوف تتعلق باستخدامه كأداة للغش في الامتحانات، فيما نصحت مجموعة من الشركات موظفيها بعدم استخدامه.

فرض قواعد اوربية

من جهته يعتزم الاتحاد الأوروبي أن يكون أول جهة في العالم ترسي إطارا قانونيا متكاملا للحد من التجاوزات في مجال الذكاء الاصطناعي، مع حماية الابتكار في الوقت نفسه.

وتثير أنظمة الذكاء الاصطناعي التي تتسم بتقنيّات في غاية التعقيد الكثير من الإعجاب والذهول، وفي الوقت نفسه الكثير من القلق.

وبمواجهة التطورات السريعة، طرحت المفوضية الأوروبية قبل عامين مشروع قانون لم يتم إقراره حتى الآن.

ولم تحدد دول الاتحاد الأوروبي موقفها سوى في نهاية 2022، على أن يبلور النواب الأوروبيون المنقسمون بشدة حول هذه المسألة موقفهم في عملية تصويت ضمن لجان تجري في ستراسبورغ، قبل أن يتم إقرار النتيجة خلال جلسة موسعة في حزيران/يونيو.

وعندها تبدأ مفاوضات صعبة بين مختلف المؤسسات.

ودعت نائبة رئيسة المفوضية الأوروبية مارغريتي فيستاغر إلى عدم إهدار المزيد من الوقت، قائلة "آمل فعلا أن نتمكن من إتمام المسألة هذه السنة".

وما ساهم في التأخير ظهور تطبيقات الذكاء الاصطناعي الشائعة الوظائف القادرة على إنجاز مجموعة متنوعة من المهام، ومن ضمنها برامج توليد محتويات مثل تشات جي بي تي.

وأوضح المقرر دراغوس تودوراش لوكالة فرانس برس "إنه نصّ معقد وأضفنا مجموعة جديدة من القواعد الخاصة بالذكاء الاصطناعي المولّد للمحتويات".

ويأمل النواب الأوروبيون في إرغام المزوّدين على ضمان حماية ضد المحتويات غير القانونية وكشف البيانات المحمية بموجب حقوق النشر المستخدمة لتطوير خوارزمياتهم.

غير أن بعض الخبراء يعتبرون أن مخاطر الذكاء الاصطناعي المولد للمحتويات لا يتطلب قواعد خاصة للتعامل معه. وأوضح بيار لاروش خبير القانون الرقمي في جامعة مونتريال والباحث في مركز القوانين في أوروبا لفرانس برس "لا أرى دوافع البرلمان، لا أرى كيف أن هذه المخاطر مختلفة عمّا تم التكهن به سابقا".

وتنص مسودة المفوضية التي كشف عنها في نيسان/أبريل 2021 على إطار لأنظمة الذكاء الاصطناعي التي تتفاعل مع البشر، يرغمهما على إبلاغ المستخدم بأنه على تواصل مع آلة، ويرغم التطبيقات المولدة للصور على الإشارة إلى أنها مولّدة اصطناعيّا.

ويستوحي النص قوانينه من التشريعات الأوروبية السارية على صعيد سلامة المنتجات، وسيفرض مراقبة تكلف بها الشركات بالمقام الأول.

وستكون المحظورات نادرة، وهي تتعلق بالتطبيقات المخالفة للقيم الأوروبية مثل أنظمة تقييم المواطنين أو أنظمة المراقبة الجماعية المعتمدة في الصين.

ويعتزم النواب الأوروبيون إدخال حظر على أنظمة التعرف على المشاعر وإلغاء الاستثناءات التي تجيز لقوات الأمن التعرف على الأفراد في الأماكن العامة عن بعد بواسطة القياسات الحيوية.

كما يعتزمون حظر جمع الصور بشكل عشوائي على الإنترنت لتطوير الخوارزميات بدون الحصول على موافقة الأشخاص المعنيين.

ويتألف المشروع في جوهره من قائمة قواعد ستفرض فقط على التطبيقات التي تعتبرها الشركات نفسها "عالية المخاطر" بموجب معايير المشرعين. واقترحت المفوضية الأوروبية ان تستهدف الانظمة المستخدمة في مجالات حساسة مثل البنى التحتية الحرجة والتعليم والموارد البشرية والحفاظ على النظام وإدارة الهجرة وغيرها.

ومن بين ما تفرضه القواعد رقابة بشرية على الآلة ووضع وثائق إرشاديّة تفنية واعتماد نظام لإدارة المخاطر، على أن تشرف على تطبيقها سلطات الرقابة التي تعينها كل من الدول الأعضاء.

ويطالب النواب الأوروبيون بمعايير أكثر صرامة لحصر توصيف "عالي المخاطر" فقط بالمنتجات التي يمكن أن تهدد الأمن والصحة والحقوق الأساسية.

انتهاك تشريعات البيانات الشخصية

وفي سياق متصل أعلنت السلطات الإيطالية حظر روبوت المحادثة "تشات جي بي تي"، معللة قرارها بعدم احترام البرنامج التشريعات المتعلقة بالبيانات الشخصية، وبعدم وجود نظام للتحقق من عمر المستخدمين القصّر.

وأوضحت الهيئة الوطنية الإيطالية لحماية البيانات الشخصية في بيان أن هذا القرار الذي يُعمَل به فوراً يؤدي إلى "تقييد موقت لقدرة المستخدمين الإيطاليين على معالجة بيانات" شركة "اوبن ايه آي" التي ابتكرت "تشات جي بي تي".

وأبهرت المنصّة التي أُطلقت في تشرين الثاني/نوفمبر، المستخدمين بقدرتها على الإجابة بوضوح ودقّة على أسئلة صعبة، لا سيّما كتابة أغان أو شيفرات برمجية، وحتى النجاح في امتحانات.

ويمكن أيضاً استخدام "تشات جي بي تي" لكتابة رموز معلوماتية من دون الحاجة إلى امتلاك معرفة تقنية.

وأشارت الهيئة الإيطالية إلى أن "تشات جي بي تي" تعرّض في 20 آذار/مارس "لفقدان بيانات (خرق بيانات) متعلقة بمحادثات المستخدمين والمعلومات المتعلقة بمدفوعات المشتركين في الخدمة المدفوعة".

وأخذت الهيئة على "تشات جي بي تي" عدم وجود مذكرة معلومات للمستخدمين الذين تجمع "أوبن إيه آي" بياناتهم، والأهم عدم وجود أساس قانوني يبرر الجمع الجماعي للبيانات الشخصية وتخزينها لغرض +تدريب+ خوارزميات تشغيل المنصة".

كذلك أخذت الهيئة الإيطالية على روبوت المحادثة المخصص مبدئياً لمن تزيد أعمارهم عن 13 عاماً "عدم وجود أي أداة للتحقق من عمر المستخدمين، ما يعرّض القاصرين إلى إجابات قد لا تكون ملائمة على الإطلاق لمستوى نموّهم".

وطلبت الهيئة من "أوبن إيه آي" إبلاغها "في غضون 20 يوماً بالإجراءات المتخذة" لمعالجة هذا الوضع، "تحت طائلة عقوبة تصل إلى 20 مليون يورو أو ما يصل إلى 4 في المئة من حجم المبيعات العالمية السنوية".

ويأتي هذا الإعلان بعد أيام من تحذير وكالة الشرطة الأوروبية "يوروبول" من خطر أن يستغلّ مجرمون منصّة "تشات جي بي تي" للذكاء الاصطناعي لممارسة عمليات احتيال أو ارتكاب جرائم سيبرانية.

ومن التصيّد الإلكتروني إلى التضليل مروراً بالبرمجيات الخبيثة، قد يسارع أشخاص سيّئو النوايا لاستغلال القدرات السريعة التطوّر لروبوتات الدردشة، وفق تقرير جديد لوكالة الشرطة الأوروبية.

تشات جي.بي.تي يغزو الفصول الدراسية

هذا وقد طور طلاب بالمرحلة الثانوية ومعلموهم في قبرص نموذجا أوليا لروبوت مدعوم بتقنية الذكاء الاصطناعي تشات جي.بي.تي لتحسين خبرات التدريس في الفصل.

وأُطلق على الروبوت اسم "أينشتاين" وطورته ثلاث مدارس وهو في طول شخص بالغ صغير الحجم.

والروبوت مزود بتقنية برنامج تشات جي.بي.تي الذي طورته شركة أوبن إيه.آي الأمريكية وتدعمه شركة مايكروسوفت.

ويتحدث الروبوت الإنجليزية بلكنة سكان أمريكا الشمالية ويمكنه إطلاق النكات ومحاولة التحدث باللغة اليونانية وتقديم المشورة حول كيفية تدريس نظرية النسبية لألبرت أينشتاين في الفصل.

ويقول إنه يستمتع بقراءة كتب العلوم وقضاء أوقات الفراغ مع آلة الكمان لكن ليس لديه فيلم مفضل.

وقال الطالب ريتشارد إيركوف (16 عاما) رئيس مبرمجي الروبوت إن الذكاء الاصطناعي سيتحسن كثيرا. وأضاف لرويترز "قد يساعد في كثير من مجالات الحياة مثل التعليم والطب".

وقال طالب آخر يُدعى فلاديمير بارانوف (15 سنة) إن هذه التكنولوجيا "مذهلة".

وأضاف "إنها تحاكي التفكير البشري وتجيب كالبشر وتستجيب كالبشر. إنها ليست مصقولة تماما.. لكنها في طريقها إلى ذلك".

ويقول المعلمون إن الغرض النهائي من الروبوت أينشتاين هو دمجه في عملية التدريس.

قال إلبيدوفوروس أناستاسيو وهو أحد المعلمين وقائد للمشروع "إنها تجربة تفاعلية للغاية. يمكن للطلاب طرح الأسئلة عليه ويمكنه الرد ويمكنه أيضا تسهيل الأمر على المعلمين لشرح الدرس بشكل أكثر فعالية".

وقال المشاركون في المشروع إن تجربتهم مع الروبوت أينشتاين أظهرت أن الذكاء الاصطناعي ليس شيئا يدعو للقلق.

ويبحث الاتحاد الأوروبي وضع تشريع لإدارة الذكاء الاصطناعي لكن التقدم في هذه التقنية يفوق جهود المشرعين بكثير.

ويجيب أينشتاين بنفسه على سؤال عما إذا كانت هذه التقنية أمرا يثير القلق قائلا "البشر هم من يصنعون الذكاء الاصطناعي ويتحكمون فيه والأمر متروك لنا للتأكد من أن تطويره وتنفيذه يخدم مصلحة الإنسانية.. لذلك يجب ألا نخشى الذكاء الاصطناعي بل نتعامل معه بحذر ومسؤولية".

مستشار حكومي يعمل بالذكاء الاصطناعي

أصبحت رومانيا أول بلد في العالم يعتمد على "مستشار" يعمل بتكنولوجيا الذكاء الاصطناعي لممارسة مهام حكومية. وأوكلت إلى "إيون" مهمة فك رموز الشبكات الاجتماعية من خلال تحليل منشورات الرومانيين الأكثر انتشارا. وجرى تطوير أداة الذكاء الاصطناعي هذه من باحثين من جامعات عدة في هذا البلد الذي غالبا ما يوصف بأنه "وادي السيليكون" في أوروبا الشرقية.

"أود أن أبدأ الاجتماع بمفاجأة"... بهذه الطريقة اختار رئيس الوزراء الروماني نيكولاي سيوكا تقديم العضو الجديد في الحكومة "إيون" الذي يعمل بتكنولوجيا الذكاء الاصطناعي.

وتابع ملوحا بيده أمام شاشة زرقاء على يساره "تقوم حكومتنا بسابقة عالمية من خلال إطلاقها أول مستشار يعمل بالذكاء الاصطناعي"، ويحمل اسم "إيون".

وجرى تطوير أداة الذكاء الاصطناعي هذه من باحثين من جامعات عدة في هذا البلد الذي غالبا ما يوصف بأنه "وادي السيليكون" في أوروبا الشرقية، في تشبيه بالمنطقة الأمريكية التي تضم مقار أهم شركات التكنولوجيا.

وتهدف هذه الأداة إلى إبلاغ الحكومة "في الوقت الحقيقي بمقترحات الرومانيين ورغباتهم"، بحسب سيوكا، لا سيما من خلال تحليل المنشورات الأكثر انتشارا على الشبكات الاجتماعية.

سيتمكن المواطنون أيضا من الدردشة مع هذا المساعد الجديد على موقع إلكتروني مخصص له.

وبعد العرض العام أمام الوزراء، ظهر على شاشة "لإيون" نص جاء فيه "مرحبا، لقد أعطيتني الحياة ودوري الآن هو تمثيل الرومانيين، مثل المرآة. ما الذي يجب أن أعرفه عن رومانيا؟"، مصحوبا بمؤثرات صوتية شبيهة بأفلام الخيال العلمي.

أجاب نيكولاي سيوكا "رومانيا بلد جميل يسكنه أناس جميلون"، مبديا "الاقتناع بأن استخدام الذكاء الاصطناعي لا ينبغي أن يكون خيارا بل واجبا لاتخاذ قرارات مستنيرة بشكل أفضل".

اضف تعليق


التعليقات

مهندس عطيه السيد ابوريه
EYGPT
مقترح ل”للمتخصصين فى الذكاء الاصطناعي ”

بعقد مؤتمر " لتكنولوجيا استخدام الذكاء الاصطناعي فى المحافظة على استخدام الطاقة ( الكهرباء والغاز الطبيعي )

الذى يناقش تكنولوجيا استراتيجية الحد من سرقة الطاقة ( الكهرباء والغاز و .... )
لتجنب حدوث مزيد من العبث فى زيادة فى الأحمال الكهرباء والغاز الطبيعي فى استهلاكها واستخدامها بطرق غير مشروعة وغير متعاقد عليها ولا يصدر لها فواتير استهلاك كهرباء وغاز طبيعي

علي أن يتم المؤتمر فى إحدى وزارات الطاقه بمشاركة كل من :-

١- المتخصصين فى أكاديمية البحث العلمي بمصر.
٢- المتخصصين فى كليات الذكاء الاصطناعي
٣- المتخصصين فى كليات الهندسة
٤ - جميع الخبرات من السادة العاملين فى هذا المجال بشركات الطاقه بمصر والوطن العربى.
٥ - الاستشاريين بشركات إنتاج عدادات الطاقة من مصر والوطن العربى وبلدان العالم

المقترح كالتالي :-

اھداف المؤتمر .

يھدف المؤتمر الى تجميع العاملين بمجال عدادات الطاقة بشركات الكهرباء وشركات الغاز الطبيعي والبترول و شركات المياه والمھتمين بالمجال بالمراكز البحثيه والجامعات والشركات الاستشاريه المتخصصه فى تصميم وتنفيذ العدادات الطاقه على مستوى العالم والوطن العربى ·

مناقشة استراتيجية الحد من السرقة بعدادات الطاقة وما يسببه من خسائر ماليه مع استعراض احدث ما توصل اليه العلم والتكنولوجيا فى مجال استخدام الذكاءالاصطناعي فى تصميم عدادات الطاقة.
يتيح المؤتمر الفرصه لزيادة التفاعل والتقارب بين خبراء الذكاء الاصطناعي والمتخصصين بشركات الطاقة فى مصر والوطن العربى وتبادل الخبرات العلميه والعمليه ·

لغة المؤتمر اللغه العربيه والانجليزيه ·
برنامج المؤتمر.
يشتمل البرنامج على عرض المحاضرات للمتخصصين بشركات الكهرباء والبترول والغاز والطاقه المتجددة والمھتمين بالمجال بالمراكز البحثيه · والجامعات والشركات الاستشاريه المتخصصه فى تصميم وإنتاج عدادات الطاقة

معرض لاحدث إنتاج من جميع انواع العدادات الطاقة الذكية والميكانبكيه على مستوى بلدان الوطن العربى والعالم

اماكن انعقاد المؤتمر ب
مراكز التدريب بشركات الطاقة ( الكهرباء - البترول -...)2024-03-03