دراسة: إذا طوّر البشر قدرات ذكاء اصطناعي خارقة فلن يعود بإمكانهم التحكم فيها

ما هي مخاطر تطوير تقنيات ذكاء اصطناعي خارقة؟
ما هي مخاطر تطوير تقنيات ذكاء اصطناعي خارقة؟ © فليكر (Ars Electronica)
نص : مونت كارلو الدولية
3 دقائق

قال علماء في جامعة مدريد الإسبانية إنه وفقاً للنتائج التي توصلوا إليها، سيكون من المستحيل تقريباً التحكم في قدرات الذكاء الاصطناعي المتفوق، في حال تمكن البشر من تطوير روبوتات تعمل بهذه التقنية العالية.

إعلان

قال موقع Tech Times الأمريكي المتخصص بالكشوف العلمية والتقنية في 13 كانون الثاني 2021، إن التحكم في الذكاء الاصطناعي الخارق يتطلب معرفة تتجاوز الفهم البشري. وسيكون من الضروري تطوير محاكاة لهذا الذكاء الفائق قابلة للتحليل. ولكن إذا لم يعد البشر قادرين على فهم طبيعة هذا الذكاء، فمن المستحيل إنشاء مثل هذه المحاكاة.

وبحسب الدراسة التي نشرها العلماء الإسبان في "مجلة دراسة أبحاث الذكاء الاصطناعي"، فإنه وبمجرد أن يعمل نظام الكمبيوتر بمستوى ذكاء أعلى من مطوريه، فلن يعود بالإمكان وضع أية قيود عليه أو التحكم فيه.

ويوضح الباحثون أن "الذكاء الخارق يطرح مشكلة مختلفة اختلافاً جوهرياً عن تلك التي تمت دراستها عموماً وتندرج ضمن أخلاقيات الروبوتات". وتابعوا أن "الذكاء الخارق له جوانب عديدة، ولذا فمن المحتمل أن يكون قادراً على تعبئة مجموعة متنوعة من الموارد من أجل تحقيق أهداف يحتمل أن تكون غير مفهومة للبشر، وحتى أقل قابلية للتحكم".

يأتي جزء من نتائج الفريق العلمي من المشكلة التي طرحها عالم الحاسوب والرياضي البريطاني آلان تورينغ في عام 1936، وهي توضح أنه من المستحيل التنبؤ بما إذا كان برنامج معلوماتي سيصل إلى جواب أم لا، أو ما إذا كان سيدور إلى الأبد في محاولة للعثور على جواب. وبما أن أي برنامج يهدف إلى منع الذكاء الاصطناعي من إيذاء البشر وتدمير العالم سيكون خاضعاً بالضرورة للقاعدة نفسها، فإن من المستحيل رياضياً أن نتأكد تماماً من إمكانية التحكم في مثل هذا الذكاء الاصطناعي.

الرسالة الإخباريةأبرز الأحداث الدولية صباح كل يوم