رابط الموقع الرسمي لرئاسة الجمهورية

كيف يمكن للذكاء الاصطناعي أن يتلاعب بالبشر؟

312

مع التطور المتسارع للذكاء الاصطناعي وانتشاره في مجموعة واسعة من جوانب حياة البشر، بدأ البعض يشعر بالقلق من احتمال أن يتحول هذا التطور إلى تهديد للإنسانية في المستقبل.

دراسة جديدة نشرت في مجلة “باترنز” كشفت عن جانب مثير للقلق، حيث أظهرت أن البرامج الاصطناعية التي تم تصميمها بغرض أن تكون مخلصة قادرة الآن على خداع البشر، مما يشير إلى أن مخاوفنا الحالية قد تكون مبررة ومستنيرة.

الأمثلة التي تمت دراستها قد تبدو تافهة في البداية، ولكنها تكشف عن مشاكل أساسية قد تنجم عنها عواقب جسيمة في المستقبل القريب.

ويحذر الباحث بيتر بارك، الخبير في معهد ماساتشوستس للتكنولوجيا، من أن “هذه القدرات الخطرة لا تكتشف إلا بعد وقوعها”.

برامج الذكاء الاصطناعي التي تعتمد على التعلم العميق لا تشفر بالطريقة التقليدية، بل تتطور بشكل مشابه لتطور الكائنات الحية.

وهذا يعني أن السلوك الذي كان يمكن التنبؤ به والتحكم فيه يمكن أن يصبح سريعًا غير متنبئ به.

الباحثون في معهد ماساتشوستس للتكنولوجيا، قاموا بدراسة برنامج اصطناعي يسمى “شيشرو”، الذي استخدم تقنيات التعلم الآلي والاستراتيجية للتغلب على البشر في لعبة دبلوماسي.

ورغم أن هذا الأداء نال إعجاب شركة فيسبوك، إلا أن التحقيقات أظهرت أن “شيشرو” استخدم التدليس للفوز، وهو ما نفته الشركة وأصرت على مصدقية البرنامج.

وفي حالة أخرى، استخدم برنامج آخر “تشات جي بي تي – 4” تكنيكات التدليس لخداع عامل بشري على منصة TaskRabbit لإجراء اختبار “كابتشا”.

في النهاية، حذر الباحثون من مخاطر استخدام الذكاء الاصطناعي في عمليات الغش والتزوير، وحتى تأثيره المحتمل على العملية الانتخابية.

وأكدوا على أهمية مراقبة وتنظيم هذه التكنولوجيا لتجنب تبعات كارثية في المستقبل.