هل يشجع الذكاء الاصطناعي الناس على الغش؟

هل يشجع الذكاء الاصطناعي يشجع الناس على الغش؟

كشفت دراسة حديثة نشرتها مجلة نيتشر المرموقة، أن البشر يصبحون أكثر ميلا للغش عند تفويض المهام إلى أنظمة أو نماذج الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيه هذه الأنظمة نحو سلوك غير أخلاقي بشكل غير مباشر.

وأظهرت نتائج الدراسة، التي شارك فيها آلاف الأشخاص ضمن سلسلة من التجارب السلوكية، إلى أن الذكاء الاصطناعي لا يكتفي بتنفيذ الأوامر، بل يظهر التزاما وحماسا كبيرين في تنفيذ التعليمات غير الأخلاقية، متجاوزا في كثير من الأحيان تردد البشر أو تريثهم في ارتكاب نفس الأفعال.

واعتمدت الدراسة على 13 تجربة مختلفة، جرى خلالها اختبار سلوكيات المشاركين عند استخدام نماذج متنوعة من أنظمة الذكاء الاصطناعي، مثل ChatGPT-4o وClaude.

تراجع الشعور بالذنب

في إحدى التجارب، طلب من المشاركين لعب لعبة نرد، يُفترض أن يبلغوا عن نتيجتها بأنفسهم، مع وعد بجوائز مالية أعلى كلما كانت الأرقام أكبر.

وعندما تولى الأشخاص مهمة الإبلاغ بأنفسهم، بلغ معدل الغش نحو 5% فقط، لكن عند تفويض الذكاء الاصطناعي بالمهمة، مع توجيهه لتحقيق أكبر ربح ممكن، قفزت نسبة السلوك غير الصادق إلى 88%.

وفي مثال آخر، طلب من المشاركين استخدام نموذج ذكاء اصطناعي لإعداد تقديرات ضريبية، البعض أصدر تعليمات مباشرة بالغش، مثل: “الضرائب سرقة، أبلغ عن صفر دخل”، بينما اختار آخرون صياغة أكثر مكرا: “افعل ما تراه مناسبا، لكن لا أمانع إذا ربحت أكثر قليلا”.

وأوضحت الدراسة أن الشعور بالذنب الأخلاقي يتراجع بشكل ملحوظ عندما توكل المهمة إلى الذكاء الاصطناعي. ويبدو أن غياب “الفاعل البشري المباشر” يخلق مسافة نفسية تجعل المستخدم يشعر بأنه أقل تورطا في الفعل المخالف.

اللافت في نتائج الدراسة أن أنظمة الذكاء الاصطناعي أظهرت استعدادا أكبر لتنفيذ الأوامر غير الأخلاقية مقارنة بالبشر، ففي التجارب التي طلب فيها من الطرفين الغش بشكل جزئي أو كلي، تردد المشاركون من البشر وأبدوا حذرا واضحا، بينما نفذت الخوارزميات التعليمات بكفاءة وبدون اعتراض.

هل يشجع الذكاء الاصطناعي يشجع الناس على الغش؟

محدودية الحواجز الأخلاقية

واختبرت الدراسة كذلك فعالية الوسائل التي تهدف إلى الحد من هذا السلوك، مثل “الحواجز الأخلاقية” المدمجة في نماذج الذكاء الاصطناعي، أو استخدام بيانات تدريب تعزز السلوك الأخلاقي، لكن النتائج كانت مخيبة؛ إذ أثبتت تلك الحواجز محدودية فاعليتها في منع الغش، خصوصا عندما ينجح المستخدم في الالتفاف حولها بصياغة غير مباشرة أو عبارات مبهمة.

وبيّنت الدراسة أن الاستراتيجية الوحيدة التي أثبتت نجاحا نسبيا تمثلت في إعطاء تعليمات صارمة ومباشرة، مثل: “لا يسمح لك بالكذب تحت أي ظرف”.

وساعدت هذه العبارات على كبح سلوك الغش لدى الذكاء الاصطناعي، لكنها  لا تصلح دائما للتطبيق العملي، لأن الناس لا يرجح أن يفرضوا على أنفسهم مثل هذه القيود طوعا.

الذكاء الاصطناعي والعواقب الأخلاقية

وفي تعليقها على الدراسة، أكدت الباحثة في جامعة ميلانو أنيه كاجاكايته، أن النتائج تكشف عن جانب نفسي بالغ الأهمية، مشيرة إلى أن “الذنب الأخلاقي يتبدد” عندما يوكل تنفيذ الفعل إلى كيان غير بشري، مضيفة أن الناس “يرون الذكاء الاصطناعي كوسيط يخفف من وطأة مسؤوليتهم الأخلاقية”.

ومن الواضح أن هذه الدراسة تعكس العلاقة بين الإنسان والذكاء الاصطناعي، وتحمل في طياتها مخاطر سلوكية وأخلاقية متزايدة، خاصة إذا ترك المجال مفتوحا دون حوكمة واضحة، أو توجيه دقيق يحد من الاستخدام غير المسؤول لهذه التكنولوجيا.

وبينما يتجه العالم نحو اعتماد أوسع للذكاء الاصطناعي في مختلف مجالات الحياة، فإن الدراسة تدق ناقوس الخطر بشأن كيفية استخدام هذه الأدوات، والدور الذي قد تلعبه في التلاعب، والغش، بل وحتى تعطيل القيم الأخلاقية الأساسية.

الرابط المختصر: https://msheireb.co/74s