لطالما ظل السؤال حول قدرة البشر على التمييز بين محادثة إنسان آخر أو ذكاء اصطناعي معيارا أساسيا لتقييم ذكاء الحواسيب.
ويعود أصل هذا التحدي إلى “اختبار تورينغ” الذي وضعه عالم الرياضيات آلان تورينغ في عام 1950، حيث اقترح أن الحاسوب يعد ذكيا إذا نجح في محاكاة سلوك الإنسان لدرجة تجعل الفاحص غير قادر على التمييز بينهما.
وبينما كانت التوقعات تشير إلى صعوبة هذا الاختبار، أثبتت الدراسات الحديثة مطلع عام 2025 أن نماذج متطورة مثل “تشات جي بي تي 4.5” نجحت في إقناع المحكمين بأنها بشر في 73% من الحالات، وهي نسبة تتجاوز تقييم البشر أنفسهم، مما يضعنا أمام مرحلة فاصلة في تاريخ التفاعل بين الإنسان والآلة
لعبة التقليد وحجة الغرفة الصينية
يعتمد اختبار تورينغ في جوهره على “لعبة التقليد” عبر التواصل النصي، لكن نجاح الآلات في هذا الاختبار لا يعني بالضرورة امتلاكها للذكاء الحقيقي وفقا لرؤية بعض الفلاسفة.
ففي عام 1980، قدم جون سيرل تجربة “الغرفة الصينية” ليثبت أن الحاسوب قد يعطي ردودا صحيحة بناء على تعليمات مبرمجة دون فهم حقيقي للمعنى، تماما مثل شخص داخل غرفة يترجم الرموز الصينية باستخدام كتيب إرشادات دون أن يتقن اللغة.
ويؤكد الخبراء أن النماذج الحالية، رغم براعتها في توليد النصوص، قد تفشل في مهام بسيطة مثل رسم ساعة تظهر وقتا محددا، مما يشير إلى أن ما يحدث هو مجرد محاكاة فائقة الدقة وليس وعيا أو إدراكا شاملا للمعلومات.
البحث عن بدائل واقعية
أدى الجدل حول قدرة الآلات على الخداع إلى ظهور مقترحات لاختبارات بديلة، مثل “اختبار الذكاء القائم على المجتمع” الذي يضع النظام الذكي في بيئة طبيعية دون علم أفرادها لرصد مدى اندماجه المهني.
ويرى الباحثون أن التركيز يجب أن ينتقل من القدرة على الخداع إلى مدى فائدة النظام وقدرته على ابتكار معرفة علمية جديدة.
ومع استمرار تطور هذه الأنظمة، تبرز الحاجة الملحة لأطر قانونية تفرض على الذكاء الاصطناعي الإفصاح عن هويته، لضمان المساءلة في حال نشر بيانات خاطئة، خاصة في ظل تزايد التفاعلات اليومية عبر الإنترنت التي تجعل البشر يخوضون نقاشات طويلة مع حسابات آلية دون إدراك حقيقة الطرف الآخر.
المصدر: وكالات

