آخرهم سكارليت جوهانسون.. الذكاء الاصطناعي يثير مخاوف المشاهير

جوهانسون أكدت أن صوت "سكاي" مشابه لصوتها بشكل كبير

تسعى لجنة تشرف على التكنولوجيا والخصوصية في مجلس النواب الأمريكي للحصول على شهادة الممثلة سكارليت جوهانسون بشأن إصدار “شات جي بي تي 4.0” الذي تقول إنه مماثل لصوتها إلى حد بعيد.

ويسعى المشرعون جاهدين للإشراف على تكنولوجيا الذكاء الاصطناعي سريعة التطور وتنظيمها وسط مخاوف بشأن الخصوصية والمعلومات المضللة وحقوق الملكية الفكرية.

ودعت رئيسة اللجنة الفرعية للرقابة على الأمن السيبراني بمجلس النواب النائبة نانسي مايس في رسالة  صدرت يوم الاثنين الماضي، جوهانسون للإدلاء بشهادتها أمام اللجنة.

وجاء في رسالة مايس أنه من المقرر عقد جلسة الاستماع في 9 يوليو المقبل لكن مكتبها أخبر موقع أكسيوس أن جوهانسون لن تتمكن من المثول في ذلك التاريخ ومن المرجح أن تكون متاحة في أكتوبر.

وقال مكتب مايس إن جلسة الاستماع ستتناول القضايا المتعلقة بسوء استخدام التكنولوجيا كاستخدام تقنية “الديب فيك” وهي تقنية متطورة تستخدم لإنشاء مقاطع فيديو مزيفة تبدو وكأنها حقيقية.

وفي وقت سابق، أعربت مايس عبر وسائل التواصل الاجتماعي عن مخاوفها بشأن التطابق بين صوت الممثلة وصوت برنامج الدردشة الآلي “سكاي”.

وقالت مايس أنه في جلسة الاستماع سيتم  مشاركة المخاوف مع أعضاء مجلس النواب، وإبلاغ الرأي العام  بشأن ديب فايك.

 

استنساج صوت جوهانسون

والشهر الماضي، قالت جوهانسون -التي اشتهرت بصوتها- عن برنامج الذكاء الاصطناعي في فيلم “Her” لعام 2013، إنها تلقت عرضا من الرئيس التنفيذي لشركة OpenAI سام ألتمان في سبتمبر للتعبير عن نظام ChatGPT 4.0 الخاص به.

وأكدت جوهانسون انها رفضت العرض، لكن بعد تسعة أشهر، لاحظ الناس  مدى التشابه الكبير بين صوتها و الصوت الذي يصدره نظام سكاي.

وقالت جوهانسون إن ألتمان تواصل معها وطلب منها إعادة النظر بالعرض  قبل يومين من بث “سكاي، إلا أنها قامت بعد ذلك بتوكيل محامين جعلوا ألتمان يحذف  الصوت.

في المقابل، قال ألتمان في بيان إن الصوت لم يكن صوت الممثلة جوهانسون حتى أنه لم يكن هناك أي نية ليشبه صوتها. وأشار ألتمان إلى أن ممثل الصوت تم اختياره قبل  تواصلنا معها.

وذكرت صحيفة واشنطن بوست أن صوت الممثلة متطابق مع صوت “سكاي” الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، نقلا عن تسجيلات صوتية. وقال ألتمان إن سكاي توقفت مؤقتا احتراما لجوهانسون.

وتعد تقنية “ديب فيك” أحد أشكال تطبيقات الذكاء الاصطناعي التي تجمع بين مصطلحي “التعلم العميق” و”المزيف”.

ويعود اختراع هذه التقنية إلى عام 2014، عندما ابتكرها آيان غودفيلو، الذي كان يشغل منصب مدير التعلم الآلي في مجموعة المشاريع الخاصة التابعة لشركة آبل، ويعد رائدا في هذا المجال.

طرح مزايا جديدة لمستخدمي النسخة المجانية من تشات جي بي تي

إمكانية هائلة للتلاعب

وتتيح تقنية ديب فيك إمكانيات هائلة للتلاعب بالفيديوهات والصور، حيث يمكن استبدال وجه شخص ما بوجه شخص آخر أو التلاعب بلغة جسده أو صوته لجعله يقول أو يفعل أشياء لم يقلها أو يفعلها بالفعل.

وتثير هذه التقنية مخاوف كبيرة بسبب قدرتها على التضليل ونشر المعلومات الكاذبة، بالإضافة إلى إمكانية استخدامها لأغراض خبيثة.

وبحسب صحيفة الديلي ميل البريطانية فإن شركة OpenAI، الرائدة في أبحاث الذكاء الاصطناعي، ابتكرت خطوة ثورية من خلال الكشف عن تقنية “Voice Engine” الجديدة، والتي تمكن من استنساخ صوت أي شخص خلال 15 ثانية فقط من تسجيله.

وتثير هذه التقنية المتطورة مخاوف كبيرة، حيث تتيح إمكانية التلاعب بالصوت ونشر المعلومات المضللة أو حتى انتحال شخصية شخص آخر دون علمه أو موافقته.

واستهدفت التقنية القاضية التي ستترأس جلسات الاستماع في المحاكمة الفدرالية للرئيس الأمريكي السابق دونالد ترامب تانيا تشوتكان، بدعوى محاولات غير قانونية مفترضة لإلغاء نتيجة انتخابات 2020.

كما استهدفت المدعي العام جاك سميث، الذي يشرف على الملاحقات القضائية التي بدأت ضد الرئيس السابق في قضيتين، وأيضا النائبة المؤيدة لترامب مارجوري تايلور غرين، وجابرييل ستيرلينج، المسؤول عن إجراء الانتخابات في ولاية جورجيا التي تحمل أهمية كبيرة في السباق الرئاسي.

وعلى الرغم من ذلك، تخطط OpenAI لإجراء اختبارات محدودة على تقنية “Voice Engine” مع بعض الأشخاص، مع التأكيد على عدم انتحال شخصية أي فرد دون موافقته، ووضوح استخدام تقنية الذكاء الاصطناعي في إنشاء الأصوات.

وأشارت الصحيفة البريطانية إلى أن استخدام تقنية “ديب فيك” المتطورة لاستنساخ أصوات مشاهير مثل ستيفن فراي وصادق خان وجو بايدن، حيث تم استغلال تقليد أصواتهم لإنشاء تصريحات تسبب لهم الإحراج أو الإزعاج.

ولم تتوقف الجرائم عند هذا الحد، بل تم خداع أحد المديرين التنفيذيين، الذي لم يتم الكشف عن هويته، لتحويل مبلغ 243 ألف دولار إلى محتال بعد تلقيه مكالمة هاتفية مزيفة بحسب الصحيفة.

وتثير هذه الواقعة قلقا كبيرا حول مخاطر تقنية “ديب فيك” وإمكانية استخدامها لأغراض خبيثة مثل التشهير والابتزاز والاحتيال.

وتظهر هذه الجرائم قدرة تقنية “ديب فيك” على خداع حتى الأشخاص المتمرسين، مما يؤكد ضرورة اتخاذ خطوات جادة لمكافحة سوء استخدام هذه التقنية وحماية الخصوصية والأمن.

كشفت دراسة حديثة أجراها باحثون في جامعة “كوليدج لندن” البريطانية عن قدرة تقنية “التزييف العميق” على خداع المستمعين، حتى أشدهم تركيزا، بنسبة تتجاوز ربع الحالات.

وتناولت الدراسة قدرة تقنية “التزييف العميق” على توليد أصوات مُقلدة تبدو حقيقية للغاية، حيث شارك في الدراسة أكثر من 500 شخص تم تدريبهم على تمييز الأصوات الحقيقية من المقلدة.

وبشكل مفاجئ، لم يتمكن المشاركون من اكتشاف سوى 73% من الأصوات المقلدة، مما يشير إلى قدرة تقنية “التزييف العميق” على خداع حتى الخبراء في تمييز الأصوات.

شملت الدراسة لغتين هما الإنجليزية والصينية (الماندرين)، وأظهرت النتائج تشابها في نسب اكتشاف الأصوات المقلدة بين اللغتين.

ولاحظ الباحثون أن الناطقين باللغة الإنجليزية اعتمدوا بشكل أساسي على إيقاع التنفس لتمييز الصوت الحقيقي عن الصوت المقلد، بينما اعتمد الناطقون باللغة الصينية على إيقاع وسرعة وطلاقة الحديث كمعايير للتمييز.

ويثير انتشار تقنية “التزييف العميق” مخاوف كبيرة من ازدياد عمليات الاحتيال، فالمحتالين يستخدمون الأصوات المقلدة بدقة للاحتيال على الأشخاص والحصول على أموالهم، من خلال ادعاء كونهم أحد الأصدقاء أو شركاء العمل وطلب تحويل الأموال.

وأشار الباحثون إلى أن أغلب جهود مكافحة “التزييف العميق” للأصوات تتركز حاليا على استخدام أنظمة ذكاء اصطناعي، والتي أظهرت أداء مشابها لأداء الأشخاص في الدراسة، ولكنها تفوقت على الأشخاص الذين لا يعرفون أنهم يشاركون في تجربة لاكتشاف الأصوات المقلدة.

ومع توقع حدوث تطورات متسارعة، أكد الباحثون على ضرورة تطوير أدوات أكثر تقدما لاكتشافها، لمواكبة هذه التطورات وحماية الأفراد من مخاطر الاحتيال.

وتقدم تقنية استنساخ الصوت، التي تعتمد على الذكاء الاصطناعي، إمكانيات هائلة للاستخدامات المفيدة والأخلاقية في  مساعدة الأشخاص ذوي الإعاقة على التواصل بوضوح، و إعادة إحياء أصوات المشاهير الراحلين في الأعمال الفنية.

وتشير التطورات الأخيرة إلى انتقال هذه التقنية إلى مرحلة جديدة، حيث قد يصبح من الممكن للمشاهير والممثلين “تأجير أصواتهم” من خلال خدمات مدفوعة عبر الإنترنت.

وعلى سبيل المثال، أطلقت شركة Veritone خدمة تتيح ترخيص أصوات المشاهير واستخدامها في مختلف التطبيقات.

ولم تقتصر هذه التقنية على الاستخدامات الاحترافية فقط، بل تم دمجها أيضا في تطبيقات موجهة للمستخدمين العاديين. فمثلا، يتيح تطبيق “Descript” لصناع المحتوى إنشاء نسخ من أصواتهم واستخدامها في صناعة البودكاست وغيرها من المحتوى الرقمي.

أضف تعليقا

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *