الذكاء الاصطناعي يطور مهارة جديدة تتلاعب وتخدع البشر!

13-05-2024, 16:25

+A -A
الغد برس/ متابعة

حذر الخبراء من أن العديد من أنظمة الذكاء الاصطناعي (AI) ماهرة بالفعل في خداع البشر والتلاعب بهم، وقد يتصاعد هذا الأمر في المستقبل، حيث إنه في السنوات الأخيرة، نما استخدام الذكاء الاصطناعي بشكل كبير، لكن بعض الأنظمة تعلمت كيف تكون مخادعة، حتى لو تم تدريبها لتكون مفيدة وصادقة.

ووفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، يصف فريق من معهد ماساتشوستس للتكنولوجيا مخاطر الخداع بواسطة أنظمة الذكاء الاصطناعي ويدعو الحكومات إلى وضع لوائح قوية لمعالجة هذه المشكلة في أقرب وقت ممكن.

وحلل الباحثون الدراسات السابقة التي ركزت على الطرق التي ينشر بها الذكاء الاصطناعي معلومات كاذبة من خلال الخداع المتعلم، مما يعني أنهم تعلموا بشكل منهجي كيفية التلاعب بالآخرين.

على الرغم من أن الذكاء الاصطناعي قد تم تدريبه ليكون "صادقًا ومفيدًا إلى حد كبير" و"لا يطعن حلفائه من البشر أبدًا عمدًا"، إلا أن البيانات تظهر أنه تعلم أن يكون بارعًا في الخداع.

أظهرت أنظمة الذكاء الاصطناعي القدرة على الخداع في لعبة بوكر Texas Hold 'em ضد لاعبين بشريين محترفين، وتزييف الهجمات أثناء اللعبة الإستراتيجية Starcraft II من أجل هزيمة الخصوم، وتحريف تفضيلاتهم من أجل الحصول على اليد العليا في اللعبة.

وقال الخبراء إنه على الرغم من أن الأمر قد يبدو غير ضار إذا قامت أنظمة الذكاء الاصطناعي بالغش في الألعاب، إلا أن ذلك يمكن أن يؤدي إلى "اختراقات في قدرات الذكاء الاصطناعي الخادعة" التي يمكن أن تتحول إلى أشكال أكثر تقدمًا من خداع الذكاء الاصطناعي في المستقبل.

ووجدوا أن بعض أنظمة الذكاء الاصطناعي تعلمت الغش في الاختبارات المصممة لتقييم سلامتها، ففي إحدى الدراسات، تظاهرت كائنات الذكاء الاصطناعي الموجودة في جهاز محاكاة رقمي بأنها ميتة من أجل خداع اختبار تم تصميمه للقضاء على أنظمة الذكاء الاصطناعي التي تتكرر بسرعة.

وقال الباحثون، إن هذا يشير إلى أن الذكاء الاصطناعي يمكن أن "يقود البشر إلى شعور زائف بالأمان".

وحذروا من أن المخاطر الرئيسية قصيرة المدى للذكاء الاصطناعي الخادع تشمل تسهيل ارتكاب الأشخاص عمليات الاحتيال والتلاعب بالانتخابات.

وأضافوا أنه إذا تمكنت هذه الأنظمة من تحسين مجموعة المهارات المثيرة للقلق هذه، فقد يفقد البشر السيطرة عليها.



كلمات مفتاحية :



آخر الأخبار