“مستعدون للكذب والغش”.. تحذير من الإفراط في استخدام الذكاء الاصطناعي

حذرت دراسة جديدة من أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية، يكونون أكثر استعدادًا لخداع الآخرين والكذب عليهم.
وبحسب الدراسة التي أجراها “معهد ماكس بلانك للتنمية البشرية” في برلين، فإن بعض المستخدمين يتغاضون عن “الرقابة الذاتية والأخلاقية” عند تفويض مهامهم لأدوات الذكاء الاصطناعي لكي تؤديها بدلًا منهم.
اقرأ أيضا
list of 4 items- list 1 of 4قصيدة عراقية تشعل أجواء كأس العرب.. ومشجع أردني مازحا: لا تأخر الشباب عندهم طيارة لبغداد (شاهد)
- list 2 of 4ميسي يشعل حماس الجماهير الهندية.. وتكريم استثنائي بانتظاره (فيديو)
- list 3 of 4“عقب قفزة نفذها من طائرة خفيفة”.. مظلي يهبط على طريق عام ويتعلق بعمود إشارة مرور (فيديو)
- list 4 of 4بسبب فطيرة التفاح.. اعتقال محتجين بعد استهداف تاج الدولة الإمبراطوري (فيديو)
وقال الباحثون في المعهد الألماني “كان من المرجَّح بشكل كبير أن يمارس الناس الغش عندما سُمح لهم باستخدام برامج الذكاء الاصطناعي بدلًا من القيام بذلك بأنفسهم”، معربين عن استغرابهم من “مستوى عدم الأمانة” الذي رصدوه.

“الذكاء الاصطناعي يسهل عمليات الغش”
وخلص فريق معهد ماكس بلانك، الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، إلى أن أنظمة الذكاء الاصطناعي تسهل عمليات الغش، حيث تبيّن أنها “تلتزم في كثير من الأحيان” بالتعليمات غير الأخلاقية التي يطلقها مستخدموها غير الأمناء.
وقدَّم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود خوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.
كما أشارت الدراسة إلى أن خوارزمية أخرى تستخدمها إحدى تطبيقات النقل الذكي، شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد السيارات المتاحة وزيادة الأسعار.
وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلًا إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، إذ تباينت النسبة من منصة إلى أخرى، في حين كانت النسبة لدى البشر 40% حدًّا أقصى.

وحذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حاليًّا في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية.
وأوضح الباحثون أنهم أجروا تجارب على مجموعة من استراتيجيات الحماية، وتوصلوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لكي تصبح فعالة.
وفي وقت سابق من هذا الشهر، أشار باحثون في شركة تطبيقات الذكاء الاصطناعي الأمريكية الرائدة (أوبن إيه آي) إلى أنه من غير المرجَّح إمكانية منع برامج الذكاء الاصطناعي من التوهم أو التلفيق.
كما أظهرت دراسات أخرى أنه من الصعب منع نظام الذكاء الاصطناعي من خداع مستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه بخلاف الحقيقة.