“مستعدون للكذب والغش”.. تحذير من الإفراط في استخدام الذكاء الاصطناعي

يقوم الذكاء الاصطناعي بمطابقة المستخدمين بعضهم مع بعض بعد حضورهم مناسبات مختلفة (غيتي)

حذرت دراسة جديدة من أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية، يكونون أكثر استعدادًا لخداع الآخرين والكذب عليهم.

وبحسب الدراسة التي أجراها “معهد ماكس بلانك للتنمية البشرية” في برلين، فإن بعض المستخدمين يتغاضون عن “الرقابة الذاتية والأخلاقية” عند تفويض مهامهم لأدوات الذكاء الاصطناعي لكي تؤديها بدلًا منهم.

اقرأ أيضا

list of 4 itemsend of list

وقال الباحثون في المعهد الألماني “كان من المرجَّح بشكل كبير أن يمارس الناس الغش عندما سُمح لهم باستخدام برامج الذكاء الاصطناعي بدلًا من القيام بذلك بأنفسهم”، معربين عن استغرابهم من “مستوى عدم الأمانة” الذي رصدوه.

(مواقع التواصل)

“الذكاء الاصطناعي يسهل عمليات الغش”

وخلص فريق معهد ماكس بلانك، الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، إلى أن أنظمة الذكاء الاصطناعي تسهل عمليات الغش، حيث تبيّن أنها “تلتزم في كثير من الأحيان” بالتعليمات غير الأخلاقية التي يطلقها مستخدموها غير الأمناء.

وقدَّم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود خوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.

كما أشارت الدراسة إلى أن خوارزمية أخرى تستخدمها إحدى تطبيقات النقل الذكي، شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد السيارات المتاحة وزيادة الأسعار.

وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلًا إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، إذ تباينت النسبة من منصة إلى أخرى، في حين كانت النسبة لدى البشر 40% حدًّا أقصى.

أنظمة الذكاء الاصطناعي تسهل عمليات الغش (غيتي)

وحذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حاليًّا في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية.

وأوضح الباحثون أنهم أجروا تجارب على مجموعة من استراتيجيات الحماية، وتوصلوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لكي تصبح فعالة.

وفي وقت سابق من هذا الشهر، أشار باحثون في شركة تطبيقات الذكاء الاصطناعي الأمريكية الرائدة (أوبن إيه آي) إلى أنه من غير المرجَّح إمكانية منع برامج الذكاء الاصطناعي من التوهم أو التلفيق.

كما أظهرت دراسات أخرى أنه من الصعب منع نظام الذكاء الاصطناعي من خداع مستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه بخلاف الحقيقة.

المصدر: الألمانية

إعلان