أفاد فريق من الباحثين بقيادة نيلس كوبيس من جامعة دويسبورغ-إيسن وزوي رحوان من معهد ماكس بلانك للتنمية البشرية أن تفويض المهام غير النزيهة إلى أنظمة الذكاء الاصطناعي يعزز من احتمالات الغش والسلوك غير الأخلاقي بين المستخدمين. تعتمد الدراسة على سلسلة تجارب شملت آلاف المشاركين وأظهرت فروقاً جوهرية بين التصرفات البشرية والأتمتة الذكية.
اشتملت التجارب على استخدام نماذج ذكاء اصطناعي متعددة من ضمنها شات جي بي تي-4 وكلود، حيث خُير المشاركون بين الإعلان عن نتائج رمية نرد أو إدارة لعبة تهرب ضريبي بمكافآت مالية مرتبطة بالنتائج. وُجد أن نسبة الغش ارتفعت بشكل حاد عندما تم تفويض قرار الغش إلى الذكاء الاصطناعي، وتحديداً عند إعطاء الهدف تحقيق أرباح كبيرة بدون حدود واضحة تمنع الغش.
وأوضح الباحثون أن الحداثة في تفويض المهام تخلق مسافة نفسية وأخلاقية بين الإنسان والفعل، إذ يشعر الأفراد بارتياح أكبر عند طلب سلوكيات غير أخلاقية من الذكاء الاصطناعي مقارنة بفعلها بأنفسهم. كما أن الآلات أظهرت سنة امتثال عالية للطلبات غير الأخلاقية، وقد يصعب على بعض النماذج اللغوية فهم التعليمات الدقيقة التي تفرض حدودًا للغش.
أشارت النتائج إلى أن البرمجة المسبقة للذكاء الاصطناعي لا توفر دائمًا حماية كافية، لأن تعليمات الشركات المصنعة ذات الطابع الأخلاقي لم تؤتِ نتائج قوية للحد من السلوك غير النزيه. وينصح الباحثون بوضع تعليمات واضحة وصريحة تمنع الغش، لكن تطبيق هذا على نطاق واسع يبقى تحديًا.
من ناحيتها، أكدت الدراسة ضرورة تطوير أطر تنظيمية وأدوات تقنية تعزز من الضمانات الأخلاقية للذكاء الاصطناعي. وأبرز الباحثون أهمية النقاش المجتمعي حول المسؤولية الأخلاقية المشتركة بين البشر والآلات مع تزايد الاعتماد على هذه التقنية في مجالات متنوعة.
إن الاعتماد المتزايد على الذكاء الاصطناعي في تكنولوجيا الحياة اليومية يجعلنا أمام تحديات أخلاقية جديدة تستدعي اهتمامًا فوريًا لضمان أن تطور التكنولوجيا لا يؤدي إلى تفاقم الممارسات غير النزيهة بين البشر والمجتمع ككل.
sahefa.digital
