يوروبول، وكالة تطبيق القانون الأوروبية، أصدرت تحذيرًا من أن أنظمة الذكاء الاصطناعي المستخدمة في الشرطة قد تعيد إنتاج أحكام مسبقة وتمييزية متجذّرة في البيانات القديمة، مثل التحيّز العرقي أو الاجتماعي. هذه الأنظمة، التي تعتمد على بيانات تاريخية متحيّزة، قد تُؤدي إلى قرارات خاطئة أو ظالمة إذا لم يتم ضبطها بعناية.
لماذا يشكّل الذكاء الاصطناعي خطرًا في هذا السياق؟
* الخوارزميات تتعلّم من قرارات بشرية سابقة، غالبًا متحيّزة.
* استخدام غير منضبط للذكاء الاصطناعي قد يعزز التمييز ضد الأقليات.
* غياب الرقابة البشرية يفاقم المشكلة.
توصيات يوروبول:
- مراجعة دورية للخوارزميات المستخدمة في إنفاذ القانون.
- إشراف بشري دائم على نتائج أنظمة الذكاء الاصطناعي.
- إنشاء آليات واضحة للمساءلة وتفادي الانتهاكات الحقوقية.
أهمية هذا التحذير:
في ظل تصاعد الاعتماد على الذكاء الاصطناعي في الأمن، يأتي تحذير يوروبول كدعوة لتبني ذكاء اصطناعي أخلاقي وغير متحيّز يحترم حقوق الإنسان ويمنع تكرار الأخطاء التاريخية في أنظمة العدالة.
تعليقات: (0) إضافة تعليق