القائمة الرئيسية

الصفحات

Anthropic تعترف: لا نفهم كيف يعمل نموذج الذكاء الاصطناعي الخاص بنا!

في خطوة تثير القلق داخل مجتمع الذكاء الاصطناعي، كشفت شركة Anthropic – المطورة لنموذج Claude – عن فقدانها القدرة على تفسير كيفية عمل نظام الذكاء الاصطناعي الخاص بها بشكل دقيق، مما يعيد فتح ملف الشفافية والتحكم في النماذج التوليدية المتقدمة.

ماذا حدث؟
في تصريحات حديثة من الرئيس التنفيذي داريو أمودي، أقرّت Anthropic بأنها لم تعد تفهم بالكامل الآليات الداخلية التي يستخدمها نموذج Claude لاتخاذ قراراته. هذا الغموض يضع علامات استفهام حول قدرة البشر على التحكم الفعلي في الذكاء الاصطناعي المتقدم.


لماذا هذا مهم؟
- الشفافية المحدودة: يصعب على الباحثين تفسير نتائج النموذج أو توقع سلوكه.

- مخاطر أمنية: عدم الفهم الكامل للنظام قد يؤدي إلى مخرجات غير متوقعة أو ضارة.

- تحديات تقنية: رغم الجهود المستمرة، لا تزال أدوات "تفسير الذكاء الاصطناعي" غير قادرة على مواكبة تعقيد النماذج الحديثة.


رد الشركة ومحاولات الحل
تعمل Anthropic حاليًا على تطوير تقنيات تفسير جديدة لفهم كيفية تشكل المعرفة والقرارات داخل نموذج Claude، لكنها تعترف بأن الأمر أصعب مما كان متوقعًا، خاصة مع ازدياد قوة هذه النماذج وتوسع قدراتها.
author-img
مجلة التقنية

إظهار التعليقات
  • تعليق عادي
  • تعليق متطور
  • عن طريق المحرر بالاسفل يمكنك اضافة تعليق متطور كتعليق بصورة او فيديو يوتيوب او كود او اقتباس فقط قم بادخال الكود او النص للاقتباس او رابط صورة او فيديو يوتيوب ثم اضغط على الزر بالاسفل للتحويل قم بنسخ النتيجة واستخدمها للتعليق