القائمة الرئيسية

الصفحات

DeepSeek-V3: نموذج ذكاء اصطناعي مفتوح المصدر يتحدى العمالقة بكفاءة عالية وتكلفة منخفضة


DeepSeek-V3 هو نموذج لغة كبير (LLM) من نوع Mixture-of-Experts (MoE) تم تطويره بواسطة DeepSeek AI، وهي شركة ناشئة صينية تأسست في عام 2023 تركز على بناء نماذج ذكاء اصطناعي متقدمة ومفتوحة المصدر. يُعتبر هذا النموذج من أقوى النماذج المفتوحة المتاحة حاليًا، حيث يضم 671 مليار معلمة (باراميتر)، مع تفعيل 37 مليار معلمة فقط لكل رمز (token) أثناء المعالجة، مما يجعله فعالًا من حيث استهلاك الموارد مقارنة بحجمه الهائل.

تم تدريب DeepSeek-V3 على 14.8 تريليون رمز (tokens) من البيانات عالية الجودة والمتنوعة، مما يمنحه قدرات استثنائية في مجالات متعددة مثل البرمجة، الرياضيات، التفكير المنطقي، ومعالجة اللغة الطبيعية. النموذج يتميز بكفاءته العالية وتكلفته المنخفضة نسبيًا، حيث أُشير إلى أن تكلفة تدريبه بلغت حوالي 5.5 إلى 6 ملايين دولار أمريكي، وهي نسبة ضئيلة مقارنة بتكاليف تدريب نماذج مثل GPT-4 التي تجاوزت 100 مليون دولار.


الخصائص التقنية لـ DeepSeek-V3
- الهندسة المعمارية: Mixture-of-Experts (MoE)
يعتمد DeepSeek-V3 على هيكلية MoE، التي تتيح تفعيل جزء صغير فقط من المعلمات (37 مليار) لكل عملية معالجة، مما يقلل من استهلاك الموارد مع الحفاظ على الأداء العالي.

- يستخدم تقنية Multi-head Latent Attention (MLA) لتحسين كفاءة الانتباه أثناء المعالجة.

- يتضمن أيضًا DeepSeekMoE، وهي نسخة محسّنة من هيكلية MoE تم التحقق منها في الإصدار السابق DeepSeek-V2.

التدريب والتحسين
- تم تدريبه على مجموعة بيانات ضخمة (14.8 تريليون رمز) تشمل نصوصًا متنوعة بلغات متعددة، بما في ذلك الإنجليزية والصينية.

- يستخدم استراتيجية Multi-Token Prediction (MTP)، التي تتيح للنموذج التنبؤ بتسلسلات متعددة من الرموز في وقت واحد، مما يعزز الأداء ويسرّع الاستدلال.

- تم تحسينه بمراحل Supervised Fine-Tuning (SFT) وReinforcement Learning (RL) لتعزيز قدراته في المهام المعقدة.


الأداء والمقارنة
يتفوق DeepSeek-V3 على العديد من النماذج المفتوحة مثل LLaMA 3.1 405B وQwen2.5 72B في معايير مثل MMLU-Pro (الفهم متعدد التخصصات)، MATH-500 (الرياضيات)، وLiveCodeBench (البرمجة).

ينافس نماذج مغلقة المصدر مثل GPT-4o وClaude 3.5 Sonnet، بل ويتجاوزها في بعض المجالات مثل البرمجة التنافسية (Codeforces).

الكفاءة والتكلفة
استغرق تدريبه حوالي 2.788 مليون ساعة GPU باستخدام وحدات H800 من Nvidia، وهو ما يُعتبر فعالًا جدًا مقارنة بنماذج أخرى بحجم مشابه.
يدعم التشغيل على أجهزة متنوعة (NVIDIA GPUs، AMD GPUs، Huawei Ascend NPUs) مع خيارات متعددة للدقة مثل FP8 وBF16.

نافذة السياق
يدعم نافذة سياق تصل إلى 128 ألف رمز، مما يجعله مناسبًا لمعالجة النصوص الطويلة والمهام المعقدة التي تتطلب الاحتفاظ بالسياق لفترات طويلة.
الإصدار المحدث: DeepSeek-V3-0324
في مارس 2025، أطلقت DeepSeek تحديثًا للنموذج تحت اسم DeepSeek-V3-0324 (الرقم يشير إلى تاريخ الإصدار: مارس 2024 بالتقويم الصيني). هذا الإصدار يعتمد على نفس الهيكلية الأساسية لـ V3 ولكنه يتضمن تحسينات كبيرة في الأداء:

زيادة في الدقة:
- MMLU-Pro: ارتفع من 75.9% إلى 81.2% (+5.3%).
- GPQA (اختبار التفكير العام): من 59.1% إلى 68.4% (+9.3%).
- AIME (الرياضيات المتقدمة): من 39.6% إلى 59.4% (+19.8%).
- LiveCodeBench (البرمجة): من 39.2% إلى 49.2% (+10.0%).

- السرعة: أصبح أسرع بنسبة 80% مقارنة بالإصدارات السابقة.
- التنافسية: يُعتبر منافسًا قويًا لـ Claude 3.7 Sonnet في البرمجة والرياضيات.

المميزات العامة
- مفتوح المصدر: يُتاح تحت رخصة MIT (في الإصدارات الأحدث مثل V3-0324)، مما يسمح باستخدامه وتعديله بحرية، بما في ذلك الاستخدام التجاري.
- دعم اللغات: يدعم اللغة العربية بشكل جيد إلى جانب الإنجليزية والصينية، مع قدرة على معالجة المهام متعددة اللغات.
- التطبيقات: مناسب للبرمجة، حل المشكلات الرياضية، توليد النصوص، الترجمة، والبحث الذكي.

مقارنة سريعة مع نماذج أخرى
- مقابل GPT-4o: يتفوق DeepSeek-V3 في بعض المهام مثل البرمجة التنافسية، لكنه قد يفتقر إلى نفس المرونة في المهام العامة بسبب تركيزه على الكفاءة.

- مقابل Claude 3.5 Sonnet: يقترب منه أو يتفوق عليه في الرياضيات والبرمجة، لكنه قد يكون أقل في بعض المهام الهندسية.

- مقابل LLaMA 3.1 405B: يتغلب عليه في معظم المعايير بفضل كفاءته العالية وتكلفته المنخفضة.


كيفية الاستخدام؟
- عبر الإنترنت: يمكن تجربته عبر موقع DeepSeek الرسمي أو تطبيق الهاتف.

- API: يوفر واجهة برمجية متوافقة مع تنسيق OpenAI، مع تسعير منخفض التكلفة.

محليًا: يمكن تنزيل أوزان النموذج من Hugging Face (حجمها الإجمالي 685 جيجابايت، بما في ذلك 14 جيجابايت لوحدة MTP) وتشغيله على أجهزة قوية مثل Mac Studio بسرعة تزيد عن 20 رمزًا في الثانية باستخدام التحسينات مثل التقسيم إلى 4 بت.
إذا كنت تشير إلى شيء مختلف بـ "DeepSeek 3"، يرجى توضيح ذلك، وسأحاول مساعدتك بشكل أكثر دقة!
  • فيس بوك
  • بنترست
  • تويتر
  • واتس اب
  • لينكد ان
  • بريد
author-img
مجلة التقنية

إظهار التعليقات
  • تعليق عادي
  • تعليق متطور
  • عن طريق المحرر بالاسفل يمكنك اضافة تعليق متطور كتعليق بصورة او فيديو يوتيوب او كود او اقتباس فقط قم بادخال الكود او النص للاقتباس او رابط صورة او فيديو يوتيوب ثم اضغط على الزر بالاسفل للتحويل قم بنسخ النتيجة واستخدمها للتعليق