الوصف

🖼 ️اسم الأداة:
LongLLLaMA

🔖 فئة الأداة:
البرمجة والتطوير - على وجه التحديد، نموذج لغوي كبير مُحسّن للتعامل مع السياقات النصية الطويلة للغاية.

✏ ️ماذا تقدم هذه الأداة؟
LongLLaLaMA هو متغير من نموذج OpenLaLaMA، تم تحسينه باستخدام طريقة المحول المركّز (FoT). وهذا يمكّنها من إدارة تسلسلات المدخلات بفعالية تصل إلى 256,000 رمز رمزي، وهي قفزة كبيرة مقارنة بالنماذج القياسية وهي تدعم متغيرًا أساسيًا مكونًا من 3B-مُعَرِّفًا تحت رخصة Apache 2.0، مع رمز استدلال متوافق مع Hugging Face لتحقيق التكامل السلس.

ما الذي تقدمه الأداة بالفعل بناءً على تجربة المستخدم؟
- قادرة على معالجة وتوليد نص عبر سياقات طويلة للغاية تصل إلى 256 ألف رمز.
- تحافظ على الأداء العالي في مهام مثل استرجاع مفتاح المرور حتى على المدخلات الطويلة جدًا.
- يأتي مع تدريب مسبق، ورمز لضبط التعليمات (مع التدريب المستمر على FoT)، وأمثلة استدلالية باستخدام أطر PyTorch وJAX/Flax.

🤖 هل يتضمن الأتمتة؟
جزئيًا. على الرغم من أن LongLLLaMA نفسه هو نموذج وليس أداة سير عمل، إلا أنه يسهل معالجة اللغة الطبيعية آليًا من خلال دعم الاستدلال الموسع للسياق ويتضمن خطوط أنابيب ضبط دقيقة مبنية مسبقًا.

💰 نموذج التسعير:
مفتوح المصدر بالكامل بموجب ترخيص Apache 2.0 - لا يوجد نموذج تجاري أو مدفوع متاح.

🆓 تفاصيل الخطة المجانية:
- مجانية بالكامل للأبحاث والاستخدام التجاري.
- تتضمن أوزان النموذج الأساسي، والتدريب المسبق على نموذج FoT، ورمز ضبط التعليمات دون قيود.

💳 تفاصيل الخطة المدفوعة:
لا يوجد - لا توجد خيارات مؤسسية أو مدفوعة.

🧭 طريقة الوصول:
- تنزيل النموذج والرمز من مستودع GitHub: CStanKonrad/long_llama.
- تشغيل عمليات الاستدلال والضبط الدقيق لسير العمل عبر واجهات برمجة تطبيقات Hugging Face أو البرامج النصية المخصصة في PyTorch/JAX.

🔗 رابط التجربة :

https://github.com/CStanKonrad/long_llama

تفاصيل التسعير

💰 نموذج التسعير: مفتوح المصدر بالكامل بموجب ترخيص Apache 2.0 - لا يوجد نموذج تجاري أو مدفوع متاح. 🆓 تفاصيل الخطة المجانية: - مجانية بالكامل للأبحاث والاستخدام التجاري. - تشمل أوزان النموذج الأساسي، والتدريب المسبق على FoT، ورمز ضبط التعليمات دون قيود . 💳 تفاصيل الخطة المدفوعة: لا يوجد - لا توجد خيارات مؤسسية أو مدفوعة.