الوصف
🖼 ️اسم الأداة:
Open-LLM-VTuber
🔖 فئة الأداة:
شخصيات ومحادثات الذكاء الاصطناعي؛ تندرج تحت فئة الشخصيات الافتراضية المدعومة بالذكاء الاصطناعي التي تتيح التواصل التفاعلي الصوتي في الوقت الحقيقي مع نماذج لغوية كبيرة.
✏ ️ماذا تقدم هذه الأداة؟
Open-LLM-VTuber هو حل مفتوح المصدر لإنشاء شخصيات ذكاء اصطناعي تفاعلية صوتية باستخدام نماذج لغوية كبيرة. وهو يدمج بين إدخال/إخراج الصوت، والرسوم المتحركة الناطقة في الوقت الحقيقي (Live2D)، وتتبع النظرات المستندة إلى كاميرا الويب، ويدعم النماذج المحلية من خلال الواجهات الخلفية Open-LLM. يمكن للمستخدمين التحدث إلى الذكاء الاصطناعي دون ارتداء سماعات الرأس، بفضل ميزة إلغاء صدى الصوت، والاستمتاع بتفاعلات واقعية عبر مزامنة الفم والصور الرمزية التعبيرية.
⭐ ما الذي تقدمه الأداة بالفعل بناءً على تجربة المستخدم؟
- محادثة صوتية في الوقت الفعلي مع LLMs المحلية
- Live2D VTuber متحرك VTuber مع مزامنة الفم وتتبع النظرات
- تفاعل صوتي بدون سماعة رأس مع ميزة إلغاء الصدى المدمجة
- ذاكرة متعددة الأدوار وتضمين الشخصية
- نصوص وسجلات محادثة مخزنة محلياً
- دعم كامل للنماذج المحلية مثل LLaMA وMistral وChatGLM
- يعمل على أجهزة المستهلك مع تسريع GPU اختياري
🤖 هل يتضمن الأتمتة؟
نعم - يتضمن Open-LLM-VTuber أتمتة مثل:
- النسخ والاستجابة في الوقت الحقيقي عبر ASR المحلي وTTS
- المزامنة بين الصوت والرسوم المتحركة الرمزية وردود النموذج
- اكتشاف الصمت التلقائي، ومعالجة المقاطعة، واستدعاء الذاكرة
- سلوك الصورة الرمزية التلقائي بناءً على المشاعر أو الحوار
- تكامل سلس مع وحدات الإدخال الصوتية والبصرية
💰 نموذج التسعير:
مجاني ومفتوح المصدر (رخصة MIT)
🆓 تفاصيل الخطة المجانية:
- مجاني 100% للاستخدام الشخصي أو التجاري
- لا حدود للاستخدام أو ميزات مقفلة
- جميع التعليمات البرمجية المصدرية متاحة على GitHub
- استخدام محلي/دون اتصال بالإنترنت - لا يلزم وجود حساب أو إنترنت
- مدفوعة من المجتمع مع تحديثات متكررة
💳 تفاصيل الخطة المدفوعة:
- لا يوجد - الأداة مجانية بالكامل بدون ترقيات أو اشتراكات مدفوعة
- يمكن للمستخدمين دعم التطوير اختياريًا عبر رعاة GitHub
🧭 طريقة الوصول:
- التنزيل والتشغيل محلياً عبر GitHub (ويندوز/لينكس)
- يتطلب تثبيت التبعيات (Python، FFmpeg، Live2D، إلخ)
- يدعم خلفيات Open-LLM (على سبيل المثال، llama.cpp)
🔗 رابط التجربة: