diff --git a/.env.example b/.env.example
index 9c46eabc367ae..5116bab9bf5ca 100644
--- a/.env.example
+++ b/.env.example
@@ -131,6 +131,10 @@ OPENAI_API_KEY=sk-xxxxxxxxx
# PPIO_API_KEY=sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
+### INFINI-AI ###
+
+# INFINIAI_API_KEY=sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
+
########################################
############ Market Service ############
########################################
diff --git a/Dockerfile b/Dockerfile
index 272d53d49a86d..91217f9b3a6ff 100644
--- a/Dockerfile
+++ b/Dockerfile
@@ -228,7 +228,9 @@ ENV \
# Zhipu
ZHIPU_API_KEY="" ZHIPU_MODEL_LIST="" \
# Tencent Cloud
- TENCENT_CLOUD_API_KEY="" TENCENT_CLOUD_MODEL_LIST=""
+ TENCENT_CLOUD_API_KEY="" TENCENT_CLOUD_MODEL_LIST="" \
+ # Infini-AI
+ INFINIAI_API_KEY="" INFINIAI_MODEL_LIST=""
USER nextjs
diff --git a/Dockerfile.database b/Dockerfile.database
index abd9108d4462f..c4a2dfb3a2f0d 100644
--- a/Dockerfile.database
+++ b/Dockerfile.database
@@ -271,7 +271,9 @@ ENV \
# Zhipu
ZHIPU_API_KEY="" ZHIPU_MODEL_LIST="" \
# Tencent Cloud
- TENCENT_CLOUD_API_KEY="" TENCENT_CLOUD_MODEL_LIST=""
+ TENCENT_CLOUD_API_KEY="" TENCENT_CLOUD_MODEL_LIST="" \
+ # Infini-AI
+ INFINIAI_API_KEY="" INFINIAI_MODEL_LIST=""
USER nextjs
diff --git a/Dockerfile.pglite b/Dockerfile.pglite
index d694cea6eaac7..b9cbecb4993f1 100644
--- a/Dockerfile.pglite
+++ b/Dockerfile.pglite
@@ -227,7 +227,9 @@ ENV \
# Zhipu
ZHIPU_API_KEY="" ZHIPU_MODEL_LIST="" \
# Tencent Cloud
- TENCENT_CLOUD_API_KEY="" TENCENT_CLOUD_MODEL_LIST=""
+ TENCENT_CLOUD_API_KEY="" TENCENT_CLOUD_MODEL_LIST="" \
+ # Infini-AI
+ INFINIAI_API_KEY="" INFINIAI_MODEL_LIST=""
USER nextjs
diff --git a/README.md b/README.md
index 4af7aaf23c82d..7eb8d5af66d17 100644
--- a/README.md
+++ b/README.md
@@ -225,6 +225,7 @@ We have implemented support for the following model service providers:
- **[Gitee AI](https://lobechat.com/discover/provider/giteeai)**: Gitee AI's Serverless API provides AI developers with an out of the box large model inference API service.
- **[Taichu](https://lobechat.com/discover/provider/taichu)**: The Institute of Automation, Chinese Academy of Sciences, and Wuhan Artificial Intelligence Research Institute have launched a new generation of multimodal large models, supporting comprehensive question-answering tasks such as multi-turn Q\&A, text creation, image generation, 3D understanding, and signal analysis, with stronger cognitive, understanding, and creative abilities, providing a new interactive experience.
- **[360 AI](https://lobechat.com/discover/provider/ai360)**: 360 AI is an AI model and service platform launched by 360 Company, offering various advanced natural language processing models, including 360GPT2 Pro, 360GPT Pro, 360GPT Turbo, and 360GPT Turbo Responsibility 8K. These models combine large-scale parameters and multimodal capabilities, widely applied in text generation, semantic understanding, dialogue systems, and code generation. With flexible pricing strategies, 360 AI meets diverse user needs, supports developer integration, and promotes the innovation and development of intelligent applications.
+- **[Infini-AI](https://lobechat.com/discover/provider/infiniai)**: Infini-AI is a leading AI infrastructure enterprise in China, committed to becoming the preferred computing power operator in the large model era. Leveraging its core technological advantages of "multi-heterogeneous, software-hardware synergy," it has created a new "MxN" AI infrastructure paradigm connecting "M types of models" and "N types of chips," enabling efficient collaborative deployment of various large model algorithms on diverse chips. The Infini-AI heterogeneous cloud platform, based on a multi-chip computing foundation, provides large model developers with high-performance computing power and native toolchains with exceptional cost-effectiveness, reducing costs and improving efficiency throughout the entire lifecycle of large models from development to deployment.
diff --git a/README.zh-CN.md b/README.zh-CN.md
index 07db72730ba1f..3e73724c281f8 100644
--- a/README.zh-CN.md
+++ b/README.zh-CN.md
@@ -225,6 +225,7 @@ LobeChat 支持文件上传与知识库功能,你可以上传文件、图片
- **[Gitee AI](https://lobechat.com/discover/provider/giteeai)**: Gitee AI 的 Serverless API 为 AI 开发者提供开箱即用的大模型推理 API 服务。
- **[Taichu](https://lobechat.com/discover/provider/taichu)**: 中科院自动化研究所和武汉人工智能研究院推出新一代多模态大模型,支持多轮问答、文本创作、图像生成、3D 理解、信号分析等全面问答任务,拥有更强的认知、理解、创作能力,带来全新互动体验。
- **[360 AI](https://lobechat.com/discover/provider/ai360)**: 360 AI 是 360 公司推出的 AI 模型和服务平台,提供多种先进的自然语言处理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。这些模型结合了大规模参数和多模态能力,广泛应用于文本生成、语义理解、对话系统与代码生成等领域。通过灵活的定价策略,360 AI 满足多样化用户需求,支持开发者集成,推动智能化应用的革新和发展。
+- **[Infini-AI](https://lobechat.com/discover/provider/infiniai)**: 无问芯穹 (InfinigenceAI) 作为国内领先的 AI 基础设施企业,致力于成为大模型时代首选的算力运营商。依托 “多元异构、软硬协同” 的核心技术优势,打造了连接 “M 种模型” 和 “N 种芯片” 的 “MxN” AI 基础设施新范式,实现多种大模型算法在多元芯片上的高效协同部署。无问芯穹 Infini-AI 异构云平台基于多元芯片算力底座,向大模型开发者提供极致性价比的高性能算力和原生工具链,为大模型从开发到部署的全生命流程降本增效。
diff --git a/docs/self-hosting/environment-variables/model-provider.mdx b/docs/self-hosting/environment-variables/model-provider.mdx
index 8f0e9c7faf741..cd91b0a843e66 100644
--- a/docs/self-hosting/environment-variables/model-provider.mdx
+++ b/docs/self-hosting/environment-variables/model-provider.mdx
@@ -573,5 +573,18 @@ If you need to use Azure OpenAI to provide model services, you can refer to the
- Default: `-`
- Example: `-all,+deepseek-r1->deepseek-r1-250120,+deepseek-v3->deepseek-v3-241226,+doubao-1.5-pro-256k->doubao-1-5-pro-256k-250115,+doubao-1.5-pro-32k->doubao-1-5-pro-32k-250115,+doubao-1.5-lite-32k->doubao-1-5-lite-32k-250115`
+### `INFINIAI_API_KEY`
+
+- Type: Required
+- Description: This is the API key you applied from Infini-AI, you can check it out [here](https://cloud.infini-ai.com)
+- Default: -
+- Example: `sk-xxxxxx...xxxxxx`
+
+### `INFINIAI_MODEL_LIST`
+
+- Type: Optional
+- Description: Used to control the model list, use `+` to add a model, use `-` to hide a model, use `model_name->deploymentName=display_name` to customize the display name of a model, separated by commas. Definition syntax rules see [model-list][model-list]
+- Default: `-`
+- Example: `-all,+qwq-32b,+deepseek-r1`
[model-list]: /docs/self-hosting/advanced/model-list
diff --git a/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx b/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx
index 7d1492a5721ce..a3d899211b123 100644
--- a/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx
+++ b/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx
@@ -571,4 +571,18 @@ LobeChat 在部署时提供了丰富的模型服务商相关的环境变量,
- 默认值:`-`
- 示例:`-all,+deepseek-r1->deepseek-r1-250120,+deepseek-v3->deepseek-v3-241226,+doubao-1.5-pro-256k->doubao-1-5-pro-256k-250115,+doubao-1.5-pro-32k->doubao-1-5-pro-32k-250115,+doubao-1.5-lite-32k->doubao-1-5-lite-32k-250115`
+### `INFINIAI_API_KEY`
+
+- 类型:必选
+- 描述:这是你在 [Infini-AI](https://cloud.infini-ai.com) 申请的 API 密钥。
+- 默认值:-
+- 示例:`sk-xxxxxx...xxxxxx`
+
+### `INFINIAI_MODEL_LIST`
+
+- 类型:可选
+- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名->部署名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
+- 默认值:`-`
+- 示例:`-all,+qwq-32b,+deepseek-r1`
+
[model-list]: /zh/docs/self-hosting/advanced/model-list
diff --git a/docs/usage/providers/infiniai.mdx b/docs/usage/providers/infiniai.mdx
new file mode 100644
index 0000000000000..d83f1c3996cf5
--- /dev/null
+++ b/docs/usage/providers/infiniai.mdx
@@ -0,0 +1,29 @@
+---
+title: Using Infini-AI in LobeChat
+description: Learn how to configure and utilize Infini-AI's model services in LobeChat.
+tags:
+ - LobeChat
+ - Infini-AI
+ - API Key
+ - LLM Deployment
+---
+
+# Using Infini-AI in LobeChat
+
+[Infini-AI](https://cloud.infini-ai.com/) is a large model service platform optimized for multiple chip architectures, providing efficient and unified AGI infrastructure solutions.
+
+This guide will help you quickly integrate Infini-AI's AI capabilities into LobeChat.
+
+
+ ### Step 1: Obtain Infini-AI API Key
+
+ - Log in to the [Large Model Service Platform](https://cloud.infini-ai.com/genstudio/model)
+ - Select "API KEY Management" in the left navigation bar
+ - In the newly opened page, click the "Create API KEY" button, enter a name, and click "Create"
+
+ ### Step 2: Configure LobeChat Model Service
+
+ - Open LobeChat and go to the "Settings" interface
+ - Select "Infini-AI" in the "Language Model" module
+ - Paste the API key you obtained
+
diff --git a/docs/usage/providers/infiniai.zh-CN.mdx b/docs/usage/providers/infiniai.zh-CN.mdx
new file mode 100644
index 0000000000000..81ef7a0d50a3f
--- /dev/null
+++ b/docs/usage/providers/infiniai.zh-CN.mdx
@@ -0,0 +1,29 @@
+---
+title: 在 LobeChat 中使用无问芯穹
+description: 学习如何在 LobeChat 中配置和使用无问芯穹的 API Key,实现 AI 对话交互。
+tags:
+ - LobeChat
+ - 无问芯穹
+ - API密钥
+ - 大模型部署
+---
+
+# 在 LobeChat 中使用无问芯穹
+
+[无问芯穹](https://cloud.infini-ai.com/)是基于多元芯片优化的大模型服务平台,提供高效统一的 AGI 基础设施解决方案。
+
+本文将指导你如何在 LobeChat 中快速接入无问芯穹的 AI 能力。
+
+
+ ### 步骤一:获取无问芯穹 API Key
+
+ - 登录[大模型服务平台](https://cloud.infini-ai.com/genstudio/model)
+ - 在左侧导航栏选择「API KEY 管理」
+ - 在新打开的页面中,点击「创建 API KEY」按钮,填入名称,点击「创建」
+
+ ### 步骤二:配置 LobeChat 模型服务
+
+ - 打开 LobeChat 进入「设置」界面
+ - 在「语言模型」模块选择「Infini-AI」
+ - 粘贴已获取的 API 密钥
+
diff --git a/locales/ar/models.json b/locales/ar/models.json
index c5a7355fe708d..66642c21ec658 100644
--- a/locales/ar/models.json
+++ b/locales/ar/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 مصمم خصيصًا للأدوار التفاعلية والمرافقة العاطفية، يدعم ذاكرة متعددة الجولات طويلة الأمد وحوارات مخصصة، ويستخدم على نطاق واسع."
},
+ "chatglm3": {
+ "description": "ChatGLM3 هو نموذج مغلق المصدر تم إصداره بواسطة مختبر KEG في جامعة تسينغهوا وشركة Zhizhu AI، وقد تم تدريبه مسبقًا على كميات هائلة من المعرفة المعرفية باللغتين الصينية والإنجليزية، وتم تحسينه وفقًا للاختيارات البشرية. مقارنة بالنموذج الأول، حقق تحسينات بنسبة 16٪ و 36٪ و 280٪ في MMLU و C-Eval و GSM8K على التوالي، وتصدر قائمة المهام الصينية C-Eval. يناسب هذا النموذج السيناريوهات التي تتطلب كميات كبيرة من المعرفة وقدرات الاستدلال والإبداع، مثل كتابة النصوص الإعلانية وكتابة الروايات وكتابة المحتوى المعرفي وتكوين الكود."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base هو النموذج الأساسي المفتوح المصدر الأحدث من سلسلة ChatGLM التي طورتها شركة Zhìpǔ، ويحتوي على 6 مليارات معلمة."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين فهم اللغة القوي وقدرات التوليد، مما يجعله مناسبًا لمجموعة واسعة من التطبيقات، بما في ذلك خدمة العملاء والتعليم والدعم الفني."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "سبارك لايت هو نموذج لغوي كبير خفيف الوزن، يتميز بتأخير منخفض للغاية وكفاءة عالية في المعالجة، وهو مجاني تمامًا ومفتوح، ويدعم وظيفة البحث عبر الإنترنت في الوقت الحقيقي. تجعل خصائص استجابته السريعة منه مثاليًا لتطبيقات الاستدلال على الأجهزة ذات القدرة الحاسوبية المنخفضة وضبط النماذج، مما يوفر للمستخدمين قيمة ممتازة من حيث التكلفة وتجربة ذكية، خاصة في مجالات الأسئلة والأجوبة المعرفية، وتوليد المحتوى، وسيناريوهات البحث."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 هو سلسلة من النماذج اللغوية الكبيرة (LLM) التي طورتها Meta وأطلقتها كمصدر مفتوح، وهي تتكون من نماذج توليد نص مسبقة التدريب ومتخصصة بحجم يتراوح من 7 مليارات إلى 70 مليار معلمة. على مستوى العمارة، Llama2 هو نموذج لغوي تراجعي تلقائي يستخدم معمارية محول محسنة. الإصدارات المعدلة تستخدم التدريب الدقيق تحت الإشراف (SFT) والتعلم التقويمي مع تعزيزات من البشر (RLHF) لتوافق تفضيلات البشر فيما يتعلق بالفائدة والأمان. أظهر Llama2 أداءً أفضل بكثير من سلسلة Llama في العديد من المجموعات الأكاديمية، مما قدم إلهامًا لتصميم وتطوير العديد من النماذج الأخرى."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B يوفر قدرة استدلال ذكائي أقوى، مناسب للتطبيقات المعقدة، يدعم معالجة حسابية ضخمة ويضمن الكفاءة والدقة."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "سبارك ماكس 32K مزود بقدرة معالجة سياق كبيرة، مع فهم أقوى للسياق وقدرة على الاستدلال المنطقي، يدعم إدخال نصوص تصل إلى 32K توكن، مما يجعله مناسبًا لقراءة الوثائق الطويلة، والأسئلة والأجوبة المعرفية الخاصة، وغيرها من السيناريوهات."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct هو نموذج لغة كبير تم تدريبه بشكل مستقل من قبل شركة ووون تشينغ. يهدف Megrez-3B-Instruct إلى تقديم حل ذكاء على جهاز نهائي سريع وصغير وسهل الاستخدام من خلال مفهوم التكامل بين البرمجيات والأجهزة."
+ },
"meta-llama-3-70b-instruct": {
"description": "نموذج قوي بحجم 70 مليار معلمة يتفوق في التفكير، والترميز، وتطبيقات اللغة الواسعة."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "نموذج قوي للبرمجة متوسطة الحجم، يدعم طول سياق يصل إلى 32K، بارع في البرمجة متعددة اللغات."
},
+ "qwen1.5-14b-chat": {
+ "description": "سلسلة Qwen1.5 هي نسخة تجريبية من Qwen2، وهي نموذج لغة قائم على Transformer يتميز بالتفكيك فقط، وقد تم تدريبه مسبقًا على كميات هائلة من البيانات. مقارنة بالإصدارات السابقة من سلسلة Qwen، تدعم سلسلة Qwen1.5 النماذج الأساسية والدردشة بعدة لغات، وقد تحسنت قدراتها في الدردشة والأساسية بشكل عام. Qwen1.5-14b-chat هو النموذج الرئيسي المخصص لسituات الدردشة، ويحتوي على 14 مليار معلمة."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "سلسلة Qwen1.5 هي نسخة تجريبية من Qwen2، وهي نموذج لغة قائم على Transformer مصمم للتفكيك فقط، وقد تم تدريبه مسبقًا على كميات هائلة من البيانات. مقارنة بالإصدارات السابقة من سلسلة Qwen، تدعم سلسلة Qwen1.5 النماذج الأساسية والدردشة بعدة لغات، وقد تحسنت قدراتها في الدردشة والأساسية بشكل عام. Qwen1.5-32b-chat هو نموذج كبير بحجم 32 مليار معلمة مخصص لسituات الدردشة، وهو أقوى في سituات الذكاء الاصطناعي مقارنة بنموذج 14 مليار معلمة، وأقل تكلفة في الاستدلال مقارنة بنموذج 72 مليار معلمة."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "سلسلة Qwen1.5 هي نسخة تجريبية من Qwen2، وهي نموذج لغة قائم على Transformer مصمم للتفكيك فقط، وقد تم تدريبه مسبقًا على كميات هائلة من البيانات. مقارنة بالإصدارات السابقة من سلسلة Qwen، تدعم سلسلة Qwen1.5 النماذج الأساسية والدردشة بعدة لغات، وقد تحسنت قدراتها في الدردشة والأساسية بشكل عام. Qwen1.5-72b-chat هو النموذج الكبير المخصص لسituات الدردشة، ويحتوي على 72 مليار معلمة."
+ },
"qwen2": {
"description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 هو سلسلة نماذج لغوية كبيرة جديدة تم إطلاقها من قبل فريق Qwen. تعتمد هذه النماذج على هندسة Transformer وتستخدم دالة التنشيط SwiGLU، وتحيز الانتباه QKV (attention QKV bias)، وانتباه الاستفسار الجماعي (group query attention)، وخلط انتباه النافذة المتزحلقة والانتباه الكامل (mixture of sliding window attention and full attention). بالإضافة إلى ذلك، قام فريق Qwen بتحسين مجزئ يتكيف مع العديد من اللغات الطبيعية والأكواد."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 هو سلسلة نماذج لغوية كبيرة جديدة تم طرحها من قبل فريق Qwen. يعتمد هذا النموذج على هندسة Transformer، ويستخدم دالة التنشيط SwiGLU، وتحيز QKV للانتباه (attention QKV bias)، وانتباه الاستفسار الجماعي (group query attention)، وخلط انتباه النافذة المتزحلقة والانتباه الكامل. بالإضافة إلى ذلك، قام فريق Qwen بتحسين المقطّع الذي يتكيف مع العديد من اللغات الطبيعية والأكواد."
+ },
"qwen2.5": {
"description": "Qwen2.5 هو الجيل الجديد من نماذج اللغة الكبيرة من Alibaba، يدعم احتياجات التطبيقات المتنوعة بأداء ممتاز."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 هو نموذج لغوي تقدمه Microsoft AI، يتميز بأداء ممتاز في الحوار المعقد، واللغات المتعددة، والاستدلال، والمساعدين الذكيين."
},
+ "yi-1.5-34b-chat": {
+ "description": "يي-1.5 هو إصدار مُحدّث من يي. تم تدريبه بشكل مُسبق باستخدام مكتبة بيانات عالية الجودة تحتوي على 500 مليار علامة (Token) على يي، وتم تحسينه أيضًا باستخدام 3 ملايين مثال متنوع للتدريب الدقيق."
+ },
"yi-large": {
"description": "نموذج جديد بمليارات المعلمات، يوفر قدرة قوية على الإجابة وتوليد النصوص."
},
diff --git a/locales/ar/providers.json b/locales/ar/providers.json
index fd13cd80025ac..d77ed99bf7866 100644
--- a/locales/ar/providers.json
+++ b/locales/ar/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "نموذج لغة متقدم تم تطويره بواسطة Tencent، يتمتع بقدرة قوية على الإبداع باللغة الصينية، وقدرة على الاستدلال المنطقي في سياقات معقدة، بالإضافة إلى قدرة موثوقة على تنفيذ المهام."
},
+ "infiniai": {
+ "description": "يقدم خدمات نماذج كبيرة ذات أداء عالٍ وسهولة الاستخدام وأمان موثوق به للمطورين، تغطي كامل العملية من تطوير النماذج الكبيرة إلى نشرها كخدمات."
+ },
"internlm": {
"description": "منظمة مفتوحة المصدر مكرسة لأبحاث وتطوير أدوات النماذج الكبيرة. توفر منصة مفتوحة المصدر فعالة وسهلة الاستخدام لجميع مطوري الذكاء الاصطناعي، مما يجعل أحدث تقنيات النماذج الكبيرة والخوارزميات في متناول اليد."
},
diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json
index 19f0d42888e2c..fe9d15bfbfacd 100644
--- a/locales/bg-BG/models.json
+++ b/locales/bg-BG/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 е проектиран за ролеви игри и емоционално придружаване, поддържаща дълга многократна памет и персонализиран диалог, с широко приложение."
},
+ "chatglm3": {
+ "description": "ChatGLM3 е закритоизточен модел, обявен от интелигентната платформа AI и лабораторията KEG на Университета в Тайхуа. Той е претрениран с голям обем на китайски и английски идентификатори и е подложен на тренировка за съответствие с хуманите предпочитания. Сравнено с първата версия на модела, ChatGLM3 постига подобрения от 16%, 36% и 280% в MMLU, C-Eval и GSM8K съответно, и е класифициран на първо място в китайския рейтинг C-Eval. Този модел е подходящ за сценарии, които изискват високи стандарти за знания, умения за разсъждаване и креативност, като например създаване на рекламни текстове, писане на романи, научно-популярно писане и генериране на код."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base е последната генерация на редицата ChatGLM, разработена от компанията Zhipu, с 6 милиарда параметри и е открит източник."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и генериране на текст, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite е лек модел на голям език, с изключително ниска латентност и ефективна обработка, напълно безплатен и отворен, поддържащ функции за онлайн търсене в реално време. Неговите бързи отговори го правят отличен за приложения на нискомощни устройства и фина настройка на модели, предоставяйки на потребителите отлична рентабилност и интелигентно изживяване, особено в контекста на въпроси и отговори, генериране на съдържание и търсене."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 е серия от големи модели за език (LLM), разработени и с отворен код от Meta. Това е набор от генеративни текстови модели с различен размер, от 7 милиарда до 70 милиарда параметри, които са претренирани и майсторски оптимизирани. Архитектурно, Llama2 е автоматично регресивен езиков модел, използващ оптимизирана трансформаторна архитектура. Подобренията включват супервизирано майсторско трениране (SFT) и подкрепено с учене с награди (RLHF) за подреждане на предпочтенията на хората за полезност и безопасност. Llama2 демонстрира значително подобрени резултати върху множество академични набори от данни, което предоставя възможности за дизайн и развитие на много други модели."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B предлага по-мощни способности за разсъждение на AI, подходящи за сложни приложения, поддържащи множество изчислителни обработки и осигуряващи ефективност и точност."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K е конфигуриран с голяма способност за обработка на контекст, с по-силно разбиране на контекста и логическо разсъждение, поддържащ текстови входове до 32K токена, подходящ за четене на дълги документи, частни въпроси и отговори и други сценарии."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct е голям езиков модел, напълно обучен от безкрайната връху чиповете. Megrez-3B-Instruct се стреми чрез концепцията за съвместно хардуерно-софтуерно взаимодействие да създаде решение за крайните устройства, което е бързо за извършване, компактно и лесно за използване."
+ },
"meta-llama-3-70b-instruct": {
"description": "Мощен модел с 70 милиарда параметри, отличаващ се в разсъждения, кодиране и широки езикови приложения."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Мощен среден модел за код, поддържащ 32K дължина на контекста, специализиран в многоезично програмиране."
},
+ "qwen1.5-14b-chat": {
+ "description": "Qwen1.5 серия е бета версия на Qwen2, която е декодиращ езиков модел, базиран на Transformer, предварително обучен на обемни данни. Сравнено с предходните версии на Qwen, моделите base и chat на Qwen1.5 серия поддържат множество езици и са подобрени както в общите разговори, така и в основните умения. Qwen1.5-14b-chat е модел с 14 милиарда параметри, специално предназначен за разговорни сценарии."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "Qwen1.5 серия е бета версия на Qwen2, което е декодиращ езиков модел, базиран на Transformer, предварително обучен на обемни данни. Сравнено с предходните версии на Qwen, серията Qwen1.5 поддържа множество езици и е подобрена както в общите разговорни, така и в основните функции. Qwen1.5-32b-chat е специализиран модел за разговорни сценарии с 32 милиарда параметри, който е по-силен в сценарии с интелектуални агенти спрямо 14 милиардната версия и има по-нисък разход за извършване на изводи спрямо 72 милиардната версия."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "Серия Qwen1.5 е бета версия на Qwen2 и представлява декодиращ езиков модел, базиран на Transformer, предварително обучен на обемни данни. Сравнено с предходните версии на Qwen, моделите base и chat от серията Qwen1.5 поддържат множество езици и са подобрени както в общите разговори, така и в основните умения. Qwen1.5-72b-chat е специално предназначен за разговорни сценарии и разполага с 72 милиарда параметри."
+ },
"qwen2": {
"description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 е новият серий на големи модели за език, предложен от екипа Qwen. Той се основава на архитектурата Transformer и използва SwiGLU активационна функция, внимание QKV смещение (attention QKV bias), групово запитване на внимание (group query attention), смесени техники за внимание с превъртващи се прозорци (mixture of sliding window attention) и пълно внимание. Освен това, екипът Qwen също е подобрал токенизатора, който поддържа множество езици и код."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 е новият серийен модел за големи езици, представен от екипа Qwen. Той се основава на архитектурата Transformer и използва SwiGLU активационна функция, внимание с QKV смещение (attention QKV bias), групово внимание за заявки (group query attention), смесени техники за обръщане на внимание с превъртващи се прозорци (mixture of sliding window attention) и пълно внимание. Освен това, екипът Qwen е подобрил токенизатора, който поддържа множество езици и код."
+ },
"qwen2.5": {
"description": "Qwen2.5 е новото поколение мащабен езиков модел на Alibaba, който предлага отлична производителност, за да отговори на разнообразни приложни нужди."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който се отличава в сложни диалози, многоезичност, разсъждение и интелигентни асистенти."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 е обновена версия на Yi. Тя използва висококачествен корпус от 500B токена за продължителна предварителна обучение на Yi и е майсторски подобрявана с 3M разнообразни примера за fino-tuning."
+ },
"yi-large": {
"description": "Новият модел с хиляда милиарда параметри предлага изключителни способности за отговори и генериране на текст."
},
diff --git a/locales/bg-BG/providers.json b/locales/bg-BG/providers.json
index eff27f78b0f06..a037fd13391c9 100644
--- a/locales/bg-BG/providers.json
+++ b/locales/bg-BG/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "Модел на голям език, разработен от Tencent, който притежава мощни способности за създаване на текст на китайски, логическо разсъждение в сложни контексти и надеждни способности за изпълнение на задачи."
},
+ "infiniai": {
+ "description": "Предоставя високопроизводителни, лесни за използване и сигурни услуги с големи модели за приложението разработчици, покриващи целия процес от разработка на големи модели до техното услугово разгъване."
+ },
"internlm": {
"description": "Отворена организация, посветена на изследването и разработването на инструменти за големи модели. Предоставя на всички AI разработчици ефективна и лесна за използване отворена платформа, която прави най-съвременните технологии и алгоритми за големи модели достъпни."
},
diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json
index 03285f969e56a..a25c25882a329 100644
--- a/locales/de-DE/models.json
+++ b/locales/de-DE/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 ist für Rollenspiele und emotionale Begleitung konzipiert und unterstützt extrem lange Mehrfachgedächtnisse und personalisierte Dialoge, mit breiter Anwendung."
},
+ "chatglm3": {
+ "description": "ChatGLM3 ist ein proprietäres Modell, das von der KI-Forschungsgruppe Zhipu AI und dem KEG-Labor der Tsinghua-Universität veröffentlicht wurde. Es wurde durch umfangreiche Vortrainings mit chinesischen und englischen Bezeichnern sowie durch die Anpassung an menschliche Präferenzen entwickelt. Im Vergleich zum ersten Modell erzielte es Verbesserungen von 16 %, 36 % und 280 % in den Benchmarks MMLU, C-Eval und GSM8K und steht an der Spitze der chinesischen Aufgabenliste C-Eval. Es eignet sich für Szenarien, die hohe Anforderungen an das Wissensvolumen, die Inferenzfähigkeit und die Kreativität stellen, wie z. B. die Erstellung von Werbetexten, das Schreiben von Romanen, wissensbasiertes Schreiben und die Generierung von Code."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base ist das neueste Modell der ChatGLM-Serie mit 6 Milliarden Parametern, entwickelt von Zhipu."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und technische Unterstützung."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite ist ein leichtgewichtiges großes Sprachmodell mit extrem niedriger Latenz und effizienter Verarbeitung, das vollständig kostenlos und offen ist und Echtzeitsuchfunktionen unterstützt. Seine schnelle Reaktionsfähigkeit macht es besonders geeignet für Inferenzanwendungen und Modellanpassungen auf Geräten mit geringer Rechenleistung und bietet den Nutzern ein hervorragendes Kosten-Nutzen-Verhältnis sowie ein intelligentes Erlebnis, insbesondere in den Bereichen Wissensabfragen, Inhaltserstellung und Suchszenarien."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 ist eine Serie großer Sprachmodelle (LLM), die von Meta entwickelt und als Open Source veröffentlicht wurden. Diese Serie umfasst generative Textmodelle mit einer Parameteranzahl von 7 Milliarden bis 70 Milliarden, die vortrainiert und feinjustiert wurden. Architekturtechnisch ist Llama2 ein autoregressives Sprachmodell, das eine optimierte Transformer-Architektur verwendet. Die angepassten Versionen nutzen überwachte Feinabstimmung (SFT) und Reinforcement Learning mit menschlichem Feedback (RLHF), um den menschlichen Vorlieben für Nützlichkeit und Sicherheit zu entsprechen. Llama2 übertrifft die Leistung der Llama-Serie in mehreren akademischen Datensätzen und bietet Inspiration für die Entwicklung und Gestaltung vieler anderer Modelle."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B bietet leistungsstarke KI-Schlussfolgerungsfähigkeiten, die für komplexe Anwendungen geeignet sind und eine hohe Rechenverarbeitung bei gleichzeitiger Effizienz und Genauigkeit unterstützen."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K bietet eine große Kontextverarbeitungsfähigkeit mit verbesserter Kontextverständnis und logischer Schlussfolgerungsfähigkeit und unterstützt Texteingaben von bis zu 32K Tokens, was es ideal für das Lesen langer Dokumente und private Wissensabfragen macht."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct ist ein großes Sprachmodell, das vollständig von Wuxin XinQiong trainiert wurde. Megrez-3B-Instruct zielt darauf ab, durch die Idee der Hardware-Software-Kooperation eine schnelle Inferenz, ein kompaktes Design und eine benutzerfreundliche Endgerätlösung zu schaffen."
+ },
"meta-llama-3-70b-instruct": {
"description": "Ein leistungsstarkes Modell mit 70 Milliarden Parametern, das in den Bereichen Schlussfolgerungen, Programmierung und breiten Sprachanwendungen herausragt."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Leistungsstarkes, mittelgroßes Codierungsmodell, das 32K Kontextlängen unterstützt und in der mehrsprachigen Programmierung versiert ist."
},
+ "qwen1.5-14b-chat": {
+ "description": "Die Qwen1.5-Serie ist die Beta-Version von Qwen2 und basiert auf einem Transformer-basierten dekodierenden Sprachmodell, das auf umfangreichen Daten vorab trainiert wurde. Im Vergleich zu früheren Versionen der Qwen-Serie können sowohl das Base-Modell als auch das Chat-Modell der Qwen1.5-Serie mehrere Sprachen unterstützen und bieten Verbesserungen in der gesamten Chat-Funktionalität und den grundlegenden Fähigkeiten. Qwen1.5-14b-chat ist ein 14-Milliarden-Parameter-Modell, das speziell für Chat-Szenarien entwickelt wurde."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "Die Qwen1.5-Serie ist die Beta-Version von Qwen2 und basiert auf einem Transformer-basierten dekodierenden Sprachmodell, das auf umfangreichen Daten vorab trainiert wurde. Im Vergleich zu früheren Versionen der Qwen-Serie können sowohl das Base-Modell als auch das Chat-Modell der Qwen1.5-Serie mehrere Sprachen unterstützen und bieten Verbesserungen in der allgemeinen Konversation und den grundlegenden Fähigkeiten. Qwen1.5-32b-chat ist ein 32-Milliarden-Parameter-Modell, das speziell für Chat-Szenarien entwickelt wurde. Im Vergleich zum 14-Milliarden-Parameter-Modell ist es leistungsfähiger in Agentenszenarien, während es im Vergleich zum 72-Milliarden-Parameter-Modell günstigere Inferenzkosten aufweist."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "Die Qwen1.5-Serie ist die Beta-Version von Qwen2 und basiert auf einem Transformer-basierten dekodierenden Sprachmodell, das auf umfangreichen Daten vorab trainiert wurde. Im Vergleich zu früheren Versionen der Qwen-Serie können sowohl das Base-Modell als auch das Chat-Modell der Qwen1.5-Serie mehrere Sprachen unterstützen und bieten Verbesserungen in der gesamten Chat-Funktionalität und den grundlegenden Fähigkeiten. Qwen1.5-72b-chat ist das 72-Milliarden-Parameter-Modell, das speziell für Chat-Szenarien entwickelt wurde."
+ },
"qwen2": {
"description": "Qwen2 ist das neue große Sprachmodell von Alibaba, das mit hervorragender Leistung eine Vielzahl von Anwendungsanforderungen unterstützt."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 ist die neueste Generation von Sprachmodellen, die vom Qwen-Team entwickelt wurde. Es basiert auf der Transformer-Architektur und verwendet Techniken wie die SwiGLU-Aktivierungsfunktion, die Aufmerksamkeits-QKV-Bias (attention QKV bias), die gruppenbasierte Abfrageaufmerksamkeit (group query attention) und eine Mischung aus rutschendem Fenster und voller Aufmerksamkeit (mixture of sliding window attention and full attention). Darüber hinaus hat das Qwen-Team den Tokenizer verbessert, der für die Verarbeitung von natürlicher Sprache und Code optimiert ist."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 ist die neueste Serie von großen Sprachmodellen, die vom Qwen-Team entwickelt wurde. Es basiert auf der Transformer-Architektur und verwendet Techniken wie die SwiGLU-Aktivierungsfunktion, die Aufmerksamkeits-QKV-Bias (attention QKV bias), die Gruppenabfrageaufmerksamkeit (group query attention) und eine Mischung aus rutschendem Fenster und voller Aufmerksamkeit (mixture of sliding window attention and full attention). Zudem hat das Qwen-Team den Tokenizer verbessert, um mehrere natürliche Sprachen und Code besser zu verarbeiten."
+ },
"qwen2.5": {
"description": "Qwen2.5 ist das neue, groß angelegte Sprachmodell der Alibaba-Gruppe, das hervorragende Leistungen zur Unterstützung vielfältiger Anwendungsbedürfnisse bietet."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 ist ein Sprachmodell von Microsoft AI, das in komplexen Dialogen, mehrsprachigen Anwendungen, Schlussfolgerungen und intelligenten Assistenten besonders gut abschneidet."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 ist eine verbesserte Version von Yi. Es wurde mit einem hochwertigen Korpus von 500B Tokens auf Yi fortlaufend vortrainiert und auf 3M diversen Feinabstimmungsbeispielen feinjustiert."
+ },
"yi-large": {
"description": "Das brandneue Modell mit einer Billion Parametern bietet außergewöhnliche Frage- und Textgenerierungsfähigkeiten."
},
diff --git a/locales/de-DE/providers.json b/locales/de-DE/providers.json
index 0a8f7d0ef1a78..5c9ce1e653e16 100644
--- a/locales/de-DE/providers.json
+++ b/locales/de-DE/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "Ein von Tencent entwickeltes großes Sprachmodell, das über starke Fähigkeiten zur Erstellung von Inhalten in chinesischer Sprache, logisches Denkvermögen in komplexen Kontexten und zuverlässige Fähigkeiten zur Aufgabenerfüllung verfügt."
},
+ "infiniai": {
+ "description": "Bietet Anwendungsentwicklern hochleistungs-fähige, benutzerfreundliche und sichere Dienste für große Modelle, die den gesamten Prozess von der Entwicklung großer Modelle bis hin zur Dienstbereitstellung abdecken."
+ },
"internlm": {
"description": "Eine Open-Source-Organisation, die sich der Forschung und Entwicklung von großen Modellen und Werkzeugketten widmet. Sie bietet allen KI-Entwicklern eine effiziente und benutzerfreundliche Open-Source-Plattform, die den Zugang zu den neuesten Technologien und Algorithmen für große Modelle ermöglicht."
},
diff --git a/locales/en-US/models.json b/locales/en-US/models.json
index 0905dea6021ee..64503a18cf45f 100644
--- a/locales/en-US/models.json
+++ b/locales/en-US/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 is designed for role-playing and emotional companionship, supporting ultra-long multi-turn memory and personalized dialogue, with wide applications."
},
+ "chatglm3": {
+ "description": "ChatGLM3 is a closed-source model released by Zhipu AI and Tsinghua KEG Lab. It has been pre-trained on a massive amount of Chinese and English identifiers and fine-tuned with human preference alignment. Compared to the first-generation model, it has achieved improvements of 16%, 36%, and 280% in MMLU, C-Eval, and GSM8K, respectively, and topped the Chinese task leaderboard C-Eval. It is suitable for scenarios that require a high level of knowledge, reasoning, and creativity, such as advertising copywriting, novel writing, knowledge-based writing, and code generation."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base is the latest generation of the ChatGLM series, a 6 billion parameter open-source base model developed by Zhipu."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o is a dynamic model that updates in real-time to stay current with the latest version. It combines powerful language understanding and generation capabilities, making it suitable for large-scale applications, including customer service, education, and technical support."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite is a lightweight large language model with extremely low latency and efficient processing capabilities, completely free and open, supporting real-time online search functionality. Its quick response feature makes it excel in inference applications and model fine-tuning on low-power devices, providing users with excellent cost-effectiveness and intelligent experiences, particularly in knowledge Q&A, content generation, and search scenarios."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 is a series of large language models (LLMs) developed and open-sourced by Meta. This series includes generative text models of varying sizes, ranging from 7 billion to 70 billion parameters, which have been pre-trained and fine-tuned. Architecturally, Llama2 is an autoregressive language model that uses an optimized transformer architecture. The fine-tuned versions leverage supervised fine-tuning (SFT) and reinforcement learning with human feedback (RLHF) to align with human preferences for usefulness and safety. Llama2 outperforms the Llama series on multiple academic datasets and provides valuable insights for the design and development of other models."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B provides enhanced AI reasoning capabilities, suitable for complex applications, supporting extensive computational processing while ensuring efficiency and accuracy."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K is configured with large context processing capabilities, enhanced contextual understanding, and logical reasoning abilities, supporting text input of 32K tokens, suitable for long document reading, private knowledge Q&A, and other scenarios."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct is a large language model fully trained by Wuwen Xin Qiong. Megrez-3B-Instruct aims to create an ultra-fast, compact, and easy-to-use intelligent solution for edge devices through the concept of hardware-software co-design."
+ },
"meta-llama-3-70b-instruct": {
"description": "A powerful 70-billion parameter model excelling in reasoning, coding, and broad language applications."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "A powerful medium-sized code model supporting 32K context length, proficient in multilingual programming."
},
+ "qwen1.5-14b-chat": {
+ "description": "The Qwen1.5 series is the Beta version of Qwen2, a Transformer-based decoder-only language model pre-trained on a vast amount of data. Compared to previously released versions of Qwen, both the base and chat models in the Qwen1.5 series support multiple languages and have seen improvements in overall chat and foundational capabilities. Qwen1.5-14b-chat is a 14 billion parameter model specifically designed for chat scenarios, representing a mainstream size in the field."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "The Qwen1.5 series is the Beta version of Qwen2, a Transformer-based decoder-only language model pre-trained on a vast amount of data. Compared to previously released versions of the Qwen series, the Qwen1.5 series, including both the base and chat models, supports multiple languages and has seen improvements in overall chat and foundational capabilities. Qwen1.5-32b-chat is a 32 billion parameter model specifically designed for chat scenarios, offering stronger performance in agent scenarios compared to the 14 billion parameter model, and lower inference costs compared to the 72 billion parameter model."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "The Qwen1.5 series is the Beta version of Qwen2, a decoder-only language model based on the Transformer architecture, pre-trained on a vast amount of data. Compared to previously released versions of the Qwen series, the Qwen1.5 series, including both the base and chat models, supports multiple languages and has seen improvements in overall chat and foundational capabilities. Qwen1.5-72b-chat is a 72 billion parameter model specifically designed for chat scenarios."
+ },
"qwen2": {
"description": "Qwen2 is Alibaba's next-generation large-scale language model, supporting diverse application needs with excellent performance."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 is the new generation of large language model series introduced by the Qwen team. It is based on the Transformer architecture and incorporates technologies such as the SwiGLU activation function, attention QKV bias, group query attention, a mixture of sliding window attention, and full attention. Additionally, the Qwen team has improved the tokenizer to better adapt to multiple natural languages and code."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 is the new generation of large language model series introduced by the Qwen team. It is based on the Transformer architecture and incorporates technologies such as the SwiGLU activation function, attention QKV bias, group query attention, a mixture of sliding window attention, and full attention. Additionally, the Qwen team has improved the tokenizer to better adapt to multiple natural languages and code."
+ },
"qwen2.5": {
"description": "Qwen2.5 is Alibaba's next-generation large-scale language model, supporting diverse application needs with outstanding performance."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 is a language model provided by Microsoft AI, excelling in complex dialogues, multilingual capabilities, reasoning, and intelligent assistant applications."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 is an upgraded version of Yi. It continues pre-training on Yi using a high-quality corpus of 500B tokens and is fine-tuned on 3M diverse samples."
+ },
"yi-large": {
"description": "A new trillion-parameter model, providing super strong question-answering and text generation capabilities."
},
diff --git a/locales/en-US/providers.json b/locales/en-US/providers.json
index 67c00190473ff..c48261d5decfb 100644
--- a/locales/en-US/providers.json
+++ b/locales/en-US/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "A large language model developed by Tencent, equipped with powerful Chinese creative capabilities, logical reasoning abilities in complex contexts, and reliable task execution skills."
},
+ "infiniai": {
+ "description": "Provides high-performance, easy-to-use, and secure large model services for application developers, covering the entire process from large model development to service deployment."
+ },
"internlm": {
"description": "An open-source organization dedicated to the research and development of large model toolchains. It provides an efficient and user-friendly open-source platform for all AI developers, making cutting-edge large models and algorithm technologies easily accessible."
},
diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json
index 5610925cee02f..8df01dea9b602 100644
--- a/locales/es-ES/models.json
+++ b/locales/es-ES/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 está diseñado para juegos de rol y acompañamiento emocional, soportando memoria de múltiples rondas y diálogos personalizados, con aplicaciones amplias."
},
+ "chatglm3": {
+ "description": "ChatGLM3 es un modelo de código cerrado desarrollado por Zhipu AI y el Laboratorio KEG de Tsinghua. Ha sido preentrenado con una gran cantidad de identificadores en chino e inglés y ajustado a las preferencias humanas. En comparación con el modelo de primera generación, ha logrado mejoras del 16%, 36% y 280% en MMLU, C-Eval y GSM8K, respectivamente, y ha alcanzado el primer lugar en el ranking de tareas en chino C-Eval. Es adecuado para escenarios que requieren un alto nivel de conocimiento, capacidad de razonamiento y creatividad, como la redacción de anuncios, la escritura de novelas, la redacción de contenido de conocimiento y la generación de código."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base es el modelo base de la última generación de la serie ChatGLM, desarrollado por Zhipu, con una escala de 6.000 millones de parámetros y de código abierto."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o es un modelo dinámico que se actualiza en tiempo real para mantener la versión más actual. Combina una poderosa comprensión y generación de lenguaje, adecuado para aplicaciones a gran escala, incluyendo servicio al cliente, educación y soporte técnico."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite es un modelo de lenguaje grande y ligero, con una latencia extremadamente baja y una capacidad de procesamiento eficiente, completamente gratuito y de código abierto, que admite funciones de búsqueda en línea en tiempo real. Su característica de respuesta rápida lo hace destacar en aplicaciones de inferencia y ajuste de modelos en dispositivos de baja potencia, brindando a los usuarios una excelente relación costo-beneficio y experiencia inteligente, especialmente en escenarios de preguntas y respuestas, generación de contenido y búsqueda."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 es una serie de modelos de lenguaje de gran escala (LLM) desarrollados y publicados por Meta, que incluye modelos de texto generativo preentrenados y ajustados de diferentes tamaños, desde 7 mil millones hasta 70 mil millones de parámetros. A nivel de arquitectura, Llama2 es un modelo de lenguaje autoregresivo que utiliza una arquitectura de transformador optimizada. Las versiones ajustadas utilizan un ajuste de fine-tuning supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF) para alinear las preferencias de utilidad y seguridad humanas. Llama2 supera a la serie Llama en varios conjuntos de datos académicos, proporcionando ideas para el diseño y desarrollo de numerosos otros modelos."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B ofrece una capacidad de razonamiento AI más potente, adecuada para aplicaciones complejas, soportando un procesamiento computacional extenso y garantizando eficiencia y precisión."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K está equipado con una capacidad de procesamiento de contexto grande, con una comprensión contextual más fuerte y habilidades de razonamiento lógico, soportando entradas de texto de 32K tokens, adecuado para la lectura de documentos largos, preguntas y respuestas de conocimiento privado y otros escenarios."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct es un modelo de lenguaje grande entrenado completamente de forma autónoma por Wúwèn Xīnqióng. Megrez-3B-Instruct tiene como objetivo crear una solución de inteligencia periférica rápida, compacta y fácil de usar, basada en el concepto de colaboración entre hardware y software."
+ },
"meta-llama-3-70b-instruct": {
"description": "Un poderoso modelo de 70 mil millones de parámetros que sobresale en razonamiento, codificación y amplias aplicaciones de lenguaje."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Poderoso modelo de código de tamaño mediano, que soporta longitudes de contexto de 32K, experto en programación multilingüe."
},
+ "qwen1.5-14b-chat": {
+ "description": "La serie Qwen1.5 es la versión Beta de Qwen2, un modelo de lenguaje de solo decodificación basado en Transformer, preentrenado en una gran cantidad de datos. En comparación con las versiones anteriores de la serie Qwen, tanto el modelo base como el modelo de chat de la serie Qwen1.5 admiten múltiples idiomas y han mejorado en términos de chat general y capacidades básicas. Qwen1.5-14b-chat es el modelo de 14 mil millones de parámetros diseñado específicamente para escenarios de chat, considerado como un tamaño de modelo principal."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "Qwen1.5 es la versión Beta de Qwen2, un modelo de lenguaje de solo decodificación basado en Transformer, preentrenado en una gran cantidad de datos. En comparación con las versiones anteriores de la serie Qwen, tanto el modelo base como el modelo de chat de Qwen1.5 admiten múltiples idiomas y han mejorado tanto en chat general como en capacidades básicas. Qwen1.5-32b-chat es un modelo de 320 mil millones de parámetros diseñado específicamente para escenarios de chat, que ofrece un mejor rendimiento en escenarios de agentes inteligentes en comparación con el modelo de 14 mil millones de parámetros y un menor costo de inferencia en comparación con el modelo de 72 mil millones de parámetros."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "La serie Qwen1.5 es la versión Beta de Qwen2, un modelo de lenguaje de solo decodificación basado en Transformer, preentrenado en una gran cantidad de datos. En comparación con las versiones anteriores de la serie Qwen, tanto el modelo base como el modelo de chat de la serie Qwen1.5 pueden soportar múltiples idiomas, mejorando tanto en el chat general como en las capacidades básicas. Qwen1.5-72b-chat es el modelo de 72 mil millones de parámetros dedicado a escenarios de chat."
+ },
"qwen2": {
"description": "Qwen2 es el nuevo modelo de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 es la nueva serie de modelos de lenguaje de gran escala presentada por el equipo de Qwen. Se basa en la arquitectura Transformer y utiliza funciones de activación SwiGLU, sesgo de atención QKV (attention QKV bias), atención de consulta grupal (group query attention), una mezcla de atención de ventana deslizante y atención completa (mixture of sliding window attention and full attention). Además, el equipo de Qwen ha mejorado el tokenizador para adaptarse a múltiples lenguajes naturales y códigos."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 es una nueva serie de modelos de lenguaje de gran escala desarrollada por el equipo de Qwen. Se basa en la arquitectura Transformer y utiliza funciones de activación SwiGLU, sesgo de atención QKV (attention QKV bias), atención de consulta grupal (group query attention), una mezcla de atención de ventana deslizante y atención completa (mixture of sliding window attention and full attention). Además, el equipo de Qwen ha mejorado el tokenizador para adaptarse a múltiples lenguajes naturales y códigos."
+ },
"qwen2.5": {
"description": "Qwen2.5 es la nueva generación de modelos de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingües, razonamiento y asistentes inteligentes."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 es una versión mejorada de Yi. Utiliza un corpus de alta calidad de 500B tokens para continuar el preentrenamiento de Yi y se微调 en 3M muestras de ajuste fino diversificadas."
+ },
"yi-large": {
"description": "Modelo de mil millones de parámetros completamente nuevo, que ofrece capacidades excepcionales de preguntas y respuestas y generación de texto."
},
diff --git a/locales/es-ES/providers.json b/locales/es-ES/providers.json
index bbddc8f3813a7..716f3ac012d9b 100644
--- a/locales/es-ES/providers.json
+++ b/locales/es-ES/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "Un modelo de lenguaje desarrollado por Tencent, que posee una poderosa capacidad de creación en chino, habilidades de razonamiento lógico en contextos complejos y una capacidad confiable para ejecutar tareas."
},
+ "infiniai": {
+ "description": "Proporciona a los desarrolladores de aplicaciones servicios de modelos grandes de alto rendimiento, fáciles de usar y seguros, cubriendo todo el proceso desde el desarrollo de modelos grandes hasta su implementación como servicio."
+ },
"internlm": {
"description": "Organización de código abierto dedicada a la investigación y desarrollo de herramientas para modelos grandes. Proporciona a todos los desarrolladores de IA una plataforma de código abierto eficiente y fácil de usar, permitiendo el acceso a las tecnologías y algoritmos más avanzados."
},
diff --git a/locales/fa-IR/models.json b/locales/fa-IR/models.json
index 022bce33beea1..bd40056b8fb73 100644
--- a/locales/fa-IR/models.json
+++ b/locales/fa-IR/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 بهطور ویژه برای نقشآفرینی و همراهی عاطفی طراحی شده است، از حافظه طولانیمدت و مکالمات شخصیسازیشده پشتیبانی میکند و کاربردهای گستردهای دارد."
},
+ "chatglm3": {
+ "description": "ChatGLM3 یک مدل بستهشده است که توسط هوش مصنوعی Zhima و آزمایشگاه KEG دانشگاه Tsinghua منتشر شده است. این مدل با پیشآموزش بر روی مجموعهای وسیع از نمادهای چینی و انگلیسی و همچنین آموزش مطابق با ترجیحات انسانی، نسبت به نسل اول مدل، بهبودهای 16٪، 36٪ و 280٪ در MMLU، C-Eval و GSM8K به دست آورده است و در رتبهبندی وظایف چینی C-Eval رتبه اول را کسب کرده است. این مدل برای صحنههایی که نیاز به مقدار زیادی دانش، توانایی استدلال و خلاقیت دارند، مانند نوشتن متن تبلیغاتی، نویسندگی داستان، نوشتن محتوای دانشگاهی و تولید کد مناسب است."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base یک مدل پایه منبع باز با مقیاس ۶ میلیارد پارامتر از نسل جدید سری ChatGLM است که توسط شرکت Zhizhu (智谱) توسعه یافته است."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o یک مدل پویا است که بهصورت زنده بهروزرسانی میشود تا همیشه نسخهی جدید و بهروز باشد. این مدل ترکیبی از تواناییهای قوی در درک و تولید زبان است و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite یک مدل زبان بزرگ سبک است که دارای تأخیر بسیار کم و توانایی پردازش کارآمد میباشد. بهطور کامل رایگان و باز است و از قابلیت جستجوی آنلاین در زمان واقعی پشتیبانی میکند. ویژگی پاسخدهی سریع آن باعث میشود که در کاربردهای استنتاجی و تنظیم مدل در دستگاههای با توان محاسباتی پایین عملکرد برجستهای داشته باشد و تجربهای هوشمند و مقرونبهصرفه برای کاربران فراهم کند. بهویژه در زمینههای پرسش و پاسخ دانش، تولید محتوا و جستجو عملکرد خوبی دارد."
},
+ "llama-2-7b-chat": {
+ "description": "سری مدلهای زبانی بزرگ (LLM) Llama2 توسط Meta توسعه یافته و به صورت متنباز منتشر شده است. این مجموعه شامل مدلهای متنی تولیدی با مقیاسهای مختلف از 7 میلیارد تا 70 میلیارد پارامتر است که پیشآموزش و ریآموزش داده شدهاند. از نظر معماری، Llama2 یک مدل زبانی خودرگرسیو با استفاده از معماری تبدیلکننده بهینهشده است. نسخههای تنظیمشده از این مدل با استفاده از ریآموزش نظارتشده (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) برای همگرایی با ترجیحات انسانی در مورد مفیدیت و ایمنی تنظیم شدهاند. Llama2 نسبت به سری Llama در مجموعههای داده علمی مختلف عملکرد بهتری دارد و الهام بخش طراحی و توسعه مدلهای دیگر بسیاری بوده است."
+ },
"llama-3.1-70b-versatile": {
"description": "لاما 3.1 70B توانایی استدلال هوش مصنوعی قویتری را ارائه میدهد، مناسب برای برنامههای پیچیده، پشتیبانی از پردازشهای محاسباتی فراوان و تضمین کارایی و دقت بالا."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K با قابلیت پردازش متن با زمینه بزرگتر، توانایی درک و استدلال منطقی قویتری دارد و از ورودی متنی تا 32K توکن پشتیبانی میکند. مناسب برای خواندن اسناد طولانی، پرسش و پاسخ با دانش خصوصی و موارد مشابه."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct یک مدل زبانی بزرگ است که به طور کامل توسط شرکت ووونگ شیونگ آموزش داده شده است. هدف از Megrez-3B-Instruct ایجاد یک راهحل هوشمند از طریق هماهنگی سختافزار و نرمافزار است که دارای استنتاج سریع، حجم کوچک و آسانی در استفاده باشد."
+ },
"meta-llama-3-70b-instruct": {
"description": "یک مدل قدرتمند با ۷۰ میلیارد پارامتر که در استدلال، کدنویسی و کاربردهای گسترده زبانی عملکرد برجستهای دارد."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "مدل کد قدرتمند و متوسط که از طول زمینه 32K پشتیبانی میکند و در برنامهنویسی چند زبانه مهارت دارد."
},
+ "qwen1.5-14b-chat": {
+ "description": "سری Qwen1.5 نسخه بیتا از Qwen2 است، که یک مدل زبانی تنها دکد کننده بر پایه Transformer است که روی دادههای بسیار زیاد آموزش داده شده است. نسبت به نسخههای قبلی سری Qwen، هم مدل base و هم مدل chat سری Qwen1.5 قادر به پشتیبانی از زبانهای مختلف هستند و در مجموع در چت و تواناییهای پایه بهبود یافتهاند. Qwen1.5-14b-chat یک مدل با 14 میلیارد پارامتر است که برای صحنههای چت طراحی شده است."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "سری Qwen1.5 نسخه بتهای Qwen2 است، یک مدل زبانی تنها دیکد کننده بر پایه Transformer است که روی دادههای بسیار زیاد پیش آموزش داده شده است. نسبت به نسخههای قبلی سری Qwen، هم مدلهای base و chat سری Qwen1.5 چندین زبان را پشتیبانی میکنند و در مکالمات کلی و تواناییهای پایه بهبود یافتهاند. Qwen1.5-32b-chat مدل 32 میلیارد پارامتری است که برای صحنههای چت تخصصیتر است، نسبت به مدل 14 میلیارد پارامتری در صحنههای هوشمند تر است و نسبت به مدل 72 میلیارد پارامتری هزینه استنتاج کمتری دارد."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "سری Qwen1.5 نسخه بیتا از Qwen2 است، که یک مدل زبانی تنها دکد کننده بر پایه Transformer است و روی دادههای بسیار زیاد آموزش داده شده است. نسبت به نسخههای قبلی سری Qwen، هم مدل base و هم مدل chat سری Qwen1.5 قادر به پشتیبانی از زبانهای مختلف هستند و در مجموع در چت و تواناییهای پایه بهبود یافتهاند. Qwen1.5-72b-chat مدل گستردهای با 72 میلیارد پارامتر است که برای صحنههای چت تخصصی است."
+ },
"qwen2": {
"description": "Qwen2 مدل زبان بزرگ نسل جدید علیبابا است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی میکند."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2، سری جدیدی از مدلهای زبانی بزرگ توسط تیم Qwen ارائه شده است. این مدل بر اساس معماری Transformer ساخته شده و از توابع فعالسازی SwiGLU، بایاس QKV توجه (attention QKV bias)، توجه سؤال گروهی (group query attention)، ترکیب توجه پنجرهای لغزشی و توجه کامل (mixture of sliding window attention and full attention) استفاده میکند. علاوه بر این، تیم Qwen بهبودی در تجزیهکنندههایی که برای تجزیه متنهای طبیعی و کد مناسب هستند ایجاد کردهاند."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2، سری جدیدی از مدلهای زبانی بزرگ توسط تیم Qwen ارائه شده است. این مدل بر اساس معماری Transformer ساخته شده و از توابع فعالسازی SwiGLU، بایاس QKV توجه (attention QKV bias)، توجه سرویسگروهی (group query attention)، ترکیب توجه پنجرهای لغزشی و توجه کامل (mixture of sliding window attention and full attention) استفاده میکند. علاوه بر این، تیم Qwen بهبودی در تجزیهکنندههایی ارائه کردهاند که برای تجزیه متنهای طبیعی و کد مناسب هستند."
+ },
"qwen2.5": {
"description": "Qwen2.5 نسل جدید مدل زبانی مقیاس بزرگ Alibaba است که با عملکرد عالی از نیازهای متنوع کاربردی پشتیبانی میکند."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 یک مدل زبانی ارائه شده توسط مایکروسافت AI است که در زمینههای مکالمات پیچیده، چندزبانه، استدلال و دستیارهای هوشمند عملکرد برجستهای دارد."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 نسخهی بهروزرسانی شدهی Yi است. این مدل با استفاده از یک مجموعه داده با کیفیت بالا شامل 500 میلیارد توکن برای پیشآموزی و 3 میلیون نمونه متنوع برای آموزش ریزی مجدداً آموزش داده شده است."
+ },
"yi-large": {
"description": "مدل جدید با میلیاردها پارامتر، ارائهدهنده تواناییهای فوقالعاده در پاسخگویی و تولید متن."
},
diff --git a/locales/fa-IR/providers.json b/locales/fa-IR/providers.json
index ed02d863a3aef..ce66661f3ba4c 100644
--- a/locales/fa-IR/providers.json
+++ b/locales/fa-IR/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "مدل زبان بزرگ توسعهیافته توسط تنسنت، با تواناییهای قدرتمند در خلق محتوای چینی، توانایی استدلال منطقی در زمینههای پیچیده، و قابلیت اجرای وظایف بهصورت قابل اعتماد"
},
+ "infiniai": {
+ "description": "خدمات مدلهای بزرگ با عملکرد بالا، راحت برای استفاده و امن برای توسعهدهندگان اپلیکیشن، که شامل مراحل از توسعه مدلهای بزرگ تا پیشگیری از نصب خدمات مدلهای بزرگ میشود."
+ },
"internlm": {
"description": "سازمان متن باز متعهد به تحقیق و توسعه ابزارهای مدلهای بزرگ. ارائه یک پلتفرم متن باز کارآمد و آسان برای تمام توسعهدهندگان هوش مصنوعی، تا جدیدترین مدلها و تکنیکهای الگوریتمی در دسترس باشد."
},
diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json
index 3e1b69274a66a..dadd67df6796c 100644
--- a/locales/fr-FR/models.json
+++ b/locales/fr-FR/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 est conçu pour le jeu de rôle et l'accompagnement émotionnel, prenant en charge une mémoire multi-tours ultra-longue et des dialogues personnalisés, avec des applications variées."
},
+ "chatglm3": {
+ "description": "ChatGLM3 est un modèle fermé développé par l'IA Zhipu et le laboratoire KEG de Tsinghua. Il a été pré-entraîné sur une grande quantité d'identifiants chinois et anglais et a été aligné sur les préférences humaines. Par rapport au modèle de première génération, il a amélioré ses performances de 16%, 36% et 280% sur MMLU, C-Eval et GSM8K respectivement, et est devenu le meilleur modèle sur le classement C-Eval pour les tâches en chinois. Il est adapté aux scénarios nécessitant une grande quantité de connaissances, des capacités de raisonnement et de créativité, tels que la rédaction de publicités, l'écriture de romans, la rédaction de contenu informatif et la génération de code."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base est le modèle de base open source de la dernière génération de la série ChatGLM, développé par Zhipu, avec une taille de 6 milliards de paramètres."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, prenant en charge la recherche en temps réel. Sa capacité de réponse rapide le rend exceptionnel pour les applications d'inférence sur des appareils à faible puissance de calcul et pour le réglage des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 est une série de grands modèles de langage (LLM) développés et open-source par Meta. Elle comprend des modèles de génération de texte pré-entraînés et affinés, dont la taille varie de 7 milliards à 70 milliards de paramètres. Sur le plan architectural, Llama2 est un modèle de langage auto-régressif utilisant une architecture de transformateur optimisée. Les versions ajustées utilisent un affinage supervisé (SFT) et un apprentissage par renforcement avec feedback humain (RLHF) pour aligner les préférences d'utilité et de sécurité humaines. Llama2 offre de meilleures performances que la série Llama sur de nombreux jeux de données académiques, fournissant des idées pour la conception et le développement de nombreux autres modèles."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B offre une capacité de raisonnement AI plus puissante, adaptée aux applications complexes, prenant en charge un traitement de calcul intensif tout en garantissant efficacité et précision."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K est équipé d'une grande capacité de traitement de contexte, avec une compréhension contextuelle et des capacités de raisonnement logique renforcées, prenant en charge des entrées textuelles de 32K tokens, adapté à la lecture de documents longs, aux questions-réponses privées et à d'autres scénarios."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct est un grand modèle de langage entièrement formé par Wúwèn Xīnqióng. Megrez-3B-Instruct vise à créer une solution d'intelligence embarquée rapide, compacte et facile à utiliser, en adoptant une approche intégrée logiciel-hardware."
+ },
"meta-llama-3-70b-instruct": {
"description": "Un puissant modèle de 70 milliards de paramètres excelling dans le raisonnement, le codage et les applications linguistiques larges."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Modèle de code puissant de taille moyenne, prenant en charge une longueur de contexte de 32K, spécialisé dans la programmation multilingue."
},
+ "qwen1.5-14b-chat": {
+ "description": "La série Qwen1.5 est la version Beta de Qwen2, un modèle de langage de décodage uniquement basé sur Transformer, pré-entraîné sur de vastes volumes de données. Par rapport aux versions précédentes de la série Qwen, les modèles base et chat de la série Qwen1.5 prennent en charge plusieurs langues et ont été améliorés en termes de conversation globale et de capacités de base. Qwen1.5-14b-chat est le modèle de taille principale de 14 milliards de paramètres spécifiquement conçu pour les scénarios de chat."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "La série Qwen1.5 est la version Beta de Qwen2, un modèle de langage de décodage uniquement basé sur Transformer, pré-entraîné sur de vastes volumes de données. Par rapport aux versions précédentes de la série Qwen, la série Qwen1.5 améliore les modèles base et chat pour prendre en charge plusieurs langues, et offre des améliorations dans les capacités de conversation et de base. Qwen1.5-32b-chat est un grand modèle de 320 milliards de paramètres spécifiquement conçu pour les scénarios de chat, offrant des performances supérieures dans les scénarios d'agents intelligents par rapport au modèle 14b, tout en réduisant les coûts d'inférence par rapport au modèle 72b."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "La série Qwen1.5 est la version Beta de Qwen2, un modèle de langage de décodage uniquement basé sur Transformer, pré-entraîné sur de vastes volumes de données. Par rapport aux versions précédentes de la série Qwen, les modèles base et chat de la série Qwen1.5 prennent en charge plusieurs langues et ont été améliorés en termes de conversation globale et de capacités de base. Qwen1.5-72b-chat est le grand modèle de 72 milliards de paramètres dédié aux scénarios de chat."
+ },
"qwen2": {
"description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 est la nouvelle série de modèles de langage grand format développée par l'équipe Qwen. Elle repose sur l'architecture Transformer et intègre des fonctions d'activation SwiGLU, un biais d'attention QKV (attention QKV bias), une attention de requête de groupe (group query attention), un mélange d'attention à fenêtre glissante (mixture of sliding window attention) et une attention complète. De plus, l'équipe Qwen a amélioré le segmenteur pour mieux s'adapter à diverses langues naturelles et au code."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 est la nouvelle génération de modèles de langage grand format développée par l'équipe Qwen. Il repose sur l'architecture Transformer et utilise des fonctions d'activation SwiGLU, des biais QKV d'attention, de l'attention de requête de groupe, un mélange d'attention à fenêtre glissante et d'attention complète. De plus, l'équipe Qwen a amélioré le segmenteur pour s'adapter à de nombreuses langues naturelles et à des codes."
+ },
"qwen2.5": {
"description": "Qwen2.5 est le nouveau modèle de langage à grande échelle de Alibaba, offrant d'excellentes performances pour répondre à des besoins d'application diversifiés."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, particulièrement performant dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 est une version améliorée de Yi. Il utilise un corpus de haute qualité de 500 milliards de tokens pour poursuivre l'entraînement préalable de Yi, et est affiné sur 3 millions d'exemples de fine-tuning variés."
+ },
"yi-large": {
"description": "Un modèle de nouvelle génération avec des milliards de paramètres, offrant des capacités de question-réponse et de génération de texte exceptionnelles."
},
diff --git a/locales/fr-FR/providers.json b/locales/fr-FR/providers.json
index e8e4fbe5da244..aced2b60023b0 100644
--- a/locales/fr-FR/providers.json
+++ b/locales/fr-FR/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "Un modèle de langage développé par Tencent, doté d'une puissante capacité de création en chinois, d'une capacité de raisonnement logique dans des contextes complexes, ainsi que d'une capacité fiable d'exécution des tâches."
},
+ "infiniai": {
+ "description": "Fournit aux développeurs d'applications des services de grands modèles performants, faciles à utiliser et sécurisés, couvrant l'ensemble du processus, de la conception des grands modèles à leur déploiement en tant que service."
+ },
"internlm": {
"description": "Organisation open source dédiée à la recherche et au développement d'outils pour les grands modèles. Fournit à tous les développeurs d'IA une plateforme open source efficace et facile à utiliser, rendant les technologies de pointe en matière de grands modèles et d'algorithmes accessibles."
},
diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json
index ba01b70a98921..7b8f293fb7935 100644
--- a/locales/it-IT/models.json
+++ b/locales/it-IT/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 è progettato per il gioco di ruolo e la compagnia emotiva, supporta una memoria multi-turno ultra-lunga e dialoghi personalizzati, con ampie applicazioni."
},
+ "chatglm3": {
+ "description": "ChatGLM3 è un modello a sorgente chiusa sviluppato da Zhipu AI e dal laboratorio KEG di Tsinghua. Dopo un pre-addestramento su una vasta quantità di identificatori cinesi e inglesi e un addestramento allineato alle preferenze umane, rispetto alla prima generazione di modelli, ha ottenuto miglioramenti del 16%, 36% e 280% rispettivamente in MMLU, C-Eval e GSM8K, e ha raggiunto il vertice della classifica C-Eval per compiti in cinese. È adatto a scenari che richiedono un alto livello di conoscenza, capacità di ragionamento e creatività, come la stesura di testi pubblicitari, la scrittura di romanzi, la composizione di testi informativi e la generazione di codice."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base è il modello di base open source più recente della serie ChatGLM, sviluppato da Zhipu con una dimensione di 6 miliardi di parametri."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina una potente comprensione e generazione del linguaggio, adatta a scenari di applicazione su larga scala, inclusi servizi clienti, educazione e supporto tecnico."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite è un modello di linguaggio di grandi dimensioni leggero, con latenza estremamente bassa e capacità di elaborazione efficiente, completamente gratuito e aperto, supporta funzionalità di ricerca online in tempo reale. La sua caratteristica di risposta rapida lo rende eccellente per applicazioni di inferenza su dispositivi a bassa potenza e per il fine-tuning dei modelli, offrendo agli utenti un'ottima efficienza dei costi e un'esperienza intelligente, soprattutto nei contesti di domande e risposte, generazione di contenuti e ricerca."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 è una serie di modelli linguistici di grandi dimensioni (LLM) sviluppati e resi open source da Meta. Questa serie comprende modelli generativi di testo pre-addestrati e finetunati, con dimensioni che variano da 7 miliardi a 70 miliardi di parametri. Sul piano architettonico, Llama2 è un modello linguistico autoregressivo che utilizza un'architettura di trasformatore ottimizzata. Le versioni aggiornate utilizzano il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF) per allineare le preferenze di utilità e sicurezza umane. Llama2 supera Llama in diverse basi di dati accademiche, fornendo ispirazione per la progettazione e lo sviluppo di molti altri modelli."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B offre capacità di ragionamento AI più potenti, adatto per applicazioni complesse, supporta un'elaborazione computazionale elevata garantendo efficienza e precisione."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K è dotato di una grande capacità di elaborazione del contesto, con una comprensione del contesto e capacità di ragionamento logico superiori, supporta input testuali fino a 32K token, adatto per la lettura di documenti lunghi, domande e risposte su conoscenze private e altri scenari."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct è un modello di linguaggio grande completamente addestrato da Wuwen Xin Qiong. Megrez-3B-Instruct mira a creare una soluzione di intelligenza per dispositivi finali, rapida, compatta e facile da usare, attraverso il concetto di collaborazione hardware-software."
+ },
"meta-llama-3-70b-instruct": {
"description": "Un potente modello con 70 miliardi di parametri che eccelle nel ragionamento, nella codifica e nelle ampie applicazioni linguistiche."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Potente modello di codice di medie dimensioni, supporta una lunghezza di contesto di 32K, specializzato in programmazione multilingue."
},
+ "qwen1.5-14b-chat": {
+ "description": "La serie Qwen1.5 è la versione Beta di Qwen2, un modello linguistico decodificatore basato su Transformer, pre-addestrato su un vasto corpus di dati. Rispetto alle versioni precedenti della serie Qwen, la serie Qwen1.5 supporta diverse lingue sia nel modello base che in quello per chat, migliorando le prestazioni complessive sia nella conversazione che nelle capacità di base. Qwen1.5-14b-chat è il modello specifico per scenari di chat, con 14 miliardi di parametri, una dimensione mainstream."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "La serie Qwen1.5 è la versione Beta di Qwen2, un modello linguistico di solo decodifica basato su Transformer, pre-addestrato su un vasto corpus di dati. Rispetto alle versioni precedenti della serie Qwen, sia il modello base che il modello chat della serie Qwen1.5 supportano diverse lingue e hanno migliorato le prestazioni complessive in chat e le capacità di base. Qwen1.5-32b-chat è un modello di 32 miliardi di parametri specificamente progettato per scenari di chat, che offre prestazioni superiori nel contesto di agenti intelligenti rispetto al modello da 14 miliardi di parametri e ha un costo inferiore di inferenza rispetto al modello da 72 miliardi di parametri."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "La serie Qwen1.5 è la versione Beta di Qwen2, un modello linguistico di solo decodifica basato su Transformer, pre-addestrato su un vasto corpus di dati. Rispetto alle precedenti versioni della serie Qwen, la serie Qwen1.5 supporta diverse lingue sia nel modello base che in quello per chat, migliorando le prestazioni complessive sia nella conversazione che nelle capacità di base. Qwen1.5-72b-chat è il modello specifico per scenari di chat, con 72 miliardi di parametri."
+ },
"qwen2": {
"description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 è la nuova serie di modelli linguistici di grande dimensione sviluppata dal team Qwen. Si basa sull'architettura Transformer e utilizza funzioni di attivazione SwiGLU, bias QKV dell'attenzione, attenzione a query di gruppo, una combinazione di attenzione a finestra scorrevole e attenzione completa. Inoltre, il team Qwen ha migliorato il tokenizzatore per adattarlo a diverse lingue naturali e codici."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 è la nuova serie di modelli linguistici di grandi dimensioni presentata dal team Qwen. Si basa sull'architettura Transformer e utilizza funzioni di attivazione SwiGLU, bias QKV dell'attenzione (attention QKV bias), attenzione a query di gruppo (group query attention), una combinazione di attenzione a finestra scorrevole (sliding window attention) e attenzione completa. Inoltre, il team Qwen ha migliorato il tokenizzatore per adattarlo a diverse lingue naturali e codici."
+ },
"qwen2.5": {
"description": "Qwen2.5 è la nuova generazione di modelli linguistici su larga scala di Alibaba, che supporta esigenze applicative diversificate con prestazioni eccellenti."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 è un modello di linguaggio fornito da Microsoft AI, particolarmente efficace in dialoghi complessi, multilingue, ragionamento e assistenti intelligenti."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 è una versione aggiornata di Yi. Utilizza un corpus di alta qualità di 500B token per il pre-addestramento continuo di Yi e viene finetunato su 3M campioni di micro-tuning diversificati."
+ },
"yi-large": {
"description": "Un nuovo modello con centinaia di miliardi di parametri, offre capacità eccezionali di risposta e generazione di testi."
},
diff --git a/locales/it-IT/providers.json b/locales/it-IT/providers.json
index b2deb58b7d6a4..7a7ff861df896 100644
--- a/locales/it-IT/providers.json
+++ b/locales/it-IT/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "Un modello di linguaggio sviluppato da Tencent, dotato di potenti capacità di creazione in cinese, abilità di ragionamento logico in contesti complessi e capacità affidabili di esecuzione dei compiti."
},
+ "infiniai": {
+ "description": "Fornisce servizi di modelli di grande dimensione ad alta prestazione, facili da usare e sicuri per gli sviluppatori di applicazioni, coprendo l'intero processo dalla sviluppo dei modelli alla distribuzione dei servizi."
+ },
"internlm": {
"description": "Un'organizzazione open source dedicata alla ricerca e allo sviluppo di strumenti per modelli di grandi dimensioni. Fornisce a tutti gli sviluppatori di AI una piattaforma open source efficiente e facile da usare, rendendo le tecnologie e gli algoritmi all'avanguardia accessibili a tutti."
},
diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json
index 22ceb032a5ad6..98ae57736f71d 100644
--- a/locales/ja-JP/models.json
+++ b/locales/ja-JP/models.json
@@ -1,4 +1,5 @@
{
+ "0": "{",
"01-ai/Yi-1.5-34B-Chat-16K": {
"description": "Yi-1.5 34Bは豊富な訓練サンプルを用いて業界アプリケーションで優れたパフォーマンスを提供します。"
},
@@ -521,6 +522,12 @@
"charglm-3": {
"description": "CharGLM-3はキャラクター演技と感情的な伴侶のために設計されており、超長期の多段階記憶と個別化された対話をサポートし、幅広い用途に適しています。"
},
+ "chatglm3": {
+ "description": "ChatGLM3は、智譜AIと清華KEGラボが公開したクローズドソースモデルで、大量の中国語と英語の識別子の事前学習と人間の好みの調整学習を経ています。1世代目のモデルと比較して、MMLU、C-Eval、GSM8Kでそれぞれ16%、36%、280%の向上を達成し、中国語タスクランキングC-Evalで1位を獲得しました。知識量、推論能力、創造性が求められる場面、例えば広告文の作成、小説の執筆、知識系の執筆、コードの生成などに適しています。"
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base は、智譜が開発した ChatGLM シリーズの最新世代の 60 億パラメータのオープンソースの基本モデルです。"
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、常に最新のバージョンを維持します。強力な言語理解と生成能力を組み合わせており、顧客サービス、教育、技術サポートなどの大規模なアプリケーションシナリオに適しています。"
},
@@ -1196,6 +1203,9 @@
"max-32k": {
"description": "Spark Max 32Kは大規模なコンテキスト処理能力を備え、より強力なコンテキスト理解と論理推論能力を持ち、32Kトークンのテキスト入力をサポートします。長文書の読解やプライベートな知識問答などのシーンに適しています。"
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct は、無問芯穹が完全に自主的に訓練した大規模言語モデルです。Megrez-3B-Instruct は、ソフトウェアとハードウェアの協調理念に基づき、高速推論、小型で高性能、そして非常に使いやすいエッジ側のスマートソリューションを目指しています。"
+ },
"meta-llama-3-70b-instruct": {
"description": "推論、コーディング、広範な言語アプリケーションに優れた70億パラメータの強力なモデルです。"
},
@@ -1583,6 +1593,15 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "強力な中型コードモデルで、32Kのコンテキスト長をサポートし、多言語プログラミングに優れています。"
},
+ "qwen1.5-14b-chat": {
+ "description": "Qwen1.5 シリーズは Qwen2 のベータ版で、Transformer ベースのデコーダー専用言語モデルであり、大量のデータで事前学習されています。以前にリリースされた Qwen シリーズのバージョンと比較して、Qwen1.5 シリーズの base と chat モデルは複数の言語をサポートし、全体的なチャットと基本的な機能が向上しています。Qwen1.5-14b-chat は、チャット用途に特化した 140 億パラメータの主要なモデルです。"
+ },
+ "qwen1.5-32b-chat": {
+ "description": "Qwen1.5 シリーズは Qwen2 のベータ版で、Transformer ベースのデコーダー専用言語モデルであり、大量のデータで事前学習されています。以前にリリースされた Qwen シリーズのバージョンと比較して、Qwen1.5 シリーズの base と chat モデルは、複数の言語をサポートし、全体的なチャットと基本的な能力が向上しています。Qwen1.5-32b-chat は、チャット用途に特化した 320 億パラメータの大規模モデルで、14b モデルよりもエージェント用途で優れ、72b モデルよりも推論コストが低いです。"
+ },
+ "qwen1.5-72b-chat": {
+ "description": "Qwen1.5 シリーズは Qwen2 のベータ版で、Transformer ベースのデコーダー専用言語モデルであり、大量のデータで事前学習されています。以前にリリースされた Qwen シリーズのバージョンと比較して、Qwen1.5 シリーズの base と chat モデルは、複数の言語をサポートし、全体的なチャットと基本的な機能が向上しています。Qwen1.5-72b-chat は、チャット用途に特化した 720 億パラメータの大規模モデルです。"
+ },
"qwen2": {
"description": "Qwen2は、Alibabaの新世代大規模言語モデルであり、優れた性能で多様なアプリケーションニーズをサポートします。"
},
@@ -1763,6 +1782,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2は、Microsoft AIが提供する言語モデルであり、複雑な対話、多言語、推論、インテリジェントアシスタントの分野で特に優れた性能を発揮します。"
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5は、Yiのアップグレード版です。500Bトークンの高品質なコーパスを使用してYiの事前学習を継続し、3Mの多様なファインチューニングサンプルでファインチューニングを行います。"
+ },
"yi-large": {
"description": "新しい千億パラメータモデルであり、超強力な質問応答およびテキスト生成能力を提供します。"
},
diff --git a/locales/ja-JP/providers.json b/locales/ja-JP/providers.json
index 943c39a4e97b7..15c8b0b886a5b 100644
--- a/locales/ja-JP/providers.json
+++ b/locales/ja-JP/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "テンセントが開発した大規模言語モデルであり、強力な中国語の創作能力、複雑な文脈における論理的推論能力、そして信頼性の高いタスク実行能力を備えています。"
},
+ "infiniai": {
+ "description": "アプリケーション開発者向けに、高性能、使いやすさ、セキュリティを兼ね備えた大規模モデルサービスを提供し、大規模モデルの開発からサービス展開までの全プロセスをカバーします。"
+ },
"internlm": {
"description": "大規模モデルの研究と開発ツールチェーンに特化したオープンソース組織です。すべてのAI開発者に対して、高効率で使いやすいオープンプラットフォームを提供し、最先端の大規模モデルとアルゴリズム技術を身近に感じられるようにします。"
},
diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json
index df09f945809ff..bd372513a129e 100644
--- a/locales/ko-KR/models.json
+++ b/locales/ko-KR/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3는 역할 수행 및 감정 동반을 위해 설계된 모델로, 초장 다회 기억 및 개인화된 대화를 지원하여 광범위하게 사용됩니다."
},
+ "chatglm3": {
+ "description": "ChatGLM3는 지품 AI와 청화 KEG 연구실에서 발표한 폐원 모델로, 대량의 중영 식별자 사전 학습과 인간 선호도 맞춤 학습을 거쳤습니다. 1세대 모델에 비해 MMLU, C-Eval, GSM8K에서 각각 16%, 36%, 280%의 향상을 이루었으며, 중국어 작업 차트 C-Eval에서 1위를 차지했습니다. 이 모델은 지식량, 추론 능력, 창의력이 요구되는 상황, 예를 들어 광고 문안, 소설 작성, 지식 기반 작문, 코드 생성 등에 적합합니다."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base는 지푸에서 개발한 ChatGLM 시리즈의 최신 세대 60억 개 매개변수 규모의 오픈소스 기반 모델입니다."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o는 동적 모델로, 최신 버전을 유지하기 위해 실시간으로 업데이트됩니다. 강력한 언어 이해 및 생성 능력을 결합하여 고객 서비스, 교육 및 기술 지원을 포함한 대규모 응용 프로그램에 적합합니다."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite는 경량 대형 언어 모델로, 매우 낮은 지연 시간과 효율적인 처리 능력을 갖추고 있으며, 완전히 무료로 제공되고 실시간 온라인 검색 기능을 지원합니다. 빠른 응답 특성 덕분에 저전력 장치에서의 추론 응용 및 모델 미세 조정에서 뛰어난 성능을 발휘하며, 사용자에게 뛰어난 비용 효율성과 스마트한 경험을 제공합니다. 특히 지식 질문 응답, 콘텐츠 생성 및 검색 시나리오에서 두각을 나타냅니다."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2는 Meta에서 개발하고 오픈소스로 공개한 대형 언어 모델(LLM) 시리즈로, 70억에서 700억 개의 매개변수를 가진 다양한 규모의 사전 학습 및 미세 조정된 생성형 텍스트 모델입니다. 구조적으로 Llama2는 최적화된 트랜스포머 아키텍처를 사용하는 자동 회귀 언어 모델입니다. 조정된 버전은 감독된 미세 조정(SFT)과 인간 피드백을 활용한 강화 학습(RLHF)을 사용하여 인간의 유용성과 안전성 선호도에 맞춥니다. Llama2는 Llama 시리즈보다 다양한 학술 데이터셋에서 더욱 뛰어난 성능을 보여주며, 많은 다른 모델의 설계와 개발에 영감을 주고 있습니다."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B는 더 강력한 AI 추론 능력을 제공하며, 복잡한 응용 프로그램에 적합하고, 많은 계산 처리를 지원하며 효율성과 정확성을 보장합니다."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K는 큰 컨텍스트 처리 능력을 갖추고 있으며, 더 강력한 컨텍스트 이해 및 논리 추론 능력을 지원합니다. 32K 토큰의 텍스트 입력을 지원하며, 긴 문서 읽기, 개인 지식 질문 응답 등 다양한 시나리오에 적합합니다."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct는 무문심궁이 완전히 독립적으로 훈련한 대형 언어 모델입니다. Megrez-3B-Instruct는 소프트웨어와 하드웨어의 협동 개념을 통해 빠른 추론, 컴팩트하고 강력하며 사용하기 쉬운 엣지 측 인텔리전스 솔루션을 제공하는 것을 목표로 합니다."
+ },
"meta-llama-3-70b-instruct": {
"description": "추론, 코딩 및 광범위한 언어 응용 프로그램에서 뛰어난 성능을 발휘하는 강력한 70억 매개변수 모델입니다."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "32K 컨텍스트 길이를 지원하는 강력한 중형 코드 모델로, 다국어 프로그래밍에 능숙합니다."
},
+ "qwen1.5-14b-chat": {
+ "description": "Qwen1.5 시리즈는 Qwen2의 베타 버전으로, 트랜스포머 기반의 디코더 전용 언어 모델로 대규모 데이터에서 사전 학습되었습니다. 이전에 출시된 Qwen 시리즈 버전과 비교하여, Qwen1.5 시리즈의 base 및 chat 모델은 여러 언어를 지원하며, 전체 대화 및 기본 기능이 향상되었습니다. Qwen1.5-14b-chat은 140억 개의 매개변수를 가진 채팅 전용 주요 모델입니다."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "Qwen1.5 시리즈는 Qwen2의 베타 버전으로, 트랜스포머 기반의 디코더 전용 언어 모델로 대규모 데이터에서 사전 학습되었습니다. 이전에 출시된 Qwen 시리즈 버전과 비교하여, Qwen1.5 시리즈의 base 및 chat 모델은 여러 언어를 지원하며, 전체적인 대화와 기본 기능이 향상되었습니다. Qwen1.5-32b-chat은 320억 개의 매개변수를 가진 채팅 전용 대형 모델로, 14b 모델보다는 스마트 에이전트 시나리오에서 더 강하고, 72b 모델보다는 추론 비용이 낮습니다."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "Qwen1.5 시리즈는 Qwen2의 베타 버전으로, 트랜스포머 기반의 디코더 전용 언어 모델로 대규모 데이터에서 사전 학습되었습니다. 이전에 출시된 Qwen 시리즈 버전과 비교하여, Qwen1.5 시리즈의 base 및 chat 모델은 여러 언어를 지원하며, 전체적인 대화와 기본 기능이 향상되었습니다. Qwen1.5-72b-chat은 720억 개의 매개변수를 가진 채팅 전용 대형 모델입니다."
+ },
"qwen2": {
"description": "Qwen2는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2는 Qwen 팀이 출시한 새로운 대형 언어 모델 시리즈입니다. 이 모델은 Transformer 아키텍처를 기반으로 하며, SwiGLU 활성화 함수, 주의 QKV 편향(attention QKV bias), 그룹 쿼리 주의(group query attention), 슬라이딩 윈도우 주의와 전체 주의의 혼합(mixture of sliding window attention and full attention) 등의 기술을 채택하고 있습니다. 또한, Qwen 팀은 다양한 자연어와 코드에 적합한 토크나이저를 개선했습니다."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2는 Qwen 팀이 출시한 새로운 대형 언어 모델 시리즈입니다. 이 모델은 Transformer 아키텍처를 기반으로 하며, SwiGLU 활성화 함수, 주의 QKV 편향(attention QKV bias), 그룹 쿼리 주의(group query attention), 슬라이딩 윈도우 주의와 전체 주의의 혼합(mixture of sliding window attention and full attention) 등의 기술을 채택하고 있습니다. 또한, Qwen 팀은 다양한 자연어와 코드에 적합한 토크나이저를 개선했습니다."
+ },
"qwen2.5": {
"description": "Qwen2.5는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2는 Microsoft AI에서 제공하는 언어 모델로, 복잡한 대화, 다국어, 추론 및 스마트 어시스턴트 분야에서 특히 뛰어난 성능을 발휘합니다."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5는 Yi의 업그레이드 버전입니다. 500B 토큰의 고품질 데이터셋을 사용하여 Yi를 추가로 사전 학습시키고, 3M개의 다양한 미세 조정 샘플을 사용하여 미세 조정되었습니다."
+ },
"yi-large": {
"description": "새로운 1000억 매개변수 모델로, 강력한 질문 응답 및 텍스트 생성 능력을 제공합니다."
},
diff --git a/locales/ko-KR/providers.json b/locales/ko-KR/providers.json
index 2ea69de14af70..9bf44cf6e2eb7 100644
--- a/locales/ko-KR/providers.json
+++ b/locales/ko-KR/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "텐센트가 개발한 대형 언어 모델로, 강력한 한국어 창작 능력과 복잡한 맥락에서의 논리적 추론 능력, 그리고 신뢰할 수 있는 작업 수행 능력을 갖추고 있습니다."
},
+ "infiniai": {
+ "description": "애플리케이션 개발자에게 고성능, 사용하기 쉬운, 안전하고 신뢰할 수 있는 대형 모델 서비스를 제공하며, 대형 모델 개발부터 서비스 배포까지의 전체 프로세스를 지원합니다."
+ },
"internlm": {
"description": "대규모 모델 연구 및 개발 도구 체인에 전념하는 오픈 소스 조직입니다. 모든 AI 개발자에게 효율적이고 사용하기 쉬운 오픈 소스 플랫폼을 제공하여 최첨단 대규모 모델 및 알고리즘 기술을 손쉽게 이용할 수 있도록 합니다."
},
diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json
index 1ab60866431d9..56a82efb936b2 100644
--- a/locales/nl-NL/models.json
+++ b/locales/nl-NL/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 is ontworpen voor rollenspellen en emotionele begeleiding, ondersteunt zeer lange meerdaagse herinneringen en gepersonaliseerde gesprekken, met brede toepassingen."
},
+ "chatglm3": {
+ "description": "ChatGLM3 is een gesloten bronmodel dat is uitgebracht door Zhipu AI en de KEG-laboratorium van Tsinghua-universiteit. Het is voorafgetraind met een enorme hoeveelheid Chinese en Engelse identificatoren en getraind om in overeenstemming te zijn met menselijke voorkeuren. In vergelijking met het eerste model, heeft het verbeteringen van respectievelijk 16%, 36% en 280% behaald op MMLU, C-Eval en GSM8K, en staat het bovendruk op de Chinese taaklijst C-Eval. Het is geschikt voor scenario's met hoge eisen aan kennis, redeneringsvermogen en creativiteit, zoals het schrijven van advertentieteksten, romans, kennisgerelateerde teksten en codegeneratie."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base is een open source basismodel van de nieuwste generatie van de ChatGLM-reeks, ontwikkeld door ZhiPu, met een schaal van 6 miljard parameters."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt om de meest actuele versie te behouden. Het combineert krachtige taalbegrip- en generatiecapaciteiten, geschikt voor grootschalige toepassingsscenario's, waaronder klantenservice, onderwijs en technische ondersteuning."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite is een lichtgewicht groot taalmodel met extreem lage latentie en efficiënte verwerkingscapaciteit. Het is volledig gratis en open, en ondersteunt realtime online zoekfunctionaliteit. De snelle respons maakt het uitermate geschikt voor inferentie op apparaten met lage rekenkracht en modelafstemming, wat gebruikers uitstekende kosteneffectiviteit en een slimme ervaring biedt, vooral in kennisvragen, contentgeneratie en zoekscenario's."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 is een reeks grote taalmodellen (LLM's) ontwikkeld en open-gebruik gemaakt door Meta. Deze reeks omvat generatieve tekstmodellen met verschillende groottes, variërend van 7 miljard tot 70 miljard parameters, die zijn voorgetraind en fijn afgesteld. Op architectuurniveau is Llama2 een automatisch regressief taalmodel dat gebruik maakt van een geoptimaliseerde transformer-architectuur. Aangepaste versies maken gebruik van toezichtsfijnafstelling (SFT) en versterkingsleren met menselijke feedback (RLHF) om de voorkeuren van mensen met betrekking tot nuttigheid en veiligheid te aligneren. Llama2 presteert opmerkelijk goed op verschillende academische datasets en biedt inspiratie voor de ontwerp- en ontwikkeling van veel andere modellen."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B biedt krachtigere AI-inferentiecapaciteiten, geschikt voor complexe toepassingen, ondersteunt een enorme rekenverwerking en garandeert efficiëntie en nauwkeurigheid."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K is uitgerust met een grote contextverwerkingscapaciteit, met verbeterd begrip van context en logische redeneervaardigheden. Het ondersteunt tekstinvoer van 32K tokens en is geschikt voor het lezen van lange documenten, privé kennisvragen en andere scenario's."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct is een grote taalmodel dat volledig zelf is getraind door Wúwèn Xīnqióng. Megrez-3B-Instruct is ontworpen om middels de concepten van zowel hardware als software, een oplossing te bieden die snelle inferentie, compact en krachtig is, en gemakkelijk in gebruik is voor edge-applicaties."
+ },
"meta-llama-3-70b-instruct": {
"description": "Een krachtig model met 70 miljard parameters dat uitblinkt in redeneren, coderen en brede taaltoepassingen."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Krachtig middelgroot codeermodel, ondersteunt 32K contextlengte, gespecialiseerd in meertalige programmering."
},
+ "qwen1.5-14b-chat": {
+ "description": "Qwen1.5 is de beta-versie van Qwen2, een op Transformer gebaseerd decoder-only taalmodel dat is voorgetraind op een enorme hoeveelheid data. Ten opzichte van eerdere Qwen-versies ondersteunen de Qwen1.5 base- en chatmodellen meerdere talen en zijn er verbeteringen doorgevoerd in de algemene chat- en basisvaardigheden. Qwen1.5-14b-chat is een 14 miljard parameters tellend model dat speciaal is ontwikkeld voor chat-scenario's."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "Qwen1.5 is de beta-versie van Qwen2, een op Transformer gebaseerd decoder-only taalmodel dat is voorgetraind op een enorme hoeveelheid data. Ten opzichte van eerdere Qwen-versies ondersteunen de Qwen1.5 base- en chatmodellen meertaligheid en zijn er verbeteringen doorgevoerd in de algemene chat- en basisvaardigheden. Qwen1.5-32b-chat is een 320 miljard parameters groot model dat speciaal is ontwikkeld voor chat-scenario's. Het is sterker in agent-scenario's dan het 14b-model en heeft lagere inferentiekosten dan het 72b-model."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "De Qwen1.5-serie is een beta-versie van Qwen2, een op Transformer gebaseerd decoder-only taalmodel dat is voorgetraind op een enorme hoeveelheid data. Ten opzichte van eerdere versies van de Qwen-serie, ondersteunen de Qwen1.5 base- en chatmodellen meertaligheid en zijn er verbeteringen doorgevoerd in de algemene chat- en basisvaardigheden. Qwen1.5-72b-chat is een specifiek voor chat-gebruik ontworpen model met 72 miljard parameters."
+ },
"qwen2": {
"description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 is een nieuwe generatie van grote taalmodellen die is ontwikkeld door het Qwen-team. Het is gebaseerd op de Transformer-architectuur en maakt gebruik van SwiGLU-activatiefuncties, aandacht-QKV-bias, groepsquery-aandacht, een mix van schuifraam-aandacht en volledige aandacht, en andere technieken. Bovendien heeft het Qwen-team de tokenizer verbeterd om aan te passen aan meerdere natuurlijke talen en code."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 is een nieuwe generatie van grote taalmodellen die is ontwikkeld door het Qwen-team. Het is gebaseerd op de Transformer-architectuur en maakt gebruik van technieken zoals de SwiGLU-activatiefunctie, aandacht QKV-bias, groepsquery-aandacht, een mengsel van schuifraam-aandacht en volledige aandacht. Bovendien heeft het Qwen-team de tokenizer verbeterd om aan verschillende natuurlijke talen en code te kunnen wennen."
+ },
"qwen2.5": {
"description": "Qwen2.5 is de nieuwe generatie grootschalig taalmodel van Alibaba, dat uitstekende prestaties levert ter ondersteuning van diverse toepassingsbehoeften."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe gesprekken, meertaligheid, inferentie en intelligente assistentie."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 is een geüpgradeerde versie van Yi. Het wordt voortdurend voorgetraind met een hoge-kwaliteitscorpus van 500B tokens op basis van Yi, en fijn afgesteld op 3M diverse fijnafstemmingssamples."
+ },
"yi-large": {
"description": "Een nieuw model met honderden miljarden parameters, biedt superieure vraag- en tekstgeneratiecapaciteiten."
},
diff --git a/locales/nl-NL/providers.json b/locales/nl-NL/providers.json
index 9245de0be37e0..df9d489c98d81 100644
--- a/locales/nl-NL/providers.json
+++ b/locales/nl-NL/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "Een door Tencent ontwikkeld groot taalmodel, dat beschikt over krachtige Chinese creatiecapaciteiten, logische redeneervaardigheden in complexe contexten, en betrouwbare taakuitvoeringscapaciteiten."
},
+ "infiniai": {
+ "description": "Hoogwaardige, gebruiksvriendelijke en veilige grote modelservices voor app-ontwikkelaars, die de hele processtroom van het ontwikkelen tot het implementeren van grote modellen dekken."
+ },
"internlm": {
"description": "Een open-source organisatie die zich richt op onderzoek en ontwikkeling van tools voor grote modellen. Biedt een efficiënt en gebruiksvriendelijk open-source platform voor alle AI-ontwikkelaars, zodat de meest geavanceerde modellen en algoritmische technologieën binnen handbereik zijn."
},
diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json
index f5ef0d58e603f..dfb6a1db157be 100644
--- a/locales/pl-PL/models.json
+++ b/locales/pl-PL/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 zaprojektowany z myślą o odgrywaniu ról i emocjonalnym towarzyszeniu, obsługujący ultra-długą pamięć wielokrotną i spersonalizowane dialogi, z szerokim zakresem zastosowań."
},
+ "chatglm3": {
+ "description": "ChatGLM3 to zamknięty model opracowany przez AI ZhiPu i KEG Laboratorium z Politechniki Tsinghua, który przeszedł wstępne treningi na ogromnej liczbie identyfikatorów chińskich i angielskich oraz trening zgodności z preferencjami ludzkimi. W porównaniu do pierwszej generacji modelu, ChatGLM3 osiągnął poprawę o 16%, 36% i 280% w testach MMLU, C-Eval i GSM8K, oraz zajął pierwsze miejsce na liście chińskich zadań C-Eval. Jest odpowiedni do zastosowań, które wymagają wysokiej wiedzy, zdolności wnioskowania i kreatywności, takich jak tworzenie tekstów reklamowych, pisarstwo powieści, pisarstwo naukowe i generowanie kodu."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base to najnowszy model z serii ChatGLM opracowany przez ZhiPu, o skali 6 miliardów parametrów, dostępny jako oprogramowanie open source."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, co czyni go odpowiednim do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite to lekki model językowy o dużej skali, charakteryzujący się niezwykle niskim opóźnieniem i wysoką wydajnością przetwarzania, całkowicie darmowy i otwarty, wspierający funkcje wyszukiwania w czasie rzeczywistym. Jego cechy szybkiej reakcji sprawiają, że doskonale sprawdza się w zastosowaniach inferencyjnych na urządzeniach o niskiej mocy obliczeniowej oraz w dostosowywaniu modeli, oferując użytkownikom znakomity stosunek kosztów do korzyści oraz inteligentne doświadczenie, szczególnie w kontekście pytań i odpowiedzi, generowania treści oraz wyszukiwania."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 to seria modeli językowych (LLM) opracowanych i udostępnionych przez Meta, obejmująca modele generujące tekst o różnej skali, od 7 miliardów do 70 miliardów parametrów, które przeszły wstępną naukę i dostrajanie. Na poziomie architektury, Llama2 jest modelem językowym optymalizowanym za pomocą architektury transformerowej. Zdolność do dostosowywania modeli do preferencji ludzi pod względem użyteczności i bezpieczeństwa została osiągnięta poprzez nadzorowane dostrajanie (SFT) i uczenie wzmacnianie z uwzględnieniem opinii ludzi (RLHF). Llama2 osiąga lepsze wyniki niż poprzednia seria Llama na wielu zbiorach danych akademickich, co dostarcza inspiracji dla projektowania i tworzenia wielu innych modeli."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B oferuje potężne możliwości wnioskowania AI, odpowiednie do złożonych zastosowań, wspierające ogromne przetwarzanie obliczeniowe przy zachowaniu efektywności i dokładności."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K jest wyposażony w dużą zdolność przetwarzania kontekstu, oferując silniejsze zrozumienie kontekstu i zdolności logicznego wnioskowania, obsługując teksty o długości do 32K tokenów, co czyni go odpowiednim do czytania długich dokumentów, prywatnych pytań i odpowiedzi oraz innych scenariuszy."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct to model językowy duży skali, w pełni samodzielnie wytrenowany przez Qwen. Megrez-3B-Instruct ma na celu stworzenie szybkiego, kompaktowego i łatwego w użyciu rozwiązania inteligentnego na urządzeniach klienckich, opartego na koncepcji integracji oprogramowania i sprzętu."
+ },
"meta-llama-3-70b-instruct": {
"description": "Potężny model z 70 miliardami parametrów, doskonały w rozumowaniu, kodowaniu i szerokich zastosowaniach językowych."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Potężny średniej wielkości model kodu, wspierający długość kontekstu 32K, specjalizujący się w programowaniu wielojęzycznym."
},
+ "qwen1.5-14b-chat": {
+ "description": "Seria Qwen1.5 to wersja Beta Qwen2, która jest modelem językowym opartym na Transformer, działającym tylko w trybie dekodowania i wytrenowanym na ogromnej ilości danych. W porównaniu z wcześniejszymi wersjami serii Qwen, modele base i chat serii Qwen1.5 obsługują wiele języków i zyskały na zdolnościach podstawowych oraz rozmowowych. Qwen1.5-14b-chat to specjalnie zaprojektowany model do zastosowań rozmowowych, posiadający 14 miliardów parametrów, co jest rozmiarem powszechnie stosowanym w branży."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "Seria Qwen1.5 to wersja Beta Qwen2, oparta na modelu językowym Transformer, który jest modelu dekodującego, przeszkolonego na ogromnej ilości danych. W porównaniu do wcześniejszych wersji serii Qwen, modele base i chat serii Qwen1.5 obsługują wiele języków i oferują poprawioną jakość rozmów i podstawowe umiejętności. Qwen1.5-32b-chat to specjalnie zaprojektowany model do zastosowań czatowych, posiadający 32 miliardy parametrów. W porównaniu do modelu 14b, jest lepszy w scenariuszach agentów inteligentnych, a w porównaniu do modelu 72b, ma niższe koszty wnioskowania."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "Seria Qwen1.5 to wersja Beta Qwen2, która jest modelem językowym opartym na Transformer, działającym tylko w trybie dekodowania, wytrenowanym na ogromnej ilości danych. W porównaniu z wcześniejszymi wersjami serii Qwen, modele base i chat serii Qwen1.5 obsługują wiele języków i zyskały na zdolnościach podstawowych oraz rozmowowych. Qwen1.5-72b-chat to specjalnie zaprojektowany model do zastosowań rozmowowych, posiadający 72 miliardy parametrów."
+ },
"qwen2": {
"description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 to nowa generacja modeli językowych stworzona przez zespół Qwen. Opiera się na architekturze Transformer i wykorzystuje funkcję aktywacji SwiGLU, obciążenie QKV uwagi (attention QKV bias), grupowe zapytanie uwagi (group query attention), mieszankę uwagi z oknem przesuwnym (mixture of sliding window attention) i pełną uwagą. Ponadto, zespół Qwen wprowadził ulepszony tokenizator dostosowany do wielu języków naturalnych i kodu."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 to nowa seria modeli językowych stworzona przez zespół Qwen. Opiera się na architekturze Transformer i wykorzystuje funkcję aktywacji SwiGLU, obciążenie QKV uwagi (attention QKV bias), grupowe zapytanie uwagi (group query attention), mieszankę uwagi okna suwającego się (mixture of sliding window attention) i pełnej uwagi. Ponadto, zespół Qwen wprowadził ulepszone tokenizery dostosowane do wielu języków naturalnych i kodu."
+ },
"qwen2.5": {
"description": "Qwen2.5 to nowa generacja dużego modelu językowego Alibaba, który wspiera różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 to model językowy dostarczany przez Microsoft AI, który wyróżnia się w złożonych dialogach, wielojęzyczności, wnioskowaniu i inteligentnych asystentach."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 to ulepszona wersja Yi. Używa ona wysokiej jakości korpusu danych o rozmiarze 500B tokenów do dalszego wstępnego treningu Yi, a także do dopasowywania na 3M różnorodnych próbkach dopasowujących."
+ },
"yi-large": {
"description": "Nowy model z miliardami parametrów, oferujący niezwykłe możliwości w zakresie pytań i generowania tekstu."
},
diff --git a/locales/pl-PL/providers.json b/locales/pl-PL/providers.json
index 233bce01a040c..bc15def9ac614 100644
--- a/locales/pl-PL/providers.json
+++ b/locales/pl-PL/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "Model językowy opracowany przez Tencent, który posiada potężne zdolności twórcze w języku chińskim, umiejętność logicznego wnioskowania w złożonych kontekstach oraz niezawodne zdolności wykonawcze w zadaniach."
},
+ "infiniai": {
+ "description": "Dostarczanie usług wysokiej wydajności, łatwych w użyciu i bezpiecznych modeli dużych, obejmujących cały proces od opracowywania modeli do wdrożenia usług opartych na modelach dużych."
+ },
"internlm": {
"description": "Organizacja open source poświęcona badaniom i rozwojowi narzędzi dla dużych modeli. Oferuje wszystkim deweloperom AI wydajną i łatwą w użyciu platformę open source, umożliwiającą dostęp do najnowocześniejszych technologii modeli i algorytmów."
},
diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json
index 8c2161e380d0c..2845a0317cc23 100644
--- a/locales/pt-BR/models.json
+++ b/locales/pt-BR/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "O CharGLM-3 é projetado para interpretação de personagens e companhia emocional, suportando memória de múltiplas rodadas e diálogos personalizados, com ampla aplicação."
},
+ "chatglm3": {
+ "description": "ChatGLM3 é um modelo de código fechado desenvolvido pela AI Zhipu em colaboração com o laboratório KEG da Tsinghua. Após um pré-treinamento extenso com identificadores em chinês e inglês, e um alinhamento com as preferências humanas, o modelo apresenta melhorias de 16%, 36% e 280% em MMLU, C-Eval e GSM8K, respectivamente, em comparação com a primeira geração. Ele lidera o ranking de tarefas em chinês C-Eval. É ideal para cenários que exigem alto nível de conhecimento, capacidade de raciocínio e criatividade, como redação de textos publicitários, escrita de romances, redação de conteúdo informativo e geração de código."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base é o modelo base de 6 bilhões de parâmetros da mais recente geração da série ChatGLM, desenvolvida pela Zhípǔ."
+ },
"chatgpt-4o-latest": {
"description": "O ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite é um modelo de linguagem grande leve, com latência extremamente baixa e alta eficiência de processamento, totalmente gratuito e aberto, suportando funcionalidades de busca online em tempo real. Sua característica de resposta rápida o torna excelente para aplicações de inferência em dispositivos de baixo poder computacional e ajuste fino de modelos, proporcionando aos usuários uma excelente relação custo-benefício e experiência inteligente, especialmente em cenários de perguntas e respostas, geração de conteúdo e busca."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 é uma série de modelos de linguagem grandes (LLM) desenvolvidos e open source pela Meta, que inclui modelos de texto gerativo pré-treinados e finetunados com escalas variando de 7 bilhões a 70 bilhões de parâmetros. Do ponto de vista arquitetural, o Llama2 é um modelo de linguagem autoregressivo que utiliza uma arquitetura de transformador otimizada. As versões ajustadas utilizam micro-treinamento supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para alinhar as preferências de utilidade e segurança humanas. O Llama2 apresenta um desempenho notável em vários conjuntos de dados acadêmicos, fornecendo inspiração para o design e desenvolvimento de muitos outros modelos."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B oferece capacidade de raciocínio AI mais poderosa, adequada para aplicações complexas, suportando um processamento computacional extenso e garantindo eficiência e precisão."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K possui uma capacidade de processamento de contexto grande, com melhor compreensão de contexto e capacidade de raciocínio lógico, suportando entradas de texto de 32K tokens, adequado para leitura de documentos longos, perguntas e respostas de conhecimento privado e outros cenários."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct é um modelo de linguagem grande treinado de forma totalmente autônoma pela Wúwèn Xīnqióng. O Megrez-3B-Instruct visa criar uma solução de inteligência de borda rápida, compacta e fácil de usar, através do conceito de integração de hardware e software."
+ },
"meta-llama-3-70b-instruct": {
"description": "Um poderoso modelo com 70 bilhões de parâmetros, destacando-se em raciocínio, codificação e amplas aplicações linguísticas."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Modelo de código de médio porte poderoso, suporta comprimento de contexto de 32K, especializado em programação multilíngue."
},
+ "qwen1.5-14b-chat": {
+ "description": "A série Qwen1.5 é a versão Beta do Qwen2, um modelo de linguagem de decodificação exclusiva baseado em Transformer, pré-treinado em uma grande quantidade de dados. Comparado com as versões anteriores da série Qwen, a série Qwen1.5 suporta múltiplos idiomas tanto no modelo base quanto no modelo de chat, apresentando melhorias significativas em conversas gerais e em habilidades básicas. O Qwen1.5-14b-chat é um modelo de 14 bilhões de parâmetros, de tamanho mainstream, dedicado a cenários de chat."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "A série Qwen1.5 é a versão Beta do Qwen2, um modelo de linguagem de decodificação baseado em Transformer, pré-treinado em uma grande quantidade de dados. Comparado com as versões anteriores da série Qwen, a série Qwen1.5, tanto o modelo base quanto o modelo de chat, suporta múltiplos idiomas e apresenta melhorias tanto na conversação geral quanto nas habilidades básicas. O Qwen1.5-32b-chat é um modelo grande de 32 bilhões de parâmetros, especificamente projetado para cenários de chat, sendo mais forte em cenários de agentes inteligentes do que o modelo de 14 bilhões de parâmetros e com um custo de inferência menor do que o modelo de 72 bilhões de parâmetros."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "A série Qwen1.5 é a versão Beta do Qwen2, um modelo de linguagem de decodificação baseado em Transformer, pré-treinado em uma vasta quantidade de dados. Comparado com as versões anteriores da série Qwen, os modelos base e de chat da série Qwen1.5 suportam múltiplos idiomas e apresentam melhorias tanto na conversação geral quanto nas habilidades básicas. O Qwen1.5-72b-chat é um modelo grande de 72 bilhões de parâmetros, especificamente destinado a cenários de chat."
+ },
"qwen2": {
"description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 é a nova série de modelos de linguagem grandes desenvolvida pela equipe Qwen. Baseia-se na arquitetura Transformer e utiliza funções de ativação SwiGLU, vieses de atenção QKV (attention QKV bias), atenção de consulta em grupo (group query attention), uma mistura de atenção de janela deslizante (mixture of sliding window attention) e atenção completa. Além disso, a equipe Qwen também aprimorou o tokenizador para adaptar-se a múltiplas línguas naturais e códigos."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 é uma nova série de modelos de linguagem grandes desenvolvida pela equipe Qwen. Baseia-se na arquitetura Transformer e utiliza funções de ativação SwiGLU, viés de atenção QKV (attention QKV bias), atenção de consulta em grupo (group query attention), uma mistura de atenção de janela deslizante e atenção completa (mixture of sliding window attention and full attention). Além disso, a equipe Qwen também aprimorou o tokenizador para adaptar-se a várias línguas naturais e códigos."
+ },
"qwen2.5": {
"description": "Qwen2.5 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, destacando-se em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 é uma versão aprimorada do Yi. Ele usa um corpus de alta qualidade com 500B tokens para continuar o pré-treinamento do Yi e é refinado com 3M amostras de ajuste fino diversificadas."
+ },
"yi-large": {
"description": "Modelo de nova geração com trilhões de parâmetros, oferecendo capacidades excepcionais de perguntas e respostas e geração de texto."
},
diff --git a/locales/pt-BR/providers.json b/locales/pt-BR/providers.json
index 368526dedb061..240172d1d6e14 100644
--- a/locales/pt-BR/providers.json
+++ b/locales/pt-BR/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "Um modelo de linguagem desenvolvido pela Tencent, com forte capacidade de criação em chinês, habilidade de raciocínio lógico em contextos complexos e capacidade confiável de execução de tarefas."
},
+ "infiniai": {
+ "description": "Fornecendo serviços de grandes modelos de alto desempenho, fáceis de usar e seguros para desenvolvedores de aplicativos, abrangendo todo o processo, desde o desenvolvimento de grandes modelos até a implantação de serviços de grandes modelos."
+ },
"internlm": {
"description": "Uma organização de código aberto dedicada à pesquisa e desenvolvimento de ferramentas para grandes modelos. Oferece uma plataforma de código aberto eficiente e fácil de usar para todos os desenvolvedores de IA, tornando as tecnologias e algoritmos de ponta acessíveis."
},
diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json
index 7d06147f176d1..8f9532397fd96 100644
--- a/locales/ru-RU/models.json
+++ b/locales/ru-RU/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 разработан для ролевых игр и эмоционального сопровождения, поддерживает сверхдлинную многократную память и персонализированные диалоги, имеет широкое применение."
},
+ "chatglm3": {
+ "description": "ChatGLM3 — это закрытая модель, разработанная AI-лабораторией Tsinghua KEG и Zhipu AI. Она прошла предварительное обучение на огромном количестве китайских и английских данных и обучение на основе предпочтений человека. По сравнению с первой версией модели, она показала улучшение на 16%, 36% и 280% в тестах MMLU, C-Eval и GSM8K соответственно, и заняла первое место в китайском рейтинге задач C-Eval. Эта модель подходит для сценариев, требующих высокого уровня знаний, способности к рассуждению и креативности, таких как создание рекламных текстов, написание романов, научной письменности и генерации кода."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base — это базовая модель с открытым исходным кодом последнего поколения серии ChatGLM, разработанная компанией Zhipu, с 6 миллиардами параметров."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функции онлайн-поиска в реальном времени. Ее быстрая реакция делает ее отличным выбором для применения в устройствах с низкой вычислительной мощностью и для тонкой настройки моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в сценариях вопросов и ответов, генерации контента и поиска."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 — это серия больших языковых моделей (LLM), разработанных и открытых для использования компанией Meta. Это набор предобученных и дообученных генеративных текстовых моделей, размер которых варьируется от 7 до 70 миллиардов параметров. С архитектурной точки зрения, Llama2 представляет собой автогрессивную языковую модель, использующую оптимизированную трансформерную архитектуру. Настроенные версии используют надзорное дообучение (SFT) и обучение с подкреплением на основе обратной связи от человека (RLHF) для согласования с предпочтениями человека в отношении полезности и безопасности. Llama2 показывает лучшие результаты на различных академических наборах данных по сравнению с предыдущими моделями серии Llama, что предоставляет ценные идеи для дизайна и разработки других моделей."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B предлагает более мощные возможности ИИ вывода, подходит для сложных приложений, поддерживает огромное количество вычислительных процессов и гарантирует эффективность и точность."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K обладает большой способностью обработки контекста, улучшенным пониманием контекста и логическим выводом, поддерживает текстовый ввод до 32K токенов, подходит для чтения длинных документов, частных вопросов и ответов и других сценариев."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct — это крупномасштабная языковая модель, полностью обученная компанией Wuxin Xin Qiong. Megrez-3B-Instruct разработана с использованием концепции совместной оптимизации аппаратного и программного обеспечения, чтобы создать быстрое, компактное и легкое в использовании решение для интеллектуальных задач на стороне устройства."
+ },
"meta-llama-3-70b-instruct": {
"description": "Мощная модель с 70 миллиардами параметров, превосходящая в области рассуждений, кодирования и широких языковых приложений."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Мощная средняя модель кода, поддерживающая контекст длиной 32K, специализирующаяся на многоязычном программировании."
},
+ "qwen1.5-14b-chat": {
+ "description": "Qwen1.5 — это бета-версия Qwen2, основанная на архитектуре Transformer, которая является моделью только для декодирования, предобученной на огромном объеме данных. По сравнению с ранее выпущенными версиями Qwen, модели Qwen1.5 base и chat поддерживают несколько языков и демонстрируют улучшенные возможности в общении и базовых задачах. Qwen1.5-14b-chat — это специализированная модель для чат-сценариев с 14 миллиардами параметров, что является стандартным размером для таких моделей."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "Qwen1.5 — это бета-версия Qwen2, основанная на архитектуре Transformer, которая является моделью только для декодирования, предобученной на огромном объеме данных. По сравнению с ранее выпущенными версиями Qwen, модели base и chat в серии Qwen1.5 поддерживают несколько языков и демонстрируют улучшенные возможности в общении и базовых навыках. Qwen1.5-32b-chat — это специализированная модель для чат-сценариев с 32 миллиардами параметров, которая превосходит 14-миллиардную модель в сценариях с агентами и имеет более низкую стоимость вычислений по сравнению с 72-миллиардной моделью."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "Qwen1.5 — это бета-версия Qwen2, основанная на архитектуре Transformer, которая является моделью только для декодирования, предобученной на огромном объеме данных. По сравнению с ранее выпущенными версиями Qwen, модели base и chat в серии Qwen1.5 поддерживают несколько языков и демонстрируют улучшения в общении и базовых возможностях. Qwen1.5-72b-chat — это специализированная модель для чат-сценариев с 72 миллиардами параметров."
+ },
"qwen2": {
"description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 — это новая серия больших языковых моделей, разработанная командой Qwen. Она основана на архитектуре Transformer и использует такие технологии, как функция активации SwiGLU, смещение QKV внимания (attention QKV bias), групповой запрос внимания (group query attention), смесь скользящего окна внимания (mixture of sliding window attention) и полное внимание. Кроме того, команда Qwen улучшила токенизатор, адаптированный для обработки различных естественных языков и кода."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 — это новая серия больших языковых моделей, разработанная командой Qwen. Она основана на архитектуре Transformer и использует такие технологии, как функция активации SwiGLU, смещение QKV внимания (attention QKV bias), групповой запрос внимания (group query attention), смесь скользящего окна внимания (mixture of sliding window attention) и полное внимание. Кроме того, команда Qwen улучшила токенизатор, адаптированный для обработки различных естественных языков и кода."
+ },
"qwen2.5": {
"description": "Qwen2.5 — это новое поколение масштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных потребностей приложений."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 — это языковая модель, предоставляемая Microsoft AI, которая особенно хорошо проявляет себя в сложных диалогах, многоязычных задачах, выводе и интеллектуальных помощниках."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 — это обновленная версия Yi. Она использует 500B токенов высококачественного корпуса данных для продолжения предварительной тренировки на основе Yi и微调在3M个多样化的微调样本上。"
+ },
"yi-large": {
"description": "Совершенно новая модель с триллионом параметров, обеспечивающая выдающиеся возможности для вопросов и ответов, а также генерации текста."
},
diff --git a/locales/ru-RU/providers.json b/locales/ru-RU/providers.json
index c3aba74755a7d..a38f2ff35cdfc 100644
--- a/locales/ru-RU/providers.json
+++ b/locales/ru-RU/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "Большая языковая модель, разработанная Tencent, обладающая мощными способностями к созданию текстов на китайском языке, логическим рассуждениям в сложных контекстах и надежным выполнением задач."
},
+ "infiniai": {
+ "description": "Предоставляет разработчикам приложений высокопроизводительные, удобные в использовании и надежные услуги больших моделей, охватывающие весь процесс от разработки больших моделей до их внедрения в качестве сервиса."
+ },
"internlm": {
"description": "Открытая организация, занимающаяся исследованием и разработкой инструментов для больших моделей. Предоставляет всем разработчикам ИИ эффективную и удобную открытую платформу, позволяя получить доступ к самым современным технологиям больших моделей и алгоритмов."
},
diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json
index e37290b380cd8..60638af5c1b68 100644
--- a/locales/tr-TR/models.json
+++ b/locales/tr-TR/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3, rol yapma ve duygusal destek için tasarlanmış, ultra uzun çok turlu bellek ve kişiselleştirilmiş diyalog desteği sunan bir modeldir, geniş bir uygulama yelpazesine sahiptir."
},
+ "chatglm3": {
+ "description": "ChatGLM3, ZhiPu AI ve Tsinghua KEG laboratuvarı tarafından yayınlanan kapalı kaynaklı bir modeldir. Büyük miktarda Çince ve İngilizce belirteçlerin önceden eğitilmesi ve insan tercihleriyle hizalama eğitimi ile, birinci nesil modellere göre MMLU, C-Eval ve GSM8K'da sırasıyla %16, %36 ve %280'lük iyileştirmeler elde edilmiştir ve Çince görevler listesinde C-Eval zirvesine ulaşmıştır. Bilgi hacmi, çıkarım yeteneği ve yaratıcılık gerektiren senaryolarda kullanılabilir, örneğin reklam metni, roman yazımı, bilgi tabanlı yazım, kod oluşturma vb."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base, ZhiPu tarafından geliştirilen ChatGLM serisinin en yeni nesli olan 6 milyar parametrelik açık kaynaklı temel modeldir."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o, güncel versiyonunu korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi geniş ölçekli uygulama senaryoları için uygundur."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite, son derece düşük gecikme süresi ve yüksek verimlilikle çalışan hafif bir büyük dil modelidir. Tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini desteklemektedir. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans sergileyerek, kullanıcılara maliyet etkinliği ve akıllı deneyim sunmakta, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılı olmaktadır."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2, Meta tarafından geliştirilmiş ve açık kaynaklı büyük dil modeli (LLM) serisidir. Bu, 7 milyar ile 70 milyar parametre arasında değişen, önceden eğitilmiş ve ince ayarlanmış üretici metin modellerinden oluşan bir gruptır. Mimari açısından, Llama2, optimize edilmiş dönüştürücü mimarisi kullanan bir otoregresif dil modelidir. Ayarlanmış versiyonlar, faydalılık ve güvenliğin insan tercihleriyle hizalanması için gözetimli ince ayarlama (SFT) ve insan geri bildirimleriyle güçlendirilmiş öğrenme (RLHF) kullanır. Llama2, Llama serisine göre çeşitli akademik veri kümelerinde daha iyi performans gösterir ve birçok diğer modelin tasarım ve geliştirilmesine ilham verir."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B, daha güçlü AI akıl yürütme yeteneği sunar, karmaşık uygulamalar için uygundur ve yüksek verimlilik ve doğruluk sağlamak için çok sayıda hesaplama işlemini destekler."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K, büyük bağlam işleme yeteneği ile donatılmıştır ve daha güçlü bağlam anlama ve mantıksal çıkarım yetenekleri sunmaktadır. 32K token'lık metin girişi desteklemekte olup, uzun belgelerin okunması, özel bilgi sorgulama gibi senaryolar için uygundur."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct, Wuwen Xin Qiong tarafından tamamen bağımsız olarak eğitilen büyük dil modelidir. Megrez-3B-Instruct, yazılım ve donanım işbirliği felsefesiyle, hızlı çıkarım, küçük ve güçlü, kullanımı kolay bir uç tarafı zeka çözümü oluşturmayı amaçlamaktadır."
+ },
"meta-llama-3-70b-instruct": {
"description": "Akıl yürütme, kodlama ve geniş dil uygulamalarında mükemmel bir 70 milyar parametreli model."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Güçlü orta ölçekli kod modeli, 32K bağlam uzunluğunu destekler, çok dilli programlama konusunda uzmandır."
},
+ "qwen1.5-14b-chat": {
+ "description": "Qwen1.5 serisi, Qwen2'nin Beta sürümüdür ve büyük veri setleri üzerinde ön eğitilmiş, Transformer tabanlı sadece dekodlama dil modelidir. Önceki Qwen serisi sürümlerine kıyasla, Qwen1.5 serisinin hem temel hem de sohbet modelleri birden fazla dile destek sağlar ve genel sohbet yetenekleri ve temel yetenekleri açısından iyileştirilmiştir. Qwen1.5-14b-chat, 14 milyar parametreli ve sohbet senaryoları için özel olarak tasarlanmış ana boyutlu modeldir."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "Qwen1.5 serisi, Qwen2'nin Beta sürümüdür ve çok sayıda veri üzerinde ön eğitilmiş, Transformer tabanlı sadece çözücü dil modelidir. Önceki Qwen serisi sürümlerine kıyasla, Qwen1.5 serisinin hem base hem de chat modelleri, çeşitli dilleri destekleyebilir ve genel sohbet ve temel yeteneklerde iyileştirmeler sunar. Qwen1.5-32b-chat, 32 milyar parametreli ve özellikle chat senaryoları için tasarlanmış büyük modeldir. 14b modeline göre daha güçlü, 72b modeline göre ise çıkarım maliyeti daha düşüktür."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "Qwen1.5 serisi, Qwen2'nin Beta sürümüdür ve Transformer tabanlı sadece çözücü bir dil modelidir, büyük hacimli veriler üzerinde ön eğitilmiş bulunmaktadır. Daha önce yayınlanan Qwen serisi sürümlerine kıyasla, Qwen1.5 serisinin hem temel hem de sohbet modelleri birden fazla dile destek verir ve genel sohbet ve temel yeteneklerde iyileştirmeler sunar. Qwen1.5-72b-chat, 72 milyar parametreli ve sohbet senaryoları için özel olarak tasarlanmış büyük modeldir."
+ },
"qwen2": {
"description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2, Qwen ekibinin yeni nesil büyük dil modeli serisidir. Bu model, Transformer mimarisine dayanır ve SwiGLU aktivasyon fonksiyonu, dikkat QKV yanlısı (attention QKV bias), grup sorgu dikkati (group query attention), kayan pencere dikkatı (mixture of sliding window attention) ve tam dikkatin karışımı gibi teknikleri kullanır. Ayrıca, Qwen ekibi, çeşitli doğal diller ve kodları destekleyen belirteçleyiciyi (tokenizer) de geliştirdi."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2, Qwen ekibinin yeni nesil büyük dil modeli serisidir. Bu model, Transformer mimarisine dayanır ve SwiGLU aktivasyon fonksiyonu, dikkat QKV bias, grup sorgu dikkati, kayan pencere dikkatini ve tam dikkat karışımını içeren teknolojiler kullanır. Ayrıca, Qwen ekibi, çeşitli doğal diller ve kodları için belirteçleyiciyi de geliştirdi."
+ },
"qwen2.5": {
"description": "Qwen2.5, Alibaba'nın yeni nesil büyük ölçekli dil modelidir ve mükemmel performansıyla çeşitli uygulama ihtiyaçlarını desteklemektedir."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2, Microsoft AI tarafından sunulan bir dil modelidir, karmaşık diyaloglar, çok dilli, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5, Yi'nin geliştirilmiş sürümüdür. Yüksek kaliteli 500B token'lı veri kümesi üzerinde devam eden ön eğitimi ve 3M çeşitlendirilmiş ince ayar örneği üzerinde ince ayarını içerir."
+ },
"yi-large": {
"description": "Yeni nesil yüz milyar parametreli model, güçlü soru yanıtlama ve metin üretim yetenekleri sunar."
},
diff --git a/locales/tr-TR/providers.json b/locales/tr-TR/providers.json
index 47c28e1bad755..6e23070360abd 100644
--- a/locales/tr-TR/providers.json
+++ b/locales/tr-TR/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "Tencent tarafından geliştirilen büyük bir dil modeli, güçlü Çince yaratım yeteneklerine, karmaşık bağlamlarda mantıksal akıl yürütme yeteneğine ve güvenilir görev yerine getirme yeteneğine sahiptir."
},
+ "infiniai": {
+ "description": "Uygulama geliştiricilere yüksek performanslı, kullanımı kolay ve güvenilir büyük model hizmetleri sunar. Büyük model geliştirme den hizmetleştirmeye kadar tüm süreçleri kapsar."
+ },
"internlm": {
"description": "Büyük model araştırma ve geliştirme araç zincirine adanmış bir açık kaynak organizasyonu. Tüm AI geliştiricilerine verimli ve kullanımı kolay bir açık kaynak platformu sunarak en son büyük model ve algoritma teknolojilerine erişimi kolaylaştırır."
},
diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json
index 659240265e097..7c918a5cd1219 100644
--- a/locales/vi-VN/models.json
+++ b/locales/vi-VN/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 được thiết kế đặc biệt cho vai trò và đồng hành cảm xúc, hỗ trợ trí nhớ nhiều vòng siêu dài và đối thoại cá nhân hóa, ứng dụng rộng rãi."
},
+ "chatglm3": {
+ "description": "ChatGLM3 là mô hình đóng nguồn do Trung tâm AI Zhizhu và Phòng thí nghiệm KEG của Đại học Thanh Hoa phát hành. Mô hình này đã được tiền huấn luyện với lượng lớn các bộ định danh tiếng Trung và tiếng Anh, cũng như được huấn luyện để phù hợp với sở thích của con người. So với mô hình thế hệ đầu tiên, ChatGLM3 đã cải thiện 16%, 36% và 280% trên các bảng xếp hạng MMLU, C-Eval và GSM8K, đồng thời đứng đầu bảng xếp hạng C-Eval cho các tác vụ tiếng Trung. Mô hình này phù hợp cho các trường hợp yêu cầu cao về lượng kiến thức, khả năng suy luận và sáng tạo, như viết quảng cáo, viết tiểu thuyết, viết nội dung kiến thức, và tạo mã nguồn."
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base là mô hình cơ bản có quy mô 6 tỷ tham số, thuộc thế hệ mới nhất của loạt ChatGLM do Zhipu phát triển."
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o là một mô hình động, được cập nhật theo thời gian thực để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và sinh ngôn ngữ mạnh mẽ, phù hợp cho các ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật."
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite là một mô hình ngôn ngữ lớn nhẹ, có độ trễ cực thấp và khả năng xử lý hiệu quả, hoàn toàn miễn phí và mở, hỗ trợ chức năng tìm kiếm trực tuyến theo thời gian thực. Đặc điểm phản hồi nhanh của nó giúp nó nổi bật trong các ứng dụng suy diễn trên thiết bị có công suất thấp và tinh chỉnh mô hình, mang lại hiệu quả chi phí và trải nghiệm thông minh xuất sắc cho người dùng, đặc biệt trong các tình huống hỏi đáp kiến thức, tạo nội dung và tìm kiếm."
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 là một loạt các mô hình ngôn ngữ lớn (LLM) do Meta phát triển và công khai, bao gồm các mô hình tạo văn bản đã được tiền huấn luyện và tinh chỉnh với quy mô từ 7 tỷ đến 700 tỷ tham số. Về mặt kiến trúc, Llama2 là một mô hình ngôn ngữ hồi quy tự động sử dụng kiến trúc biến đổi tối ưu. Các phiên bản đã điều chỉnh sử dụng tinh chỉnh có giám sát (SFT) và học củng cố với phản hồi từ con người (RLHF) để đồng bộ hóa với sở thích của con người về tính hữu ích và an toàn. Llama2 có hiệu suất vượt trội hơn so với loạt Llama trên nhiều bộ dữ liệu học thuật, cung cấp ý tưởng cho thiết kế và phát triển của nhiều mô hình khác."
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B cung cấp khả năng suy luận AI mạnh mẽ hơn, phù hợp cho các ứng dụng phức tạp, hỗ trợ xử lý tính toán cực lớn và đảm bảo hiệu quả và độ chính xác cao."
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K được cấu hình với khả năng xử lý ngữ cảnh lớn, có khả năng hiểu ngữ cảnh và suy luận logic mạnh mẽ hơn, hỗ trợ đầu vào văn bản 32K tokens, phù hợp cho việc đọc tài liệu dài, hỏi đáp kiến thức riêng tư và các tình huống khác."
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct là mô hình ngôn ngữ lớn được huấn luyện hoàn toàn độc lập bởi Wúwèn Xīnqióng. Megrez-3B-Instruct nhằm tạo ra một giải pháp thông minh ở đầu cuối với khả năng suy luận nhanh chóng, kích thước nhỏ gọn và dễ sử dụng thông qua lý thuyết tích hợp phần mềm và phần cứng."
+ },
"meta-llama-3-70b-instruct": {
"description": "Mô hình 70 tỷ tham số mạnh mẽ, xuất sắc trong lý luận, lập trình và các ứng dụng ngôn ngữ rộng lớn."
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "Mô hình mã mạnh mẽ cỡ trung, hỗ trợ độ dài ngữ cảnh 32K, xuất sắc trong lập trình đa ngôn ngữ."
},
+ "qwen1.5-14b-chat": {
+ "description": "Qwen1.5 là phiên bản Beta của Qwen2, là mô hình ngôn ngữ chỉ giải mã dựa trên Transformer, được tiền huấn luyện trên dữ liệu lớn. So với các phiên bản Qwen đã phát hành trước đây, cả mô hình base và chat của Qwen1.5 đều hỗ trợ nhiều ngôn ngữ và có sự cải thiện đáng kể về khả năng trò chuyện tổng thể và các kỹ năng cơ bản. Qwen1.5-14b-chat là mô hình có 14 tỷ tham số, được thiết kế đặc biệt cho các tình huống trò chuyện."
+ },
+ "qwen1.5-32b-chat": {
+ "description": "Qwen1.5 series là phiên bản Beta của Qwen2, là mô hình ngôn ngữ chỉ giải mã dựa trên Transformer, được tiền huấn luyện trên dữ liệu lớn. So với các phiên bản Qwen series được phát hành trước đó, cả mô hình base và chat của Qwen1.5 series đều hỗ trợ nhiều ngôn ngữ, và có sự cải thiện đáng kể về khả năng trò chuyện tổng thể và các kỹ năng cơ bản. Qwen1.5-32b-chat là mô hình lớn 32 tỷ tham số chuyên dụng cho các tình huống trò chuyện, mạnh hơn mô hình 14 tỷ tham số trong các tình huống thực thể thông minh, và có chi phí suy luận thấp hơn mô hình 72 tỷ tham số."
+ },
+ "qwen1.5-72b-chat": {
+ "description": "Qwen1.5 là phiên bản Beta của Qwen2, là mô hình ngôn ngữ chỉ giải mã dựa trên Transformer, được tiền huấn luyện trên dữ liệu lớn. So với các phiên bản Qwen đã phát hành trước đó, cả mô hình base và chat của Qwen1.5 đều hỗ trợ nhiều ngôn ngữ, và có sự cải thiện đáng kể về khả năng trò chuyện tổng thể và các kỹ năng cơ bản. Qwen1.5-72b-chat là mô hình lớn có 72 tỷ tham số, chuyên dùng cho các tình huống trò chuyện."
+ },
"qwen2": {
"description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 là thế hệ mô hình ngôn ngữ lớn mới do đội Qwen phát triển. Nó dựa trên kiến trúc Transformer và sử dụng hàm kích hoạt SwiGLU, chệch QKV chú ý (attention QKV bias), chú ý truy vấn nhóm (group query attention), hỗn hợp chú ý cửa sổ trượt (mixture of sliding window attention) và chú ý đầy đủ. Ngoài ra, đội Qwen còn cải tiến bộ tách từ để thích ứng với nhiều ngôn ngữ tự nhiên và mã nguồn."
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 là một loạt mô hình ngôn ngữ lớn mới do đội Qwen phát triển. Nó dựa trên kiến trúc Transformer và sử dụng hàm kích hoạt SwiGLU, chệch QKV chú ý (attention QKV bias), chú ý truy vấn nhóm (group query attention), hỗn hợp chú ý cửa sổ trượt (mixture of sliding window attention) và chú ý đầy đủ. Ngoài ra, đội Qwen còn cải tiến bộ tách từ để thích ứng với nhiều ngôn ngữ tự nhiên và mã nguồn."
+ },
"qwen2.5": {
"description": "Qwen2.5 là thế hệ mô hình ngôn ngữ quy mô lớn mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 là mô hình ngôn ngữ do Microsoft AI cung cấp, đặc biệt xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh."
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 là phiên bản nâng cấp của Yi. Nó sử dụng 500B token từ cơ sở dữ liệu chất lượng cao để tiếp tục tiền huấn luyện trên Yi, và được tinh chỉnh trên 3M mẫu đa dạng."
+ },
"yi-large": {
"description": "Mô hình với hàng trăm tỷ tham số mới, cung cấp khả năng hỏi đáp và sinh văn bản mạnh mẽ."
},
diff --git a/locales/vi-VN/providers.json b/locales/vi-VN/providers.json
index a9ac40f76fff4..ead93dfd0d574 100644
--- a/locales/vi-VN/providers.json
+++ b/locales/vi-VN/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "Mô hình ngôn ngữ lớn được phát triển bởi Tencent, có khả năng sáng tạo tiếng Trung mạnh mẽ, khả năng suy luận logic trong các ngữ cảnh phức tạp, và khả năng thực hiện nhiệm vụ đáng tin cậy."
},
+ "infiniai": {
+ "description": "Cung cấp dịch vụ mô hình lớn hiệu suất cao, dễ sử dụng và an toàn cho nhà phát triển ứng dụng, bao gồm toàn bộ quy trình từ phát triển mô hình lớn đến triển khai dịch vụ mô hình lớn."
+ },
"internlm": {
"description": "Tổ chức mã nguồn mở chuyên nghiên cứu và phát triển công cụ cho mô hình lớn. Cung cấp nền tảng mã nguồn mở hiệu quả, dễ sử dụng cho tất cả các nhà phát triển AI, giúp tiếp cận công nghệ mô hình lớn và thuật toán tiên tiến nhất."
},
diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json
index f9616a306ec44..d7f5e3610fd2f 100644
--- a/locales/zh-CN/models.json
+++ b/locales/zh-CN/models.json
@@ -521,6 +521,12 @@
"charglm-3": {
"description": "CharGLM-3 专为角色扮演与情感陪伴设计,支持超长多轮记忆与个性化对话,应用广泛。"
},
+ "chatglm3": {
+ "description": "ChatGLM3 是智谱 AI 与清华 KEG 实验室发布的闭源模型,经过海量中英标识符的预训练与人类偏好对齐训练,相比一代模型在 MMLU、C-Eval、GSM8K 分别取得了 16%、36%、280% 的提升,并登顶中文任务榜单 C-Eval。适用于对知识量、推理能力、创造力要求较高的场景,比如广告文案、小说写作、知识类写作、代码生成等。"
+ },
+ "chatglm3-6b-base": {
+ "description": "ChatGLM3-6b-base 是由智谱开发的 ChatGLM 系列最新一代的 60 亿参数规模的开源的基础模型。"
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
},
@@ -1133,6 +1139,9 @@
"lite": {
"description": "Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。"
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 是由 Meta 开发并开源的大型语言模型(LLM)系列,这是一组从 70 亿到 700 亿参数不同规模、经过预训练和微调的生成式文本模型。架构层面,LLama2 是一个使用优化型转换器架构的自动回归语言模型。调整后的版本使用有监督的微调(SFT)和带有人类反馈的强化学习(RLHF)以对齐人类对有用性和安全性的偏好。Llama2 较 Llama 系列在多种学术数据集上有着更加不俗的表现,为大量其他模型提供了设计和开发的思路。"
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B 提供更强大的AI推理能力,适合复杂应用,支持超多的计算处理并保证高效和准确率。"
},
@@ -1196,6 +1205,9 @@
"max-32k": {
"description": "Spark Max 32K 配置了大上下文处理能力,更强的上下文理解和逻辑推理能力,支持32K tokens的文本输入,适用于长文档阅读、私有知识问答等场景"
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct 是由无问芯穹完全自主训练的大语言模型。Megrez-3B-Instruct 旨在通过软硬协同理念,打造一款极速推理、小巧精悍、极易上手的端侧智能解决方案。"
+ },
"meta-llama-3-70b-instruct": {
"description": "一个强大的700亿参数模型,在推理、编码和广泛的语言应用方面表现出色。"
},
@@ -1583,9 +1595,24 @@
"qwen/qwen2.5-coder-7b-instruct": {
"description": "强大的中型代码模型,支持 32K 上下文长度,擅长多语言编程。"
},
+ "qwen1.5-14b-chat": {
+ "description": "Qwen1.5 系列是 Qwen2 的 Beta 版本,是一个基于 Transformer 的仅解码语言模型,在海量数据上进行预训练。与之前发布的 Qwen 系列版本相比,Qwen1.5 系列 base 与 chat 模型均能支持多种语言,在整体聊天和基础能力上都得到了提升。Qwen1.5-14b-chat 是其中专用于 chat 场景的 140 亿参数的主流大小模型。"
+ },
+ "qwen1.5-32b-chat": {
+ "description": "Qwen1.5 系列是 Qwen2 的 Beta 版本,是一个基于 Transformer 的仅解码语言模型,在海量数据上进行预训练。与之前发布的 Qwen 系列版本相比,Qwen1.5 系列 base 与 chat 模型均能支持多种语言,在整体聊天和基础能力上都得到了提升。Qwen1.5-32b-chat 是其中专用于 chat 场景的 320 亿参数的大模型,较于 14b 模型在智能体场景更强,较于 72b 模型推理成本更低。"
+ },
+ "qwen1.5-72b-chat": {
+ "description": "Qwen1.5 系列是 Qwen2 的 Beta 版本,是一个基于 Transformer 的仅解码语言模型,在海量数据上进行预训练。与之前发布的 Qwen 系列版本相比,Qwen1.5 系列 base 与 chat 模型均能支持多种语言,在整体聊天和基础能力上都得到了提升。Qwen1.5-72b-chat 是其中专用于 chat 场景的 720 亿参数的大模型。"
+ },
"qwen2": {
"description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 是 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。"
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 是 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。"
+ },
"qwen2.5": {
"description": "Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
},
@@ -1763,6 +1790,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。"
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 是 Yi 的升级版本。 它使用 500B Tokens 的高质量语料库在 Yi 上持续进行预训练,并在 3M 个多样化的微调样本上进行微调。"
+ },
"yi-large": {
"description": "全新千亿参数模型,提供超强问答及文本生成能力。"
},
diff --git a/locales/zh-CN/providers.json b/locales/zh-CN/providers.json
index dcd04836462f9..c64c3e3ee42cf 100644
--- a/locales/zh-CN/providers.json
+++ b/locales/zh-CN/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "由腾讯研发的大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力"
},
+ "infiniai": {
+ "description": "为应用开发者提供高性能、易上手、安全可靠的大模型服务,覆盖从大模型开发到大模型服务化部署的全流程。"
+ },
"internlm": {
"description": "致力于大模型研究与开发工具链的开源组织。为所有 AI 开发者提供高效、易用的开源平台,让最前沿的大模型与算法技术触手可及"
},
diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json
index 8a80710027611..a37158558d08b 100644
--- a/locales/zh-TW/models.json
+++ b/locales/zh-TW/models.json
@@ -1,4 +1,5 @@
{
+ "0": "{",
"01-ai/Yi-1.5-34B-Chat-16K": {
"description": "Yi-1.5 34B,以豐富的訓練樣本在行業應用中提供優越表現。"
},
@@ -521,6 +522,9 @@
"charglm-3": {
"description": "CharGLM-3專為角色扮演與情感陪伴設計,支持超長多輪記憶與個性化對話,應用廣泛。"
},
+ "chatglm3": {
+ "description": "ChatGLM3 是智譜 AI 與清華 KEG 實驗室發佈的閉源模型,經過海量中英標識符的預訓練與人類偏好對齊訓練,相比一代模型在 MMLU、C-Eval、GSM8K 分別取得了 16%、36%、280% 的提升,並登頂中文任務榜單 C-Eval。適用於對知識量、推理能力、創造力要求較高的場景,比如廣告文案、小說寫作、知識類寫作、代碼生成等。"
+ },
"chatgpt-4o-latest": {
"description": "ChatGPT-4o是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。"
},
@@ -1133,6 +1137,9 @@
"lite": {
"description": "Spark Lite 是一款輕量級大語言模型,具備極低的延遲與高效的處理能力,完全免費開放,支持即時在線搜索功能。其快速響應的特性使其在低算力設備上的推理應用和模型微調中表現出色,為用戶帶來出色的成本效益和智能體驗,尤其在知識問答、內容生成及搜索場景下表現不俗。"
},
+ "llama-2-7b-chat": {
+ "description": "Llama2 是由 Meta 開發並開源的大型語言模型(LLM)系列,這是一組從 70 億到 700 億參數不同規模、經過預訓練和微調的生成式文本模型。架構層面,Llama2 是一個使用優化型轉換器架構的自動回歸語言模型。調整後的版本使用有監督的微調(SFT)和帶有人類反饋的強化學習(RLHF)以對齊人類對有用性和安全性的偏好。Llama2 較 Llama 系列在多種學術數據集上有着更加不俗的表現,為大量其他模型提供了設計和開發的思路。"
+ },
"llama-3.1-70b-versatile": {
"description": "Llama 3.1 70B 提供更強大的 AI 推理能力,適合複雜應用,支持超多的計算處理並保證高效和準確率。"
},
@@ -1196,6 +1203,9 @@
"max-32k": {
"description": "Spark Max 32K 配置了大上下文處理能力,更強的上下文理解和邏輯推理能力,支持32K tokens的文本輸入,適用於長文檔閱讀、私有知識問答等場景。"
},
+ "megrez-3b-instruct": {
+ "description": "Megrez-3B-Instruct 是由無問芯穹完全自主訓練的大語言模型。Megrez-3B-Instruct 旨在通過軟硬協同理念,打造一款極速推理、小巧精悍、極易上手的端側智能解決方案。"
+ },
"meta-llama-3-70b-instruct": {
"description": "一個強大的70億參數模型,在推理、編碼和廣泛的語言應用中表現出色。"
},
@@ -1586,6 +1596,12 @@
"qwen2": {
"description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
},
+ "qwen2-72b-instruct": {
+ "description": "Qwen2 是 Qwen 團隊推出的新一代大型語言模型系列。它基於 Transformer 架構,並採用 SwiGLU 激活函數、注意力 QKV 偏置(attention QKV bias)、群組查詢注意力(group query attention)、滑動窗口注意力(mixture of sliding window attention)與全注意力的混合等技術。此外,Qwen 團隊還改進了適應多種自然語言和代碼的分詞器。"
+ },
+ "qwen2-7b-instruct": {
+ "description": "Qwen2 是 Qwen 團隊推出的新一代大型語言模型系列。它基於 Transformer 架構,並採用 SwiGLU 激活函數、注意力 QKV 偏置(attention QKV bias)、群組查詢注意力(group query attention)、滑動視窗注意力(mixture of sliding window attention)與全注意力的混合等技術。此外,Qwen 團隊還改進了適應多種自然語言和程式碼的分詞器。"
+ },
"qwen2.5": {
"description": "Qwen2.5 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。"
},
@@ -1763,6 +1779,9 @@
"wizardlm2:8x22b": {
"description": "WizardLM 2 是微軟 AI 提供的語言模型,在複雜對話、多語言、推理和智能助手領域表現尤為出色。"
},
+ "yi-1.5-34b-chat": {
+ "description": "Yi-1.5 是 Yi 的升級版本。它使用 500B Tokens 的高品質語料庫在 Yi 上持續進行預訓練,並在 3M 個多樣化的微調樣本上進行微調。"
+ },
"yi-large": {
"description": "全新千億參數模型,提供超強問答及文本生成能力。"
},
diff --git a/locales/zh-TW/providers.json b/locales/zh-TW/providers.json
index 5ae6cafe1447e..fb860015d2185 100644
--- a/locales/zh-TW/providers.json
+++ b/locales/zh-TW/providers.json
@@ -53,6 +53,9 @@
"hunyuan": {
"description": "由騰訊研發的大語言模型,具備強大的中文創作能力、複雜語境下的邏輯推理能力,以及可靠的任務執行能力"
},
+ "infiniai": {
+ "description": "為應用開發者提供高性能、易上手、安全可靠的大模型服務,覆蓋從大模型開發到大模型服務化部署的全流程。"
+ },
"internlm": {
"description": "致力於大模型研究與開發工具鏈的開源組織。為所有 AI 開發者提供高效、易用的開源平台,讓最前沿的大模型與算法技術觸手可及"
},
diff --git a/src/app/[variants]/(main)/settings/llm/ProviderList/providers.tsx b/src/app/[variants]/(main)/settings/llm/ProviderList/providers.tsx
index 6d503a1aae6d6..a1e648efbda5a 100644
--- a/src/app/[variants]/(main)/settings/llm/ProviderList/providers.tsx
+++ b/src/app/[variants]/(main)/settings/llm/ProviderList/providers.tsx
@@ -12,6 +12,7 @@ import {
GroqProviderCard,
HigressProviderCard,
HunyuanProviderCard,
+ InfiniAIProviderCard,
InternLMProviderCard,
JinaProviderCard,
MinimaxProviderCard,
@@ -20,8 +21,8 @@ import {
NovitaProviderCard,
NvidiaProviderCard,
OpenRouterProviderCard,
- PerplexityProviderCard,
PPIOProviderCard,
+ PerplexityProviderCard,
QwenProviderCard,
SambaNovaProviderCard,
SenseNovaProviderCard,
@@ -100,6 +101,7 @@ export const useProviderList = (): ProviderItem[] => {
HigressProviderCard,
GiteeAIProviderCard,
PPIOProviderCard,
+ InfiniAIProviderCard,
],
[
AzureProvider,
diff --git a/src/config/aiModels/index.ts b/src/config/aiModels/index.ts
index 7cd0ed49c669d..017519a4042b9 100644
--- a/src/config/aiModels/index.ts
+++ b/src/config/aiModels/index.ts
@@ -18,6 +18,7 @@ import { default as groq } from './groq';
import { default as higress } from './higress';
import { default as huggingface } from './huggingface';
import { default as hunyuan } from './hunyuan';
+import { default as infiniai } from './infiniai';
import { default as internlm } from './internlm';
import { default as jina } from './jina';
import { default as lmstudio } from './lmstudio';
@@ -87,6 +88,7 @@ export const LOBE_DEFAULT_MODEL_LIST = buildDefaultModelList({
higress,
huggingface,
hunyuan,
+ infiniai,
internlm,
jina,
lmstudio,
@@ -137,6 +139,7 @@ export { default as groq } from './groq';
export { default as higress } from './higress';
export { default as huggingface } from './huggingface';
export { default as hunyuan } from './hunyuan';
+export { default as infiniai } from './infiniai';
export { default as internlm } from './internlm';
export { default as jina } from './jina';
export { default as lmstudio } from './lmstudio';
diff --git a/src/config/aiModels/infiniai.ts b/src/config/aiModels/infiniai.ts
new file mode 100644
index 0000000000000..d3e3c2421d722
--- /dev/null
+++ b/src/config/aiModels/infiniai.ts
@@ -0,0 +1,307 @@
+import { AIChatModelCard } from '@/types/aiModel';
+
+// https://cloud.infini-ai.com/genstudio/model
+// All models are currently free
+
+const infiniaiChatModels: AIChatModelCard[] = [
+ {
+ abilities: {
+ reasoning: true,
+ },
+ contextWindowTokens: 65_536,
+ description:
+ 'DeepSeek-R1 是一个专注于推理能力的大语言模型,通过创新的训练流程实现了与 OpenAI-o1 相当的数学、代码和推理任务表现。该模型采用了冷启动数据和大规模强化学习相结合的方式进行训练。',
+ displayName: 'DeepSeek R1',
+ enabled: true,
+ id: 'deepseek-r1',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 65_536,
+ description:
+ 'DeepSeek-V3 是一个强大的专家混合(MoE)语言模型,总参数量为 671B,每个 Token 激活 37B 参数。该模型采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,实现了高效推理和经济训练。',
+ displayName: 'DeepSeek V3',
+ enabled: true,
+ id: 'deepseek-v3',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 65_536,
+ description:
+ 'QwQ 是 Qwen 系列的推理模型,相比传统指令调优模型,QwQ 具备思考和推理能力,在下游任务尤其是难题上能取得显著性能提升。QwQ-32B 是一款中等规模的推理模型,其性能可与最先进的推理模型相媲美,例如 DeepSeek-R1 和 o1-mini。',
+ displayName: 'QwQ 32B',
+ enabled: true,
+ id: 'qwq-32b',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'DeepSeek-R1-Distill-Qwen-32B 是基于 DeepSeek-R1 蒸馏而来的模型,在 Qwen2.5-32B 的基础上使用 DeepSeek-R1 生成的样本进行微调。该模型在各种基准测试中表现出色,保持了强大的推理能力。',
+ displayName: 'DeepSeek R1 Distill Qwen 32B',
+ enabled: true,
+ id: 'deepseek-r1-distill-qwen-32b',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
+ displayName: 'Qwen2.5 72B Instruct',
+ enabled: true,
+ id: 'qwen2.5-72b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
+ displayName: 'Qwen2.5 32B Instruct',
+ enabled: true,
+ id: 'qwen2.5-32b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2.5-Coder 是最新的代码专用 Qwen 大型语言模型系列。Qwen2.5-Coder 在 CodeQwen1.5 的基础上带来了以下改进:\n显著提升代码生成、代码推理和代码修复能力。\n支持真实世界应用,例如代码代理,增强编码能力和数学及一般能力。\n支持长上下文处理。',
+ displayName: 'Qwen2.5 Coder 32B Instruct',
+ enabled: true,
+ id: 'qwen2.5-coder-32b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
+ displayName: 'Qwen2.5 14B Instruct',
+ enabled: true,
+ id: 'qwen2.5-14b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
+ displayName: 'Qwen2.5 7B Instruct',
+ enabled: true,
+ id: 'qwen2.5-7b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 8192,
+ description:
+ 'Meta 发布的 LLaMA 3.3 多语言大规模语言模型(LLMs)是一个经过预训练和指令微调的生成模型,提供 70B 规模(文本输入/文本输出)。该模型使用超过 15T 的数据进行训练,支持英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语,知识更新截止于 2023 年 12 月。',
+ displayName: 'LLaMA 3.3 70B',
+ enabled: true,
+ id: 'llama-3.3-70b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2 是 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。',
+ displayName: 'Qwen 2 72B Instruct',
+ enabled: true,
+ id: 'qwen2-72b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2 是 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。',
+ displayName: 'Qwen 2 7B Instruct',
+ enabled: true,
+ id: 'qwen2-7b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 4096,
+ description:
+ 'Yi-1.5 是 Yi 的升级版本。 它使用 500B Tokens 的高质量语料库在 Yi 上持续进行预训练,并在 3M 个多样化的微调样本上进行微调。',
+ displayName: 'Yi-1.5 34B Chat',
+ enabled: true,
+ id: 'yi-1.5-34b-chat',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen1.5 系列是 Qwen2 的 Beta 版本,是一个基于 Transformer 的仅解码语言模型,在海量数据上进行预训练。与之前发布的 Qwen 系列版本相比,Qwen1.5 系列 base 与 chat 模型均能支持多种语言,在整体聊天和基础能力上都得到了提升。Qwen1.5-72b-chat 是其中专用于 chat 场景的 720 亿参数的大模型。',
+ displayName: 'Qwen1.5 72B Chat',
+ enabled: true,
+ id: 'qwen1.5-72b-chat',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen1.5 系列是 Qwen2 的 Beta 版本,是一个基于 Transformer 的仅解码语言模型,在海量数据上进行预训练。与之前发布的 Qwen 系列版本相比,Qwen1.5 系列 base 与 chat 模型均能支持多种语言,在整体聊天和基础能力上都得到了提升。Qwen1.5-32b-chat 是其中专用于 chat 场景的 320 亿参数的大模型,较于 14b 模型在智能体场景更强,较于 72b 模型推理成本更低。',
+ displayName: 'Qwen1.5 32B Chat',
+ enabled: true,
+ id: 'qwen1.5-32b-chat',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 8192,
+ description:
+ 'Qwen1.5 系列是 Qwen2 的 Beta 版本,是一个基于 Transformer 的仅解码语言模型,在海量数据上进行预训练。与之前发布的 Qwen 系列版本相比,Qwen1.5 系列 base 与 chat 模型均能支持多种语言,在整体聊天和基础能力上都得到了提升。Qwen1.5-14b-chat 是其中专用于 chat 场景的 140 亿参数的主流大小模型。',
+ displayName: 'Qwen1.5 14B Chat',
+ enabled: true,
+ id: 'qwen1.5-14b-chat',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 16_384,
+ description: 'GLM-4-9B-Chat 是智谱 AI 推出的最新一代预训练模型 GLM-4-9B 的人类偏好对齐版本。',
+ displayName: 'GLM-4 9B Chat',
+ enabled: true,
+ id: 'glm-4-9b-chat',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 8192,
+ description:
+ 'ChatGLM3 是智谱 AI 与清华 KEG 实验室发布的闭源模型,经过海量中英标识符的预训练与人类偏好对齐训练,相比一代模型在 MMLU、C-Eval、GSM8K 分别取得了 16%、36%、280% 的提升,并登顶中文任务榜单 C-Eval。适用于对知识量、推理能力、创造力要求较高的场景,比如广告文案、小说写作、知识类写作、代码生成等。',
+ displayName: 'ChatGLM3',
+ enabled: true,
+ id: 'chatglm3',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'ChatGLM3-6b-base 是由智谱开发的 ChatGLM 系列最新一代的 60 亿参数规模的开源的基础模型。',
+ displayName: 'ChatGLM3 6B Base',
+ enabled: true,
+ id: 'chatglm3-6b-base',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 4096,
+ description:
+ 'Llama2 是由 Meta 开发并开源的大型语言模型(LLM)系列,这是一组从 70 亿到 700 亿参数不同规模、经过预训练和微调的生成式文本模型。架构层面,LLama2 是一个使用优化型转换器架构的自动回归语言模型。调整后的版本使用有监督的微调(SFT)和带有人类反馈的强化学习(RLHF)以对齐人类对有用性和安全性的偏好。Llama2 较 Llama 系列在多种学术数据集上有着更加不俗的表现,为大量其他模型提供了设计和开发的思路。',
+ displayName: 'Llama 2 7B Chat',
+ enabled: true,
+ id: 'llama-2-7b-chat',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+ {
+ contextWindowTokens: 4096,
+ description:
+ 'Megrez-3B-Instruct 是由无问芯穹完全自主训练的大语言模型。Megrez-3B-Instruct 旨在通过软硬协同理念,打造一款极速推理、小巧精悍、极易上手的端侧智能解决方案。',
+ displayName: 'Megrez 3B Instruct',
+ enabled: true,
+ id: 'megrez-3b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ type: 'chat',
+ },
+];
+
+export const allModels = [...infiniaiChatModels];
+
+export default allModels;
diff --git a/src/config/llm.ts b/src/config/llm.ts
index c4e1411c454a5..7980259aed3a8 100644
--- a/src/config/llm.ts
+++ b/src/config/llm.ts
@@ -150,6 +150,9 @@ export const getLLMConfig = () => {
ENABLED_PPIO: z.boolean(),
PPIO_API_KEY: z.string().optional(),
+
+ ENABLED_INFINIAI: z.boolean(),
+ INFINIAI_API_KEY: z.string().optional(),
},
runtimeEnv: {
API_KEY_SELECT_MODE: process.env.API_KEY_SELECT_MODE,
@@ -298,6 +301,9 @@ export const getLLMConfig = () => {
ENABLED_PPIO: !!process.env.PPIO_API_KEY,
PPIO_API_KEY: process.env.PPIO_API_KEY,
+
+ ENABLED_INFINIAI: !!process.env.INFINIAI_API_KEY,
+ INFINIAI_API_KEY: process.env.INFINIAI_API_KEY,
},
});
};
diff --git a/src/config/modelProviders/index.ts b/src/config/modelProviders/index.ts
index 84b8d701264e2..25d17f8964418 100644
--- a/src/config/modelProviders/index.ts
+++ b/src/config/modelProviders/index.ts
@@ -18,6 +18,7 @@ import GroqProvider from './groq';
import HigressProvider from './higress';
import HuggingFaceProvider from './huggingface';
import HunyuanProvider from './hunyuan';
+import InfiniAIProvider from './infiniai';
import InternLMProvider from './internlm';
import JinaProvider from './jina';
import LMStudioProvider from './lmstudio';
@@ -94,6 +95,7 @@ export const LOBE_DEFAULT_MODEL_LIST: ChatModelCard[] = [
InternLMProvider.chatModels,
HigressProvider.chatModels,
PPIOProvider.chatModels,
+ InfiniAIProvider.chatModels,
].flat();
export const DEFAULT_MODEL_PROVIDER_LIST = [
@@ -145,6 +147,7 @@ export const DEFAULT_MODEL_PROVIDER_LIST = [
TaichuProvider,
Ai360Provider,
DoubaoProvider,
+ InfiniAIProvider,
];
export const filterEnabledModels = (provider: ModelProviderCard) => {
@@ -174,6 +177,7 @@ export { default as GroqProviderCard } from './groq';
export { default as HigressProviderCard } from './higress';
export { default as HuggingFaceProviderCard } from './huggingface';
export { default as HunyuanProviderCard } from './hunyuan';
+export { default as InfiniAIProviderCard } from './infiniai';
export { default as InternLMProviderCard } from './internlm';
export { default as JinaProviderCard } from './jina';
export { default as LMStudioProviderCard } from './lmstudio';
diff --git a/src/config/modelProviders/infiniai.ts b/src/config/modelProviders/infiniai.ts
new file mode 100644
index 0000000000000..6cd636189cdf0
--- /dev/null
+++ b/src/config/modelProviders/infiniai.ts
@@ -0,0 +1,184 @@
+import { ModelProviderCard } from '@/types/llm';
+
+// https://cloud.infini-ai.com/genstudio/model
+// All models are currently free
+const InfiniAI: ModelProviderCard = {
+ chatModels: [
+ {
+ contextWindowTokens: 65_536,
+ description:
+ 'DeepSeek-R1 是一个专注于推理能力的大语言模型,通过创新的训练流程实现了与 OpenAI-o1 相当的数学、代码和推理任务表现。该模型采用了冷启动数据和大规模强化学习相结合的方式进行训练。',
+ displayName: 'DeepSeek R1',
+ enabled: true,
+ id: 'deepseek-r1',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ },
+ {
+ contextWindowTokens: 65_536,
+ description:
+ 'DeepSeek-V3 是一个强大的专家混合(MoE)语言模型,总参数量为 671B,每个 Token 激活 37B 参数。该模型采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,实现了高效推理和经济训练。',
+ displayName: 'DeepSeek V3',
+ enabled: true,
+ id: 'deepseek-v3',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ },
+ {
+ contextWindowTokens: 65_536,
+ description:
+ 'QwQ 是 Qwen 系列的推理模型,相比传统指令调优模型,QwQ 具备思考和推理能力,在下游任务尤其是难题上能取得显著性能提升。QwQ-32B 是一款中等规模的推理模型,其性能可与最先进的推理模型相媲美,例如 DeepSeek-R1 和 o1-mini。',
+ displayName: 'QwQ',
+ enabled: true,
+ id: 'qwq-32b',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'DeepSeek-R1-Distill-Qwen-32B 是基于 DeepSeek-R1 蒸馏而来的模型,在 Qwen2.5-32B 的基础上使用 DeepSeek-R1 生成的样本进行微调。该模型在各种基准测试中表现出色,保持了强大的推理能力。',
+ displayName: 'DeepSeek R1 Distill Qwen 32B',
+ enabled: true,
+ id: 'deepseek-r1-distill-qwen-32b',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
+ displayName: 'Qwen2.5 72B Instruct',
+ enabled: true,
+ id: 'qwen2.5-72b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
+ displayName: 'Qwen2.5 32B Instruct',
+ enabled: true,
+ id: 'qwen2.5-32b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2.5-Coder 是最新的代码专用 Qwen 大型语言模型系列。Qwen2.5-Coder 在 CodeQwen1.5 的基础上带来了以下改进:\n显著提升代码生成、代码推理和代码修复能力。\n支持真实世界应用,例如代码代理,增强编码能力和数学及一般能力。\n支持长上下文处理。',
+ displayName: 'Qwen2.5 Coder 32B Instruct',
+ enabled: true,
+ id: 'qwen2.5-coder-32b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
+ displayName: 'Qwen2.5 14B Instruct',
+ enabled: true,
+ id: 'qwen2.5-14b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2.5 是 Qwen 大型语言模型系列的最新成果。Qwen2.5 发布了从 0.5 到 720 亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5 相比 Qwen2 带来了以下改进:\n显著增加知识量,在编程与数学领域的能力得到极大提升。\n在遵循指令、生成长文本、理解结构化数据 (例如,表格) 以及生成结构化输出特别是 JSON 方面有显著提升。对系统提示的多样性更具韧性,增强了聊天机器人中的角色扮演实现和条件设定。\n支持长上下文处理。\n支持超过 29 种语言的多语言功能,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。',
+ displayName: 'Qwen2.5 7B Instruct',
+ enabled: true,
+ id: 'qwen2.5-7b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2 是 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。',
+ displayName: 'Qwen 2 72B Instruct',
+ enabled: true,
+ id: 'qwen2-72b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ },
+ {
+ contextWindowTokens: 32_768,
+ description:
+ 'Qwen2 是 Qwen 团队推出的新一代大型语言模型系列。它基于 Transformer 架构,并采用 SwiGLU 激活函数、注意力 QKV 偏置(attention QKV bias)、群组查询注意力(group query attention)、滑动窗口注意力(mixture of sliding window attention)与全注意力的混合等技术。此外,Qwen 团队还改进了适应多种自然语言和代码的分词器。',
+ displayName: 'Qwen 2 7B Instruct',
+ enabled: true,
+ id: 'qwen2-7b-instruct',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ },
+ {
+ contextWindowTokens: 4096,
+ description:
+ 'Yi-1.5 是 Yi 的升级版本。 它使用 500B Tokens 的高质量语料库在 Yi 上持续进行预训练,并在 3M 个多样化的微调样本上进行微调。',
+ displayName: 'Yi-1.5 34B Chat',
+ enabled: true,
+ id: 'yi-1.5-34b-chat',
+ pricing: {
+ currency: 'CNY',
+ input: 0,
+ output: 0,
+ },
+ },
+ ],
+ checkModel: 'qwen2.5-7b-instruct',
+ description:
+ '为应用开发者提供高性能、易上手、安全可靠的大模型服务,覆盖从大模型开发到大模型服务化部署的全流程。',
+ id: 'infiniai',
+ modelList: { showModelFetcher: true },
+ modelsUrl: 'https://cloud.infini-ai.com/genstudio/model',
+ name: 'InfiniAI',
+ proxyUrl: {
+ placeholder: 'https://cloud.infini-ai.com/maas/v1',
+ },
+ settings: {
+ proxyUrl: {
+ placeholder: 'https://cloud.infini-ai.com/maas/v1',
+ },
+ sdkType: 'openai',
+ showModelFetcher: true,
+ },
+ url: 'https://cloud.infini-ai.com/genstudio',
+};
+
+export default InfiniAI;
diff --git a/src/libs/agent-runtime/infiniai/index.ts b/src/libs/agent-runtime/infiniai/index.ts
new file mode 100644
index 0000000000000..7f736224597ab
--- /dev/null
+++ b/src/libs/agent-runtime/infiniai/index.ts
@@ -0,0 +1,43 @@
+// import { AgentRuntimeErrorType } from '../error';
+import type { ChatModelCard } from '@/types/llm';
+
+import { ModelProvider } from '../types';
+import { LobeOpenAICompatibleFactory } from '../utils/openaiCompatibleFactory';
+
+export interface InfiniAIModelCard {
+ id: string;
+}
+
+export const LobeInfiniAI = LobeOpenAICompatibleFactory({
+ baseURL: 'https://cloud.infini-ai.com/maas/v1',
+ models: async ({ client }) => {
+ const { LOBE_DEFAULT_MODEL_LIST } = await import('@/config/aiModels');
+
+ const reasoningKeywords = ['deepseek-r1', 'qwq'];
+
+ const modelsPage = (await client.models.list()) as any;
+ const modelList: InfiniAIModelCard[] = modelsPage.data;
+
+ return modelList
+ .map((model) => {
+ const knownModel = LOBE_DEFAULT_MODEL_LIST.find(
+ (m) => model.id.toLowerCase() === m.id.toLowerCase(),
+ );
+
+ return {
+ contextWindowTokens: knownModel?.contextWindowTokens ?? undefined,
+ displayName: knownModel?.displayName ?? undefined,
+ enabled: knownModel?.enabled || false,
+ functionCall: knownModel?.abilities?.functionCall || false,
+ id: model.id,
+ reasoning:
+ reasoningKeywords.some((keyword) => model.id.toLowerCase().includes(keyword)) ||
+ knownModel?.abilities?.reasoning ||
+ false,
+ vision: knownModel?.abilities?.vision || false,
+ };
+ })
+ .filter(Boolean) as ChatModelCard[];
+ },
+ provider: ModelProvider.InfiniAI,
+});
diff --git a/src/libs/agent-runtime/runtimeMap.ts b/src/libs/agent-runtime/runtimeMap.ts
index fbe1d080070cb..7e9846b97d36d 100644
--- a/src/libs/agent-runtime/runtimeMap.ts
+++ b/src/libs/agent-runtime/runtimeMap.ts
@@ -15,6 +15,7 @@ import { LobeGroq } from './groq';
import { LobeHigressAI } from './higress';
import { LobeHuggingFaceAI } from './huggingface';
import { LobeHunyuanAI } from './hunyuan';
+import { LobeInfiniAI } from './infiniai';
import { LobeInternLMAI } from './internlm';
import { LobeJinaAI } from './jina';
import { LobeLMStudioAI } from './lmstudio';
@@ -64,6 +65,7 @@ export const providerRuntimeMap = {
higress: LobeHigressAI,
huggingface: LobeHuggingFaceAI,
hunyuan: LobeHunyuanAI,
+ infiniai: LobeInfiniAI,
internlm: LobeInternLMAI,
jina: LobeJinaAI,
lmstudio: LobeLMStudioAI,
diff --git a/src/libs/agent-runtime/types/type.ts b/src/libs/agent-runtime/types/type.ts
index 80ca857f49f29..cc54ff9e19ce5 100644
--- a/src/libs/agent-runtime/types/type.ts
+++ b/src/libs/agent-runtime/types/type.ts
@@ -43,6 +43,7 @@ export enum ModelProvider {
Higress = 'higress',
HuggingFace = 'huggingface',
Hunyuan = 'hunyuan',
+ InfiniAI = 'infiniai',
InternLM = 'internlm',
Jina = 'jina',
LMStudio = 'lmstudio',
diff --git a/src/types/user/settings/keyVaults.ts b/src/types/user/settings/keyVaults.ts
index bf0abcb21fe7f..da8d504cec1bd 100644
--- a/src/types/user/settings/keyVaults.ts
+++ b/src/types/user/settings/keyVaults.ts
@@ -51,6 +51,7 @@ export interface UserKeyVaults extends SearchEngineKeyVaults {
higress?: OpenAICompatibleKeyVault;
huggingface?: OpenAICompatibleKeyVault;
hunyuan?: OpenAICompatibleKeyVault;
+ infiniai?: OpenAICompatibleKeyVault;
internlm?: OpenAICompatibleKeyVault;
jina?: OpenAICompatibleKeyVault;
lmstudio?: OpenAICompatibleKeyVault;