|
47 | 47 | "Baichuan4-Turbo": {
|
48 | 48 | "description": "Моделът е лидер в страната по способности, надминавайки чуждестранните основни модели в задачи на китайски език, като знания, дълги текстове и генериране на творби. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни оценки."
|
49 | 49 | },
|
| 50 | + "DeepSeek-R1": { |
| 51 | + "description": "Най-напредналият ефективен LLM, специализиран в разсъждения, математика и програмиране." |
| 52 | + }, |
| 53 | + "DeepSeek-R1-Distill-Llama-70B": { |
| 54 | + "description": "DeepSeek R1 - по-голям и по-умен модел в комплекта DeepSeek - е дестилиран в архитектурата Llama 70B. На базата на бенчмаркове и човешка оценка, този модел е по-умен от оригиналния Llama 70B, особено в задачи, изискващи математическа и фактическа точност." |
| 55 | + }, |
50 | 56 | "DeepSeek-R1-Distill-Qwen-1.5B": {
|
51 | 57 | "description": "DeepSeek-R1 дестилиран модел, базиран на Qwen2.5-Math-1.5B, оптимизира производителността на разсъжденията чрез подсилено учене и данни за студен старт, отворен модел, който обновява многозадачния стандарт."
|
52 | 58 | },
|
|
119 | 125 | "InternVL2.5-26B": {
|
120 | 126 | "description": "InternVL2.5-26B е мощен визуален езиков модел, който поддържа многомодално обработване на изображения и текст, способен да разпознава точно съдържанието на изображения и да генерира свързани описания или отговори."
|
121 | 127 | },
|
| 128 | + "Llama-3.2-11B-Vision-Instruct": { |
| 129 | + "description": "Изключителни способности за визуално разсъждение върху изображения с висока резолюция, подходящи за приложения за визуално разбиране." |
| 130 | + }, |
| 131 | + "Llama-3.2-90B-Vision-Instruct\t": { |
| 132 | + "description": "Напреднали способности за визуално разсъждение, подходящи за приложения на агенти за визуално разбиране." |
| 133 | + }, |
122 | 134 | "LoRA/Qwen/Qwen2.5-72B-Instruct": {
|
123 | 135 | "description": "Qwen2.5-72B-Instruct е един от най-новите големи езикови модели, публикувани от Alibaba Cloud. Този 72B модел показва значителни подобрения в областите на кодирането и математиката. Моделът предлага многоезична поддръжка, обхващаща над 29 езика, включително китайски, английски и др. Моделът показва значителни подобрения в следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON)."
|
124 | 136 | },
|
125 | 137 | "LoRA/Qwen/Qwen2.5-7B-Instruct": {
|
126 | 138 | "description": "Qwen2.5-7B-Instruct е един от най-новите големи езикови модели, публикувани от Alibaba Cloud. Този 7B модел показва значителни подобрения в областите на кодирането и математиката. Моделът предлага многоезична поддръжка, обхващаща над 29 езика, включително китайски, английски и др. Моделът показва значителни подобрения в следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON)."
|
127 | 139 | },
|
| 140 | + "Meta-Llama-3.1-405B-Instruct": { |
| 141 | + "description": "Текстов модел с оптимизация за инструкции на Llama 3.1, проектиран за многоезични диалогови случаи, който показва отлични резултати на много налични отворени и затворени чат модели на общи индустриални бенчмаркове." |
| 142 | + }, |
| 143 | + "Meta-Llama-3.1-70B-Instruct": { |
| 144 | + "description": "Текстов модел с оптимизация за инструкции на Llama 3.1, проектиран за многоезични диалогови случаи, който показва отлични резултати на много налични отворени и затворени чат модели на общи индустриални бенчмаркове." |
| 145 | + }, |
| 146 | + "Meta-Llama-3.1-8B-Instruct": { |
| 147 | + "description": "Текстов модел с оптимизация за инструкции на Llama 3.1, проектиран за многоезични диалогови случаи, който показва отлични резултати на много налични отворени и затворени чат модели на общи индустриални бенчмаркове." |
| 148 | + }, |
| 149 | + "Meta-Llama-3.2-1B-Instruct": { |
| 150 | + "description": "Напреднал, водещ малък езиков модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст." |
| 151 | + }, |
| 152 | + "Meta-Llama-3.2-3B-Instruct": { |
| 153 | + "description": "Напреднал, водещ малък езиков модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст." |
| 154 | + }, |
| 155 | + "Meta-Llama-3.3-70B-Instruct": { |
| 156 | + "description": "Llama 3.3 е най-напредналият многоезичен отворен голям езиков модел от серията Llama, който предлага производителност, сравнима с 405B моделите, на изключително ниска цена. Базиран на структурата Transformer и подобрен чрез супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF) за повишаване на полезността и безопасността. Неговата версия с оптимизация за инструкции е специално проектирана за многоезични диалози и показва по-добри резултати от много от наличните отворени и затворени чат модели на множество индустриални бенчмаркове. Краен срок за знанията е декември 2023 г." |
| 157 | + }, |
128 | 158 | "MiniMax-Text-01": {
|
129 | 159 | "description": "В серията модели MiniMax-01 направихме смели иновации: за първи път реализирахме мащабно линейно внимание, традиционната архитектура на Transformer вече не е единственият избор. Параметрите на този модел достигат 4560 милиарда, с единична активация от 45.9 милиарда. Общата производителност на модела е на нивото на водещите модели в чужбина, като същевременно ефективно обработва глобалния контекст от 4 милиона токена, което е 32 пъти повече от GPT-4o и 20 пъти повече от Claude-3.5-Sonnet."
|
130 | 160 | },
|
|
860 | 890 | "gpt-3.5-turbo-1106": {
|
861 | 891 | "description": "GPT 3.5 Turbo, подходящ за различни задачи по генериране и разбиране на текст, в момента сочи към gpt-3.5-turbo-0125."
|
862 | 892 | },
|
863 |
| - "gpt-3.5-turbo-16k": { |
864 |
| - "description": "GPT 3.5 Turbo 16k, модел за генериране на текст с висока капацитет, подходящ за сложни задачи." |
865 |
| - }, |
866 | 893 | "gpt-3.5-turbo-instruct": {
|
867 | 894 | "description": "GPT 3.5 Turbo, подходящ за различни задачи по генериране и разбиране на текст, в момента сочи към gpt-3.5-turbo-0125."
|
868 | 895 | },
|
|
0 commit comments