|
68 | 68 | "Gryphe/MythoMax-L2-13b": {
|
69 | 69 | "description": "MythoMax-L2 (13B) е иновативен модел, подходящ за приложения в множество области и сложни задачи."
|
70 | 70 | },
|
71 |
| - "Max-32k": { |
72 |
| - "description": "Spark Max 32K е конфигуриран с голяма способност за обработка на контекст, по-силно разбиране на контекста и логическо разсъждение, поддържа текстов вход от 32K токена, подходящ за четене на дълги документи, частни въпроси и отговори и други сценарии." |
73 |
| - }, |
74 | 71 | "Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75 | 72 | "description": "Hermes 2 Mixtral 8x7B DPO е високо гъвкава многомоделна комбинация, предназначена да предостави изключителен креативен опит."
|
76 | 73 | },
|
|
110 | 107 | "Phi-3.5-vision-instrust": {
|
111 | 108 | "description": "Актуализирана версия на модела Phi-3-vision."
|
112 | 109 | },
|
113 |
| - "Pro-128k": { |
114 |
| - "description": "Spark Pro-128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочни логически връзки, предоставяйки плавна и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации." |
115 |
| - }, |
116 | 110 | "Pro/OpenGVLab/InternVL2-8B": {
|
117 | 111 | "description": "InternVL2 демонстрира изключителни резултати в различни визуално-языкови задачи, включително разбиране на документи и графики, разбиране на текст в сцени, OCR, решаване на научни и математически проблеми."
|
118 | 112 | },
|
|
278 | 272 | "anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279 | 273 | "description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надвишаваща конкурентните модели и Claude 3 Opus, с отлични резултати в широки оценки, като същевременно предлага скорост и разходи на нашите модели от средно ниво."
|
280 | 274 | },
|
| 275 | + "anthropic.claude-3-5-sonnet-20241022-v2:0": { |
| 276 | + "description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надминаваща конкурентните модели и Claude 3 Opus, показвайки отлични резултати в широки оценки, като същевременно предлага скорост и разходи, характерни за нашите модели от среден клас." |
| 277 | + }, |
281 | 278 | "anthropic.claude-3-haiku-20240307-v1:0": {
|
282 | 279 | "description": "Claude 3 Haiku е най-бързият и компактен модел на Anthropic, предлагащ почти мигновена скорост на отговор. Той може бързо да отговаря на прости запитвания и заявки. Клиентите ще могат да изградят безпроблемно AI изживяване, имитиращо човешко взаимодействие. Claude 3 Haiku може да обработва изображения и да връща текстови изходи, с контекстуален прозорец от 200K."
|
283 | 280 | },
|
|
467 | 464 | "gemma2:2b": {
|
468 | 465 | "description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки до сложни обработки на данни."
|
469 | 466 | },
|
470 |
| - "general": { |
471 |
| - "description": "Spark Lite е лек голям езиков модел с изключително ниска латентност и висока ефективност, напълно безплатен и отворен, поддържащ функция за търсене в реално време. Неговата бърза реакция го прави отличен за приложения с ниска изчислителна мощ и фино настройване на модела, предоставяйки на потребителите отлична цена-качество и интелигентно изживяване, особено в области като отговори на знания, генериране на съдържание и търсене." |
472 |
| - }, |
473 | 467 | "generalv3": {
|
474 | 468 | "description": "Spark Pro е високопроизводителен голям езиков модел, оптимизиран за професионални области, фокусирайки се върху математика, програмиране, медицина, образование и др., и поддържа свързано търсене и вградени плъгини за времето, датата и др. Оптимизираният модел показва отлични резултати и висока производителност в сложни отговори на знания, разбиране на езика и високо ниво на текстово генериране, което го прави идеален избор за професионални приложения."
|
475 | 469 | },
|
|
625 | 619 | },
|
626 | 620 | "jamba-1.5-large": {},
|
627 | 621 | "jamba-1.5-mini": {},
|
| 622 | + "lite": { |
| 623 | + "description": "Spark Lite е лек модел на голям език, с изключително ниска латентност и ефективна обработка, напълно безплатен и отворен, поддържащ функции за онлайн търсене в реално време. Неговите бързи отговори го правят отличен за приложения на нискомощни устройства и фина настройка на модели, предоставяйки на потребителите отлична рентабилност и интелигентно изживяване, особено в контекста на въпроси и отговори, генериране на съдържание и търсене." |
| 624 | + }, |
628 | 625 | "llama-3.1-70b-instruct": {
|
629 | 626 | "description": "Llama 3.1 70B Instruct модел, с 70B параметри, способен да предоставя изключителна производителност в задачи за генериране на текст и инструкции."
|
630 | 627 | },
|
|
700 | 697 | "mathstral": {
|
701 | 698 | "description": "MathΣtral е проектиран за научни изследвания и математически разсъждения, предоставяйки ефективни изчислителни способности и интерпретация на резултати."
|
702 | 699 | },
|
| 700 | + "max-32k": { |
| 701 | + "description": "Spark Max 32K е конфигуриран с голяма способност за обработка на контекст, с по-силно разбиране на контекста и логическо разсъждение, поддържащ текстови входове до 32K токена, подходящ за четене на дълги документи, частни въпроси и отговори и други сценарии." |
| 702 | + }, |
703 | 703 | "meta-llama-3-70b-instruct": {
|
704 | 704 | "description": "Мощен модел с 70 милиарда параметри, отличаващ се в разсъждения, кодиране и широки езикови приложения."
|
705 | 705 | },
|
|
940 | 940 | "pixtral-12b-2409": {
|
941 | 941 | "description": "Моделът Pixtral демонстрира силни способности в задачи като разбиране на графики и изображения, отговори на документи, многомодално разсъждение и следване на инструкции, способен да приема изображения с естествено разрешение и съотношение на страните, както и да обработва произволен брой изображения в контекстен прозорец с дължина до 128K токена."
|
942 | 942 | },
|
| 943 | + "pro-128k": { |
| 944 | + "description": "Spark Pro 128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочна логическа свързаност, предоставяйки гладка и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации." |
| 945 | + }, |
943 | 946 | "qwen-coder-turbo-latest": {
|
944 | 947 | "description": "Моделът на кода Qwen."
|
945 | 948 | },
|
|
0 commit comments