• 🌟 模型推理,轻而易举:大语言模型,语音识别模型,多模态模型的部署流程被大大简化。一个命令即可完成模型的部署工作。
  • ⚡️ 前沿模型,应有尽有:框架内置众多中英文的前沿大语言模型,包括 baichuan,chatglm2 等,一键即可体验!内置模型列表还在快速更新中!
  • 🖥 异构硬件,快如闪电:通过 ggml,同时使用你的 GPU 与 CPU 进行推理,降低延迟,提高吞吐!
  • ⚙️ 接口调用,灵活多样:提供多种使用模型的接口,包括 OpenAI 兼容的 RESTful API(包括 Function Calling),RPC,命令行,web UI 等等。方便模型的管理与交互。
  • 🌐 集群计算,分布协同: 支持分布式部署,通过内置的资源调度器,让不同大小的模型按需调度到不同机器,充分使用集群资源。
  • 🔌 开放生态,无缝对接: 与流行的三方库无缝对接,包括 LangChainLlamaIndexDify,以及 Chatbox

🎉 Xinference v0.13.3 正式发布!

本周有大量 SOTA 的 LLM 模型发布,Xinference 第一时间跟进!

– 新增内置支持模型 📦
  – llama-3.1, llama-3.1-instruct 📚
  – Mistral-nemo-instruct, mistral-large-instruct 📝
  – CosyVoice 语音模型 🎤
  – 更多 MLX 推理引擎支持模型:llama-3-instruct, codestral, Yi-1.5-chat, internlm2.5-chat 🚀
  – llama-3-instruct gptq 量化格式 📉
  – csg-wukong-chat-v0.1 💬

– 新功能 🚀
  – GLM4支持stream tool call 🔧

– BUG修复 🐛
  – 修复 inpainting 和 infer 接口的问题 🔧

– UI相关 💻
  – image和audio模型launch页面支持一些常用的参数配置 🎨🎵


免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表一休教程网的观点和立场。