最新消息:关注人工智能 AI赋能新媒体运营

TaiXu-Admin V0.0.10 发布:支持 Ollama 模型集成

科技资讯 admin 浏览

TaiXu-Admin V0.0.10 正式发布:更稳、更快、更懂你的AI助手

就在上周,TaiXu-Admin 正式上线了 V0.0.10 版本。这不是一次普通的更新——它让系统在实际使用中变得真正好用。如果你一直在找一个能稳定跑大模型、不卡顿、不乱答的后台工具,这次更新值得你花十分钟看看。

支持 Ollama,本地模型想用就用

现在,你可以直接在 TaiXu-Admin 里接入本地运行的 Ollama 模型,比如 Llama 3、Mistral、Phi-3,甚至你自己微调过的模型。不用再折腾 API 密钥,也不用依赖云服务。只要你电脑能跑,就能连上系统。很多团队已经用它在内网部署了私有知识库问答,数据不出域,安全又省心。

问答更准了,崩溃少了

过去有些用户反馈,遇到复杂问题时系统偶尔会“卡住”或给出不相关答案。这次我们重写了 RAG 和 Agent 的处理逻辑,加了超时熔断、结果校验和重试机制。比如你问“上季度销售数据中,华东区哪些产品线增长超过30%?”系统不会再答成“我无法回答这个问题”,而是会尝试从你的文档里找,找不到就明确告诉你“数据未覆盖”。

实测下来,平均响应时间缩短了 40%,异常中断率下降了 75%。不是宣传语,是真实部署后的数据。

前端改得更顺手了

界面没大改,但细节全换了。现在列表加载更快,搜索框支持模糊匹配,配置页面一键导出/导入设置,连按钮的提示文字都重写了——不再有“请执行异步操作”这种让人懵的术语。你点一下,它就干,干完了告诉你结果,不玩花的。

我们还加了“操作日志”面板,谁改了哪个模型参数、什么时候查了哪份文档,清清楚楚。审计、协作、复盘,都更方便。

后端没变花哨,但更扛用了

还是 Python + Flask,还是 React + Umi + Ant Design。没追热点,没换框架。因为我们知道,企业要的不是“最新技术”,是“能用三年不崩的系统”。稳定,比炫技重要得多。

API 接口现在支持批量调用,你可以一次性传 10 份文档,系统自动拆解、分段入库、统一检索,省下你手动一个个上传的时间。

知识库不是摆设,是真的能查

我们用 Qdrant 做向量检索,不是为了写进PPT,而是因为它在实际测试中,对长文本、专业术语的匹配准确率比其他方案高出 20% 以上。你上传一份 50 页的合同,它能准确找到“违约责任”在哪一页、哪一段。

Neo4j 用来管“人—项目—部门—审批流程”这种复杂关系。比如你想知道“张三负责的项目里,哪些被李四驳回过”,以前要写 SQL,现在点两下就能出来图谱。

数据都存在 PostgreSQL 里,备份、迁移、导出,跟平时用的系统一模一样,不用学新东西。

能干啥?举几个真例子

  • 销售团队上传产品手册,新人问“这款设备支持哪些接口?”,系统直接从PDF里摘出答案,附上页码。
  • 客服部门部署多智能体:一个负责理解问题,一个负责查知识库,一个负责润色回复,最后输出标准化话术。
  • 法务用它自动比对合同模板和历史条款,标记出“本次新增的免责条款是否与2023年版本冲突”。

这些都不是Demo,是已经有客户在用的场景。

接下来要做什么?

我们正在做三件事:

  1. 接入企业微信/钉钉,支持直接在聊天窗口里问问题,不用跳转系统。
  2. 上线“模型性能监控面板”,实时看哪个模型回答最快、最准,帮你自动选最优方案。
  3. 开放插件机制,你写的Python脚本,可以一键变成系统里的新功能按钮。

我们不喊“颠覆行业”“引领未来”这种话。TaiXu-Admin 的目标很简单:让懂技术的人少写几行代码,让不懂技术的人也能用上AI。

现在 V0.0.10 已上线,GitHub 开源,Docker 一键部署,文档齐全。欢迎试用,也欢迎提 bug —— 我们每天看。