Ollama LLM¶
⚠️ 重要说明¶
Ollama 仅适用于本地测试,不建议用于生产环境
功能限制¶
Ollama 在以下方面存在显著不足:
- 错误捕获与处理
- 缺乏完善的错误分类和识别机制
- 上下文超长等异常处理不完善
-
网络错误恢复能力有限
-
高级功能支持
- Token 计算不准确(使用近似计算)
- 缺少速率限制处理
-
流式输出支持不完整
-
测试覆盖不足
- TFRobot 团队对 Ollama 的测试覆盖有限
-
生产环境验证不足
-
原生能力设计限制
- Ollama 的 API 设计相对简单,缺少企业级功能
- 与云端 API 相比,错误处理和重试机制较为基础
原因分析¶
这些不足既有测试覆盖不够的原因,也有 Ollama 原生能力设计不足的综合因素:
- 测试层面:TFRobot 团队对 Ollama 的测试优先级较低,覆盖不充分
- 设计层面:Ollama 作为本地推理工具,其 API 设计优先考虑简单性而非企业级特性
- 生态层面:Ollama 缺少完善的错误处理、监控、可观测性等生产级功能
推荐替代方案¶
生产环境建议使用云端 API:
| 需求 | 推荐方案 | 文档 |
|---|---|---|
| 纯文本生成(DeskLLM) | DeepSeekDesk | 文档 |
| 多模态任务(DeskLLM) | GeminiDesk | 文档 |
| 对话 + 工具调用(ChatLLM) | DeepSeek (ChatLLM) | 文档 |
适用场景¶
Ollama 仅适用于: - ✅ 本地开发测试 - ✅ 概念验证(POC) - ✅ 数据隐私要求极高的场景(且能接受功能限制)
API 文档¶
Ollama ¶
Bases: ChatLLM[dict]
适配本地使用Ollama运行的各种单机小模型 | Ollama LLM (Local Language Model)
stop_words
property
¶
stop_words: list[str]
获取停止词列表,需要与ToolPrompt(如果存在的话)整合
Returns:
| Type | Description |
|---|---|
list[str]
|
list[str]: 停止词列表 |
reformat_request_msg_to_api ¶
reformat_request_msg_to_api(msg: BaseLLMMessage) -> dict
将LLMUserMessage转换为Ollama请求消息格式。Ollama接口对于格式有自己的要求,与当前TFRobot协议并不完全一致。因此需要进行转换。
Parameters:
| Name | Type | Description | Default |
|---|---|---|---|
msg
|
BaseLLMMessage
|
BaseLLMMessage |
required |
Returns:
| Name | Type | Description |
|---|---|---|
dict |
dict
|
Ollama请求消息格式 |
Source code in tfrobot/brain/chain/llms/ollama.py
180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 | |
construct_request_params ¶
construct_request_params(current_input: BaseMessage, conversation: Optional[list[BaseMessage]] = None, elements: Optional[list[DocElement]] = None, knowledge: Optional[str] = None, tools: Optional[list[BaseTool]] = None, intermediate_msgs: Optional[list[BaseMessage]] = None, response_format: Optional[LLMResponseFormat] = None) -> dict
Construct chat request parameters | 构造聊天请求参数
最终的会话排序如下: 1. 首条System Message 2. 用户历史会话内容 3. 当前输入前的提示 4. 当前输入 5. 当前输入后的提示 6. 中间消息
Parameters:
| Name | Type | Description | Default |
|---|---|---|---|
current_input
|
BaseMessage
|
Current input | 当前输入 |
required |
conversation
|
Optional[list[BaseMessage]]
|
Conversation history | 会话历史 |
None
|
elements
|
Optional[list[DocElement]]
|
Document elements | 文档元素 |
None
|
knowledge
|
Optional[str]
|
Related knowledge | 相关知识 |
None
|
tools
|
Optional[list[BaseTool]]
|
Available tool list | 可用的工具列表 |
None
|
intermediate_msgs
|
Optional[list[BaseMessage]]
|
Intermediate messages, it will be generated during llm work in chain, list tool's response or other system message, those messages will not save into memory, but usefully during chain work | 中间消息,它将在链式工作中生成,列表工具的响应或其他系统消息,这些消息不会保存到记忆体中, 但在链式工作中非常有用 |
None
|
response_format
|
Optional[LLMResponseFormat]
|
Response format | 响应格式. 如果在此传递,会覆盖类的同名属性设置。 |
None
|
Returns:
| Name | Type | Description |
|---|---|---|
dict |
dict
|
Request parameters | 请求参数 |
Source code in tfrobot/brain/chain/llms/ollama.py
215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 | |
extract_thinking
staticmethod
¶
extract_thinking(text: str) -> tuple[str, str]
从字符串中提取第一个
Parameters:
| Name | Type | Description | Default |
|---|---|---|---|
text
|
str
|
要处理的原始字符串 |
required |
Returns:
| Type | Description |
|---|---|
tuple[str, str]
|
tuple[str, str]: 第一个元素是标签内的内容,第二个是去除整个标签后的剩余字符串 |
Source code in tfrobot/brain/chain/llms/ollama.py
431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 | |
construct_llm_result ¶
construct_llm_result(res: dict, params: dict, response_format: Optional[LLMResponseFormat] = None) -> LLMResult
Construct chat result | 构造聊天结果
因为Ollama提供的HttpAPI参数中不支持stop停止词。所以在生成内容中手动实现了此能力。 但需要注意这会导致completion_tokens过高,因为是生成后,手动终止的停止词。
Parameters:
| Name | Type | Description | Default |
|---|---|---|---|
res
|
dict
|
Response from Ollama | Ollama的响应 |
required |
params
|
dict
|
Request to Ollama | Ollama的请求 |
required |
response_format
|
Optional[LLMResponseFormat]
|
Response format | 响应格式. |
None
|
Returns:
| Name | Type | Description |
|---|---|---|
LLMResult |
LLMResult
|
The result of completion | 完成的结果 |
Source code in tfrobot/brain/chain/llms/ollama.py
535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620 621 622 623 624 625 626 | |
complete ¶
complete(current_input: BaseMessage, conversation: Optional[list[BaseMessage]] = None, elements: Optional[list[DocElement]] = None, knowledge: Optional[str] = None, tools: Optional[list[BaseTool]] = None, intermediate_msgs: Optional[list[BaseMessage]] = None, response_format: Optional[LLMResponseFormat] = None) -> LLMResult
Complete chat | 生成聊天结果
Ollama的Chat生成端点为:POST /api/chat
最终的会话排序如下: 1. 首条System Message 2. 用户历史会话内容 3. 当前输入前的提示 4. 当前输入 5. 当前输入后的提示 6. 中间消息
Parameters:
| Name | Type | Description | Default |
|---|---|---|---|
current_input
|
BaseMessage
|
User last input | 用户最后输入 |
required |
conversation
|
Optional[list[BaseMessage]]
|
Conversation history | 会话历史 |
None
|
elements
|
Optional[list[DocElement]]
|
Document elements | 文档元素 |
None
|
knowledge
|
Optional[str]
|
Related knowledge | 相关知识 |
None
|
tools
|
Optional[list[BaseTool]]
|
Available tool list | 可用的工具列表 |
None
|
intermediate_msgs
|
Optional[list[BaseMessage]]
|
Intermediate messages, it will be generated during llm work in chain, list tool's response or other system message, those messages will not save into memory, but usefully during chain work | 中间消息,它将在链式工作中生成,列表工具的响应或其他系统消息,这些消息不会保存到记忆体中, 但在链式工作中非常有用 |
None
|
response_format
|
Optional[LLMResponseFormat]
|
Response format | 响应格式. 如果在此传递,会覆盖类的同名属性设置。 |
None
|
Returns:
| Name | Type | Description |
|---|---|---|
LLMResult |
LLMResult
|
The result of completion | 完成的结果 |
Source code in tfrobot/brain/chain/llms/ollama.py
628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699 700 701 702 703 704 705 706 707 708 709 710 711 712 713 714 715 716 717 718 719 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749 750 751 752 753 754 755 756 757 758 759 760 761 762 763 | |
async_complete
async
¶
async_complete(current_input: BaseMessage, conversation: Optional[list[BaseMessage]] = None, elements: Optional[list[DocElement]] = None, knowledge: Optional[str] = None, tools: Optional[list[BaseTool]] = None, intermediate_msgs: Optional[list[BaseMessage]] = None, response_format: Optional[LLMResponseFormat] = None) -> LLMResult
Complete chat async | 异步生成聊天结果
Ollama的Chat生成端点为:POST /api/chat
最终的会话排序如下: 1. 首条System Message 2. 用户历史会话内容 3. 当前输入前的提示 4. 当前输入 5. 当前输入后的提示 6. 中间消息
Parameters:
| Name | Type | Description | Default |
|---|---|---|---|
current_input
|
BaseMessage
|
User last input | 用户最后输入 |
required |
conversation
|
Optional[list[BaseMessage]]
|
Conversation history | 会话历史 |
None
|
elements
|
Optional[list[DocElement]]
|
Document elements | 文档元素 |
None
|
knowledge
|
Optional[str]
|
Related knowledge | 相关知识 |
None
|
tools
|
Optional[list[BaseTool]]
|
Available tool list | 可用的工具列表 |
None
|
intermediate_msgs
|
Optional[list[BaseMessage]]
|
Intermediate messages, it will be generated during llm work in chain, list tool's response or other system message, those messages will not save into memory, but usefully during chain work | 中间消息,它将在链式工作中生成,列表工具的响应或其他系统消息,这些消息不会保存到记忆体中, 但在链式工作中非常有用 |
None
|
response_format
|
Optional[LLMResponseFormat]
|
Response format | 响应格式. 如果在此传递,会覆盖类的同名属性设置。 |
None
|
Returns:
| Name | Type | Description |
|---|---|---|
LLMResult |
LLMResult
|
The result of completion | 完成的结果 |
Source code in tfrobot/brain/chain/llms/ollama.py
765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799 800 801 802 803 804 805 806 807 808 809 810 811 812 813 814 815 816 817 818 819 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849 850 851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899 900 | |
OllamaWithTools ¶
Bases: Ollama
OllamaWithTools相较于Ollama加强了对Tools的控制能力。
construct_request_params ¶
construct_request_params(current_input: BaseMessage, conversation: Optional[list[BaseMessage]] = None, elements: Optional[list[DocElement]] = None, knowledge: Optional[str] = None, tools: Optional[list[BaseTool]] = None, intermediate_msgs: Optional[list[BaseMessage]] = None, response_format: Optional[LLMResponseFormat] = None) -> dict
Construct chat request parameters | 构造聊天请求参数
最终的会话排序如下: 1. 首条System Message 2. 用户历史会话内容 3. 当前输入前的提示 4. 当前输入 5. 当前输入后的提示 6. 中间消息
Parameters:
| Name | Type | Description | Default |
|---|---|---|---|
current_input
|
BaseMessage
|
Current input | 当前输入 |
required |
conversation
|
Optional[list[BaseMessage]]
|
Conversation history | 会话历史 |
None
|
elements
|
Optional[list[DocElement]]
|
Document elements | 文档元素 |
None
|
knowledge
|
Optional[str]
|
Related knowledge | 相关知识 |
None
|
tools
|
Optional[list[BaseTool]]
|
Available tool list | 可用的工具列表 |
None
|
intermediate_msgs
|
Optional[list[BaseMessage]]
|
Intermediate messages, it will be generated during llm work in chain, list tool's response or other system message, those messages will not save into memory, but usefully during chain work | 中间消息,它将在链式工作中生成,列表工具的响应或其他系统消息,这些消息不会保存到记忆体中, 但在链式工作中非常有用 |
None
|
response_format
|
Optional[LLMResponseFormat]
|
Response format | 响应格式 如果在此指定响应格式,会覆盖LLM的默认响应格式。 |
None
|
Returns:
| Name | Type | Description |
|---|---|---|
dict |
dict
|
Request parameters | 请求参数 |
Source code in tfrobot/brain/chain/llms/ollama.py
946 947 948 949 950 951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 | |
split_on_stopwords ¶
split_on_stopwords(text: str, stopwords: str | list[str]) -> str
Split text on stopwords | 在停止词上拆分文本
Parameters:
| Name | Type | Description | Default |
|---|---|---|---|
text
|
str
|
Text to split | 要拆分的文本 |
required |
stopwords
|
str | list[str]
|
Stopwords | 停止词 |
required |
Returns:
| Name | Type | Description |
|---|---|---|
str |
str
|
Splitted text | 拆分后的文本 |
Source code in tfrobot/brain/chain/llms/ollama.py
903 904 905 906 907 908 909 910 911 912 913 914 915 916 917 918 919 920 921 922 923 924 925 926 | |