ollama本地模型不接受角色设定

我的电脑上本地运行了ollama,里面有qwen2.5:7b的模型,控制台可以正常对话,已经添加得到maxKB的模型设置中了,也可以正常对话。

但是这个本地模型不能识别工作流中对它赋予的角色设定。

相同的工作流,在线API的模型都可以,我尝试了GPT_4o和通义千问_MAX,这两个API在线模型都可以代入角色设定,提问他们关于角色设定的信息都能正确回答。

就是本地的ollama里面的模型无法回答角色设定信息。

好苦恼。

拜托各位大神解答。敬谢。

请提供关于这个问题详细的截图,便于进一步分析原因。

我不知道该截哪方面的图,就是用在线官方大模型的API会应用角色设定,他会知道自己是谁。如果用我本地ollama中的模型就不会应用角色设定,他就不知道自己是谁。

我不知道该截哪方面的图,就是用在线官方大模型的API会应用角色设定,他会知道自己是谁。如果用我本地ollama中的模型就不会应用角色设定,他就不知道自己是谁。