Ollama向量模型的使用小感
前言
因为有一台闲置的linux服务器,所以就安装了宝塔准备自己折腾一些好玩的项目。
在docker应用商店中看到了Ollama项目于是就想着部署一下。
过程
首先我以为这个是一个大语言模型,经过部署后才知道是一个向量模型。
向量模型简单理解就是知识库,当我部署好以后访问url发现只有一个ollama is running
并没有后台,研究后发现需要配合其他项目比如maxkb。
于是我就在我的maxkb中添加了这个向量模型并且使用了web服务。
填写的URL地址当然就是我网站了。可能是因为服务器配置较低,所以向量模型在处理网站内容的时候很慢。
然后就是并不是所有的文章它都会获取,而仅仅是获取首页中你已经显示的文章和分类等。
当我用命中测试想着测试一下他的准确度时发现他的响应和WordPress自带的搜索并没什么差别。
感言
首先,可能是我配置问题没有很好的利用这个向量模型。
其次,也有可能我不会使用向量模型导致体验较差。
最后,我觉得有兴趣有能力的小伙伴可以自己部署一个向量模型,作为一个知识库它是很不错的选择。
THE END