在我的M9的机器上安装了MAXKB。用了ollama2的模型。
随便跑了一点内容,最终还是放弃了
记录一下当时的步骤
1、增加了知识库,想尝试爬我的博客(还没有用meilisearch)。结果直接把网站爬崩了。。。。后来是指定页面进行抓取才相对好一点。但明明设置了class,抓的内容还是乱七八槽
2、下载了ollama13b的模型
3、开始建立应用,选择这个模型 :一开始搜索,机器CPU100%,内存消耗8G,1分钟后,居然没搜索到任何东西。。。。
4、切换成ollama:chinese的模型 ,也是100%的CPU。。。chinese是7b,也消耗差不多8G内存
5、换成最基础的,同样100%CPU,温度从50多度升到80多度。消耗4G多内存
发现这种本地知识库,如果没有GPU,还真是别玩了啊。。。玩不动。所以,最终折腾完后,删除了