@ -1,6 +1,11 @@
# 文件目录说明
- /data/ollama : 本项目根目录,本项目所有目录都在这个路径下面
# 前置条件
- 本机安装了Docker
- 安装了Nvidia GPU驱动
- 安装了容器工具包nvidia-container-toolkit
# 下载gguf模型:
- 网址: https://hf-mirror.com/
- 搜要下载的模型,比如,想现在llama3 8b的模型,则搜索: llama3 8b gguf
@ -77,6 +77,6 @@
left join model_index_result mir on (mi.id = mir.index_id and mir.case_id = #{caseId})
WHERE mi.data_status = '1'
and mi.index_type = #{indexType}
order by mir.index_result, mi.id desc
order by CASE mir.index_result WHEN 'true' THEN 1 WHEN 'false' THEN 2 else 0 END, mi.id desc
</select>
</mapper>