中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
本地部署完全離線版并上傳PDF知識庫的對話大模型
userphoto

2024.04.29 甘肅

關注

因客戶要求,做一個完全離線的智能體。并且可以調用API任意修改界面。

先上本文的重點,也是等了好久,終于出來一個帶web界面的基于Ollama的框架。

地址為:

https://github.com/jacoblee93/fully-local-pdf-chatbot

這是親測效果:

速度還能接受。

1. 介紹:

它是一款基于Next.js React tailwind的應用程序。可以通過上傳PDF文檔,僅回答文檔中的相關內容??梢酝耆x線。

  • Voy作為向量存儲,在瀏覽器中完全采用WASM

  • Ollama在本地運行LLM并將其發(fā)布到Web應用程序

  • LangChain.js調用模型、執(zhí)行檢索并協(xié)調所有部分

  • Transformers.js在瀏覽器中運行開源的Nomic embeddings

為了在某些機器上獲得更快速度,可以在app/worker.ts切換到'Xenova/all-MiniLM-L6-v2'。

2. 安裝步驟:

  1.  下載安裝Ollama.(https://ollama.com/)

  2. 運行下面的命令:

3.  更換模型:

這里選擇的是mistral,大概4G左右,當然根據(jù)需要,可以下載Ollama上的其它模型。像llama2-chinese,對中文支持的比較好。

4. 對設備的要求:

如果下載7b模型,至少需要8G內存

如果下載13b模型,至少需要16G的內容

然后針對本地部署大模型,專門做了一些調研,大概有兩種選擇。

  1.  用清華大學的智譜清言API

    https://open.bigmodel.cn

    可以上傳自己的多個PDF知識問答,讓它只回答文檔中的問題。

    可以安裝SDK,然后提供API接口供調用。

    下面是測試結果:

這是它的收費方式。

2. 自己部署ChatGLM

這里簡單做個對比,自己部署ChatGLM 對設備的要求極高。

https://github.com/THUDM/ChatGLM3

要不有一個好的CPU,要不有一塊好的顯卡,顯卡盡量13G ,內存基本要32GB 。

3. Ollama

  • Ollama,一條命令在本地跑 Llama2
  • 無需上網(wǎng),讓每個人可以免費在自己電腦上使用AI大模型。在GitHub超過22K Star的開源項目

  • Ollama 是一個強大的框架,設計用于在 Docker 容器中部署 LLM。Ollama 的主要功能是在 Docker 容器內部署和管理 LLM 的促進者,它使該過程變得非常簡單。它幫助用戶快速在本地運行大模型,通過簡單的安裝指令,可以讓用戶執(zhí)行一條命令就在本地運行開源大型語言模型,例如 Llama 2。

  • Ollama 將模型權重、配置和數(shù)據(jù)捆綁到一個包中,定義成 Modelfile。它優(yōu)化了設置和配置細節(jié),包括 GPU 使用情況。

  • ollama極大的簡化了安裝的過程,并提供了多種選擇。

  • 支持的平臺包括:Mac和Linux,并提供了docker 鏡像。

  • 除了簡單的啟動模型外,Ollama 可以通過編寫 Modelfile 來導入更多的自定義模型,具體的使用方法和配置請自行查閱文檔。

  • Ollama具備靈活的擴展性,它支持和很多工具集成,除了命令行的使用方式,可以通過配合UI界面,簡單快速的打造一個類ChatGPT應用

包含了常用的各大模型:

總結:

這樣對本地部署的幾個常見大模型就有了大概了解,然后數(shù)字人這塊也就完善了本地部署大模型的功能,由于Ollama封裝成一個安裝文件包,這種方式非常方便,最早見過google的一個女程序就是把大模型打包為一個安裝包,不知道圖片、視頻相關的大模型有沒有類似的。解決了文字部分,接下來就是發(fā)展多模態(tài)的應用了。

本站僅提供存儲服務,所有內容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權內容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
一行命令,本地、離線運行大模型
GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起開了個會
大模型如何應用于知識圖譜補全
王小川大模型首亮相!70億參數(shù)霸榜,清北搶先用|獨家專訪
通過LLaMA-Factory可對源2.0基礎模型進行微調
沒有RTX 4090怎么辦?用Ollama來玩LLM吧!
更多類似文章 >>
生活服務
熱點新聞
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服