深度學習模型在自然語言處理 (NLP) 領域中扮演著重要的角色,而調整模型的參數可以影響生成的文字風格和品質。在大語言模型中,Temperature
、Top-P
和 Top-K
是常見的參數,用於控制文字生成過程中的隨機性和創造性。我自己在開發 LLM 應用時,主要也都只會去調整 Temperature
而已,其實 Top-P
與 Top-K
很少去調他,因為每次調整都沒有什麼好結果,之前因為不太理解這兩個參數的真正含意,最後還是回歸預設值處理。這篇文章我打算好好的理一理這幾個參數的真正含意。
... 繼續閱讀 ...
我最近在嘗試多套 LLM 大語言模型,原本都採用 LM Studio 來實驗,但後來發現 Ollama 還蠻符合我需求的,而且非常容易上手,所以這篇文章我打算來分享一下 Ollama 的使用方式。
... 繼續閱讀 ...
我家裡有一張 NVIDIA GeForce RTX 2070 顯卡,每次在 Hugging Face 看到一些不錯的 AI 模型想在本機跑起來,無奈 GRAM 只有 8GB 而已,連個 7B 的 LLM 模型都跑不起來。上個月我在上海參加 2023 Google I/O Connect 大會,認識了一位 GDE 在 Lepton AI 工作,他們公司主要做 LLMOps
工具,可以無腦的將許多開源的 LLM 模型部署起來,而且還有免費的 GPU 資源可以使用,這樣就可以讓我們這些沒有太多 GPU 資源的開發者也可以輕鬆的玩 LLM 了。這篇文章我打算來介紹一下如何使用 Lepton AI 的工具在本機與雲端部署台灣最近釋出的 Taiwan-LLM-7B 模型。
... 繼續閱讀 ...