開源 LLMs:使用 RAG 在本地實現未經審查和安全的 AI

私人 ChatGPT 替代方案:Llama3、Mistral a。更多功能呼叫、RAG、向量資料庫、LangChain、AI-Agents

從這 10 小時的課程,你會學到

  • 為什麼選擇開源 LLMs?開源和閉源 LLMs 的差異、優點和缺點
  • ChatGPT、Llama、Mistral、Phi3、Qwen2-72B-Instruct、Grok、Gemma 等 LLMs 是什麼?
  • 有哪些 LLMs 可供選擇以及我應該使用什麼?尋找“最好的 LLMs”
  • 在本地使用開源 LLMs 的要求
  • LM Studio、Anything LLM、Ollama 以及操作 LLM 的替代方法的安裝和使用
  • 審查對比未經審查的 LLMs
  • 使用 Huggingface 或 Google Colab 微調開源模型
  • 具有開源 LLMs 的視覺(圖像識別):Llama3、Llava 和 Phi3 Vision
  • 硬體詳細資訊:GPU 卸載、CPU、RAM 和 VRAM
  • 關於 HuggingChat:使用開源 LLM 的介面
  • 提示工程中的系統提示+函數調用
  • 提示工程基礎:語意關聯、結構化和角色提示
  • Groq:使用快速 LPU 晶片而不是 GPU 的開源 LLM
  • 向量資料庫、嵌入模型和檢索增強生成 (RAG)
  • 使用 Anything LLM 和 LM Studio 建立本機 RAG 聊天機器人
  • 連結 Ollama 和 Llama 3,以及使用 Llama 3 和 Anything LLM 進行函數調用
  • 使用 Python 呼叫函數來匯總資料、儲存和建立圖表
  • 使用 Anything LLM 和外部 API 的其他功能
  • 使用 Firecrawl 獲取網站數據的更好 RAG 應用程式、使用 LlamaIndex 和 LlamaParse 獲取 PDF 和 CSV 的更高效 RAG 的技巧
  • AI 代理的定義和可用工具,透過 Node 在本機安裝和使用 Flowise(比 Langchain 和 LangGraph 更容易)
  • 建立生成 Python 程式碼和文件的 AI 代理,並使用具有函數呼叫、網路存取和三個專家的 AI 代理
  • 託管與使用你應該建立哪種 AI 代理以及使用 Google Colab 進行外部託管、文字轉語音 (Text-to-Speech,TTS)
  • 使用 Google Colab 微調開源 LLMs(Alpaca + Llama-3 8b、Unsloth)
  • 透過 Runpod 或 Massed Compute 租用 GPU
  • 安全方面:越獄和對 LLMs 的越獄、即時注入和資料中毒攻擊帶來的安全風險
  • 資料隱私和資料安全,以及商業使用和銷售產生內容的政策

要求

  • 無需先驗知識;一切都會一步步顯示出來。
  • 擁有一台配備良好顯示卡、16 GB RAM 和 6 GB VRAM(Apple M 系列、Nvidia 和 AMD 是理想的)的 PC 是有利的,但這不是強制性的。

課程說明

ChatGPT 很有用,但你是否注意到有許多受審查的主題,你被推向某些政治方向,一些無害的問題得不到解答,而且 OpenAI 可能不保證我們的資料安全?這就是 Llama3、Mistral、Grok、Falkon、Phi3 和 Command R+ 等開源 LLM 可以提供幫助的地方!

你準備好掌握開源 LLMs 的細微差別並充分利用其在從數據分析到創建聊天機器人和人工智慧代理的各種應用程式中的潛力了嗎?那麼這門課程適合你!

開源 LLMs簡介

本課程全面介紹開源 LLMs 的世界。你將了解開源和閉源模型之間的差異,並了解為什麼開源 LLMs 是一個有吸引力的選擇。將詳細介紹 ChatGPT、Llama 和 Mistral 等主題。此外,您還將了解可用的 LLMs 以及如何選擇最適合你需求的模式。本課程特別強調閉源 LLMs 的缺點以及 Llama3 和 Mistral 等開源 LLMs 的優缺點。

開源 LLMs 的實際應用

本課程將指導你以最簡單的方式在本地運行開源 LLMs,以及此設定所需的內容。你將了解先決條件、LM Studio 的安裝以及操作 LLM 的替代方法。此外,你將學習如何在 LM Studio 中使用開源模型,以了解審查和未經審查的 LLMs 之間的區別,並探索各種用例。本課程還涵蓋使用 Huggingface 識別或 Google Colab 微調開源模型以及使用圖像視覺模型。

Prompt Engineering 和雲端部署

本課程的一個重要部分是開源 LLMs 的提示工程( Prompt Engineering )。你將學習如何使用 HuggingChat 作為介面,在提示工程中使用系統提示,以及應用基本和進階提示工程技術。本課程還提供了有關在 HuggingChat 中創建自己的助手以及使用具有快速 LPU 晶片而不是 GPU 的開源 LLM 的見解。

函數呼叫、RAG 和向量資料庫

了解 LLMs 中的函數呼叫是什麼以及如何實現向量資料庫、嵌入模型和檢索增強生成 (retrieval-augmented generation,RAG)。本課程向你展示如何安裝 Anything LLM、設定本機伺服器以及使用 Anything LLM 和 LM Studio 建立 RAG 聊天機器人。你還將學習使用 Llama 3 和 Anything LLM 執行函數呼叫、匯總資料、儲存資料並使用 Python 將其視覺化。

優化和人工智慧代理

為了優化你的 RAG 應用程式,你將收到有關資料準備和有效使用 LlamaIndex 和 LlamaParse 等工具的提示。此外,你還將了解人工智慧代理的世界。你將了解什麼是 AI 代理、可用的工具以及如何透過 Node.js 在本機安裝和使用 Flowise。該課程還提供了創建生成 Python 程式碼和文件的 AI 代理程式以及使用函數呼叫和網際網路訪問的實用見解。

其他應用程式和訣竅

最後,本課程介紹了使用 Google Colab 進行文字轉語音 (TTS) 以及使用 Google Colab 微調開源 LLMs。如果你的本地 PC 不夠用,你將學習如何從 Runpod 或 Massed Compute 等提供者租用 GPU。此外,你還將探索 Microsoft Autogen 和 CrewAI 等創新工具,以及如何使用 LangChain 開發人工智慧代理( AI agents. )。

利用開源 LLMs 技術的變革力量來開發創新解決方案並擴展你對其多樣化應用的理解。立即註冊,開始你成為大型語言模型領域專家的旅程!

目標受眾

  • 致所有想要學習新知識並深入了解 RAG、函數呼叫和 AI 代理的開源 LLM 的人
  • 對於想要提高效率並節省資金的企業家
  • 致開發人員、程式設計師和技術愛好者
  • 對於任何不想受到大型科技公司的限制並希望使用未經審查的人工智慧的人

講師簡介

Arnold Oberleiter 你的講師

我是 Arnold – “Arnie’ Oberleiter”,一位充滿熱情的人工智慧領域講師。

我的目標是與你分享我對人工智慧的知識和熱情。我堅信,對人工智慧的深入理解可以在我們這個科技驅動的世界中提供巨大的優勢。自 2018 年至 2019 年以來,我一直參與 LLM( ChatGPT 背後的技術),當時是從 BERT 和 GPT-2 開始的。

除了人工智慧之外,我對交易、宏觀經濟學、加密貨幣和投資也充滿熱情。金融世界因其複雜性、潛在的心理學和技術而令我著迷。

在我的課程中,你不僅可以受益於我的專業知識,還可以受益於我隨時回答你的問題並陪伴你的學習之旅。

我期待歡迎你參加我的課程,並與你一起探索令人興奮的人工智慧和金融世界。

溫暖的問候,

你的導師 Arnie

字幕:日本語、英文

  • 想要了解如何將英文字幕自動翻譯成中文? 請參考這篇 How-To

  • Udemy 永久擁有課程 ⏳特價中 NT310 起(點擊連結看更多)
  • 年訂閱每月 NT350限時再20% off 中=NT280/月 < USD10/month) 🌈 悠遊 Udemy 的 26000+ 門課,最大化學習 ( 原價 NT635/月 )
  • Udemy 現在越來越多課程有中文字幕,請參考 Soft & Share 中文線上課程
  • 手機上點選優惠連結看到的價格比電腦上看到的貴
  • $代表當地貨幣, 如在台灣為 NT
  • 點選”報名參加課程”有可能因瀏覽器 cookies 轉久一點或回報錯誤而無法連上,請稍等刷新或重新點選就會出現

報名參加課程

Sponsored by Udemy


也許你會有興趣

不受 FB 演算法影響,歡迎透過 e-mail 訂閱網站更新

發表迴響

這個網站採用 Akismet 服務減少垃圾留言。進一步了解 Akismet 如何處理網站訪客的留言資料

由 WordPress.com 建置.

Up ↑

探索更多來自 Soft & Share 的內容

立即訂閱即可持續閱讀,還能取得所有封存文章。

Continue reading