9 分鐘閱讀

EchoMind:我獨立打造的 AI 實驗聊天室,想為聊天重新點火

你還記得「聊天室」最熱鬧的時代嗎?
曾經的它,是交朋友、聊天、分享生活最溫暖的地方。如今,它幾乎被演算法社群取代。

我一直在想:
如果把最新的 AI 技術放進聊天室,會不會重新變得好玩?

帶著這個念頭,我用半年時間,一個人從零打造了 EchoMind ——
一個能和 AI 一起聊天、一起探索、一起創造的實驗性聊天室。


為什麼做 EchoMind?

我想用 AI,為快消失的聊天室文化點一把新火

大多數 AI 都停留在一問一答、工具性、缺乏人味。
而聊天室,曾經是最有溫度的互動場域。

我開始想像:

🤖 如果 AI 是聊天室中的一個角色,而不是客服?
🔥 如果讓人類與 AI 一起聊天,而不是輪流輸入?
🎭 如果進聊天室就能擁有 AI 為你生成的獨特身份?

我想用 AI 重新賦予「聊天」新的形式。
EchoMind 就是這個念頭的實驗。


我如何讓 AI「像在聊天」

我想讓 EchoMind 的 AI 更像一個會聊天的角色,因此做了三件事:

  • Token 串流回覆(WebSocket)
    AI 不是等想完才回,而是像人在打字,一句一句出來,節奏更自然

  • Redis 短期記憶(依使用者)
    AI 會記住最近聊過的內容,不會每句都像第一次見面

  • RAG(Postgres + pgvector + BGE-M3)
    用向量搜尋補強知識,不只陪聊,也能講得準、有內容

這 3 件事的目標很簡單:
AI 不只是回你,而是能接你話、記得你、講得更貼近你。


技術架構亮點

EchoMind 的架構不是堆技術,而是為了能長大。

  • 前端:React + WebSocket
    多人聊天室、即時互動、AI 串流都在這層體現

  • 後端:Spring Boot
    管理房間、消息轉發、使用者狀態,並直接在 Java 生態執行 ONNX Runtime
    GAN 生圖放這層,是為了更順的進場體驗與更低延遲,並使用cpu推論onnx

  • AI 層:FastAPI(LLM + RAG)
    與聊天服務解耦,模型可替換,可擴展不同 AI 角色


我為什麼用 ONNX 在 Spring Boot 做生成?

我把 GAN 模型從 PyTorch 轉為 ONNX,並在 Spring Boot 直接推理,而不是放 AI 層,原因有兩個:

  • CPU推論我訓練的Gan速度非常快
  • 讓「進入聊天室就拿到角色」這件事更即時、更順暢。

這是一個 體驗優先 × 架構思考 的取捨:

  • 不用跨服務請求 → 延遲更低

  • 角色生成與登入體驗緊密結合

  • AI 層維持乾淨,專注對話與 RAG


部署與對外體驗:Cloudflare Pages × minikube × Cloudflare Tunnel

我希望 EchoMind 不只是「我自己能跑」,而是任何人都能直接體驗。
因此我採用了前後端分離且具產品化思維的部署方式:

  • 前端(React):部署於 Cloudflare Pages,由全球 CDN 加速提供 HTTPS 入口,同時具備 SEO 友善特性,讓使用者第一眼就像在使用正式產品

  • 後端(Spring Boot + ONNX、生圖、FastAPI、Postgres、Redis、Rabbitmq):運行在本機 minikube,保持低成本、高掌控度

  • 對外連線:透過 Cloudflare Tunnel 將後端 API 安全公開成自有子網域 api.bardcloud.online,不需公網 IP,也不用自己處理 SSL


如果你願意,我希望你能親自進來玩玩

🔗 Demo 入口:AI聊天室專案-EchoMind

💻 GitHub:前後端原碼, AI層原碼

如果你想聊聊這個專案、AI、產品開發,或你覺得我們可以激出什麼火花,歡迎找我。


使用教學

要使用ai功能需選擇Ai為說話對象

手機版

Screenshot-20251016-074031-Firefox

Screenshot-20251016-074059-Firefox

Screenshot-20251016-074136-Firefox

電腦版

1

2

畫柴犬教學

1.輸入「畫柴犬」至輸入框後送出

draw1

2.可點擊圖放大檢視

draw2

3.位於圖片右上角的X可關閉圖片

draw3

👍Demo

Streaming回覆

streaming.gif

Onnx柴犬成像圖片

柴犬1

柴犬2

上下文記憶

上下文記憶

IPhone17 rag回覆

iphone1

標籤:

更新時間: