在780M核显笔记本上通过LM Studio本地化部署DeepSeek大模型

本来想用Ollama部署LLM,但我下载启动Ollama后发现官方不支持我的Radeon 780M核显(gfx1103): 123456789101112C:\Users\lincannm>ollama serve2025/02/01 18:01:29 routes.go:1187: INFO server config env="map[CUDA_VISIBLE_DEVICES: GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRID...

摸鱼

创建了一个基于Hexo和Vercel的博客!

春节快乐🎉🎉!突发奇想想搞个博客网站,于是就花了15块钱(首年)买下 linc.work 这个域名,通过 Hexo + Redefine主题 + Github + Vercel 搭建了这个网站(另外通过 LeanCloud + Vercel 搞了文章下的 Waline 评论系统)。

摸鱼