体验 Deepseek 后,我彻底改变了对 AI 的看法
一个正在尝试脱离低级趣味的人
Deepseek太火了,这几天无论打开某抖,某BiLi还是其他信息流,几乎两分钟就刷到一次Deepseek。
这让我这样的AI轻度使用者也不由的好奇起来,我也了解了一下Deepseek。
01
Deepseek R1模型与其他的AI不同,它是推理式回答,也就是会把回答时的每一步思考都写出来。
[图片上传失败...(image-fc4465-1738156539014)]
这很让我心动,使用其他AI的过程中,最让我烦恼的就是AI的回答往往是资料集合,不知道来源,还要一项一项去验证。
有一个很让我心动的是Deepseek R1提供了多种蒸馏的小模型,这就给较低性能的电脑的本地部署提供了可能。
本地大模型的好处不必多说,更好的隐私保护,也不会莫名其妙的被审查导致结果消失,没有网时也能用。
最重要的是永久免费,不用担心某天突然收费。
但缺点也很明显,那就配置要求较高。而我贫瘠的钱包让我心有余而力不足。
本来一直以为我的ThinkBook笔记本 ( 8845h 32G 无独显)是无缘本地大模型的,但DeepseekR1的公布让我有些蠢蠢欲动。
我一般只用AI写一些周报和搜集资料,基本是不需要本地部署的,但出于对于目前AI产品未来收费的担心,我还是想体验一下Deepseek R1的本地部署效果。
几乎没怎么折腾,很简单就安装部署完成了。
(安装过程放在文后)
02
我迅速体验了一下,初步的结论是:目前仍无法替代在线AI。
1、本地部署虽然可以在笔记本端运行,但仍受限于硬件水平,思考速度会慢。简单问题的思考在10-40s,较长问题的思考时间在70-80秒左右,整体的处理速度在11toks/s。
(并且我并没有跟它对话过拍照相关的问题,它错误的思考了这一点)
2、回答表现来说,已经让我非常惊艳了,问它一些稀奇古怪的问题也能回答的很好。但我本地部署的模型较小,还是无法达到在线的思考水平。
3、其实对于我这样的普通用户来说,在线AI仍是优于本地AI的选择。
隐私、审查、网络等问题,对于目前算力更充足、响应更快且目前仍免费的大模型AI来说,并不是不可舍弃的东西。
虽然说了不少缺点,但我认为,全面AI时代来临可能不远了。
原来的AI训练与调用都需要大量的能源与资源,尤其是显卡的成本很高。自带AI的笔记本往往是上万元的高端笔记本的专属功能。
但我的笔记本,只需要4600元(有国补),就可以较为流畅的运行AI大语言模型了。而相同配置的笔记本或小主机,目前最便宜三千多就可以入手了。我甚至看到有人用手机部署了1.5B的小模型。
作为一个非AI行业的普通人,我非常的的震撼。AI对硬件要求的降低,可能会带来更多的应用场景,也可能会有新的杀手级应用和新的企业崛起。
新的一年,我仍然看好AI。
(以上是仅为我作为非专业人士的个人看法,欢迎各位大神交流指导。)
03
下面附安装过程。
1、使用 Ollama+AnythingLLM的方式快速进行本地安装。
2.官网下载安装Ollama,官方安装包不支持直接改安装位置,要有足够的C盘空间。
安装完成后不会有界面跳出,右下角状态栏出现图标即安装完成。
3.按WIN+R,输入CMD,打开命令行,输入ollama run deepseek-r1:7b(可根据自己的配置选择模型)
12-16G显存推荐14B,24G显存推荐32B,由于笔记本性能有限,我这里安装的7B。
4.等待进度条到100%,就部署完成了。可以在命令行下和deepseek r1对话了。
5.为了我们小白更好的使用,我们要安装图形化界面。这里使用anythingLLM。同样官网下载。
6.按步骤安装后,打开软件,选择Ollama和deepseek模型。
7.然后就可以体验了,是不是很简单。
8.运行过程的资源占用。
看到这里,点个关注吧[ღ( ´・ᴗ・` )比心]
共有 0 条评论