阅读视图

发现新文章,点击刷新页面。

DeepSeek本地部署以及使用体验

最近,国内一家名为DeepSeek的初创公司通过技术迭代与升级,推出了全新一代大模型“DeepSeek-V3”。这款大模型因其卓越的性能和易用性,迅速在AI爱好者中引起了广泛关注。更令人瞩目的是,DeepSeek R1版本直接免费开源,这一举动迅速在AI发烧友圈中传播开来,并迅速扩散到海外社交平台和技术论坛。海外网友对此纷纷表示赞叹,称其为AI领域的一大突破。

它的研发成本大概600万美金,不到openai的1%,各项性能指标更是和OpenAI-o1 模型不相上下,甚至做到了小部分的超越,关键是开源的,我们可以本地部署使用。

本地部署,我们可以通过Ollama来进行安装

Ollama 官方版:点击前往

Web UI 控制端【点击安装

安装命令

1.5B Qwen DeepSeek R1

ollama run deepseek-r1:1.5b

7B Qwen DeepSeek R1

ollama run deepseek-r1:7b

8B Llama DeepSeek R1

ollama run deepseek-r1:8b

14B Qwen DeepSeek R1

ollama run deepseek-r1:14b

32B Qwen DeepSeek R1

ollama run deepseek-r1:32b

70B Llama DeepSeek R1

ollama run deepseek-r1:70b

DeepSeek和chatgpt比较,我就本地部署deepseek的时候想了一个问题,比较一下确实能分出高低,deepseek马上猜出我的电脑配置,而chatgpt没有,虽然我的电脑售卖的时候是有好几种内存和显卡配置的,当然,我的问题最好写得更具体,当我就应该是不懂的那种:

问题:

我的电脑是Lenovo Legion R7000 2020,帮我推荐安装哪个deepaeek模型:

DeepSeek回答:

根据 Lenovo Legion R7000 2020 的硬件配置(通常是 16GB 内存 + GTX 1650/1660 Ti 显卡),建议选择较小的模型,因为较大的模型需要更多的显存和计算资源。以下是适合你电脑配置的推荐:

推荐选择:

  1. 1.5B Qwen DeepSeek R1
    • 模型较小,适合 16GB 内存和 GTX 1650/1660 Ti 级别的显卡。
    • 运行速度快,对硬件要求较低。
    • 命令:ollama run deepseek-r1:1.5b
  2. 7B Qwen DeepSeek R1
    • 如果你的显卡显存较大(如 6GB 以上),可以尝试 7B 模型。
    • 可能需要降低批处理大小(batch size)以避免显存不足。
    • 命令:ollama run deepseek-r1:7b
  3. 8B Llama DeepSeek R1
    • 类似于 7B 模型,适合显存较大的配置。
    • 命令:ollama run deepseek-r1:8b

不推荐选择:

  • 14B、32B、70B 模型
    这些模型对显存和计算资源要求非常高,通常需要 24GB 以上显存的高端显卡(如 RTX 3090、A100 等),不适合你的电脑配置。

总结:

如果你的显卡显存较小(如 4GB),建议选择 1.5B 模型;如果显存较大(6GB 以上),可以尝试 7B 或 8B 模型。运行前请确保安装了最新的显卡驱动,并关闭不必要的后台程序以释放资源。

chatgpt回答:

要选择适合你 Lenovo Legion R7000 2020 配置的本地 AI 模型,主要需要考虑你的计算机硬件配置,尤其是显卡(GPU)和内存(RAM)的性能。你提供的机器大致配置应该包括较强的处理能力,但具体能跑哪些模型,取决于内存和显卡性能。

通常来说,模型越大,占用的显存和内存就越多。如果你的电脑配备了高性能的显卡(例如 NVIDIA RTX 3060 或更高),并且有足够的内存(16GB 或更高),可以考虑使用较大的模型。以下是对比这些模型的建议:

1. 1.5B Qwen DeepSeek R1

  • 适用条件:这是一个相对较小的模型,对显卡和内存要求较低。基本上,几乎所有配置的电脑都可以运行它,特别适合资源有限的机器。

2. 7B Qwen DeepSeek R1

  • 适用条件:虽然较大一些,但如果你的电脑有较强的 GPU(比如 RTX 3060 及以上)和至少 16GB 内存,它是一个可以运行的模型。

3. 8B Llama DeepSeek R1

  • 适用条件:这个模型对显卡要求更高,可能需要更多的显存和更快的 GPU。如果你的电脑配备了强大的显卡和 16GB 以上的内存,可以考虑。

4. 14B Qwen DeepSeek R1

  • 适用条件:这个模型较大,通常需要更强的 GPU 和较大的内存(可能需要 24GB 或更高的显存)。适合高端配置的机器。

5. 32B Qwen DeepSeek R1

  • 适用条件:32B 的模型非常庞大,可能需要顶级显卡和至少 32GB 内存。一般来说,普通玩家的机器可能难以运行此类模型。

6. 70B Llama DeepSeek R1

  • 适用条件:这是一个极为庞大的模型,只有配备顶级硬件的机器(例如 A100 GPU 或等效硬件)才能够高效运行此类模型。普通游戏笔记本不适合运行如此大的模型。

综合建议:

  • 如果你有较好的 GPU(例如 RTX 3060 或更高)和 16GB 或更多内存,7B Qwen DeepSeek R18B Llama DeepSeek R1 会是比较合适的选择。
  • 如果你是低端显卡或内存较少的配置,选择 1.5B Qwen DeepSeek R1 会更为合适。

最终选择哪个模型,还是要依据你电脑的具体硬件配置来决定。如果你不确定具体的硬件要求,可以先尝试运行小模型,看是否能够稳定运行,再逐步增加模型的规模。

代码测试:

对我来说,更多的是在编程方面的应用,这也是为什么,本来ai可以帮助写作的这段期间,写作应该更简单更快,但我的博客更新率反而降低,因为我最近几乎都在用ai编程,忙得停不下来,最近又做了一套预约系统(客户需求),一个不精通编程的人,因为有了ai便有了希望。

目前利用ai编程,尤其是我这样的水平,很多时候需要丢一大堆代码来进行功能的添加,为的也是不想拆分一段段的代码去解释和修改,虽然ai也能给你答案,但是折腾起来挺费时费力,所以一开始就要想好全部需要的功能,一次性让ai都考虑在内,当然,如果你的系统太复杂,目前有些ai免费版输出的代码有字数限制。

根据我目前的使用心得,在deepaeek还没出来的时候,claude.ai的编程能力最强,但由于字数限制,有经常还得把代码搬到kimi.ai那边去继续修复,kimi.ai主要特点是输出内容比较长,但是编程能力相对会低一些,现在由于deepseek的出现,经过测试,输出内容好像比kimi.ai更长,编程能力和claude不相上下,我测试过一段mercadopago的支付,写出来的代码可用,说明编程能力还是可以的,虽然感觉过去和claude还是有一丁点差距,不过已经非常好了,至少是免费而且没有限制,真的狂喜。

我也看到过做中文文案的人的评测,说DeepSeek的中文能力比chatgpt强,语言组织上更适合中国人的思维,这点也是做自媒体文案的人的总结。

这几天因为deepseek太火,以至于受到海外的网络攻击,也因为访问量太大,各种卡顿,所以本地部署也是一个选择,经过测试,配置选择越大效果会越好。

解决福建地区无法访问网站及无法显示Gravatar头像的问题

最近终于抽出时间来整理我的博客,并解决了一个令我头疼的问题:由于服务器位于海外,我的博客在福建地区无法访问。经过一番调查,我发现这是因为泉州防诈骗中心屏蔽了大部分海外服务器(尝试了其他城市访问正常),导致包括手机宽带、电信、联通、铁通以及移动在内的福建所有网络都无法访问。然后我搜到有人微信上关注了防诈中心并提交了网站申诉,这样福建的用户就能够正常访问我的博客了。

昨天提交申诉,今天博客就能访问了,效率还是挺高。

然而,访问恢复后,我遇到了另一个问题:Gravatar头像无法显示。

解决方法:

自己修改,把gravatar的服务器改成国内的cravatar.cn服务器即可。

另外祈祷不要再有其他xx城市的防诈骗中心。

OK,废话少说,马上进入正题,如何修改?

functions.php 文件中添加这段代码即可:

// 定义 my_get_avatar 函数
function my_get_avatar($avatar_url) {
// 替换为新的CDN地址
$new_avatar_url = str_replace('secure.gravatar.com', 'cravatar.cn', $avatar_url);
// 返回新的头像URL
return $new_avatar_url;
}

// 添加钩子到 get_avatar 过滤器
add_filter('get_avatar', 'my_get_avatar');

最后,我计划恢复博客的更新频率。在四处浏览时,我发现许多博客的头像都显示异常。如果不申诉,这些博客在福建的读者将无法正常访问。希望我的解决方案能对遇到类似问题的博主有所帮助。

ChatGPT4 非美国信用卡成功支付

我记得之前尝试过几次都不行,听说只能是美国的信用卡才可以,差点尝试充值美国虚拟信用卡,期间也有想过找朋友帮忙支付,但后来都打消念头了,关于金钱这种涉及到敏感和隐私的事情,还是不想麻烦别人,还是继续用3.5,也够用,就是问的时候需要解释得非常清楚才可以得到准确的答案,这点很重要。

zww兄弟在我这里吐槽说,当你问一堆沙加上一堆沙等于?的时候,chatgpt3.5会回答是两堆沙,这或许就是得问得更具体才可以得到正确答案。

试着问3.5版本:问一堆沙加一堆沙的答案还是一堆堆沙,这种问题需要怎么问chatgpt才能正确回答是一堆沙?

3.5版本回答:

为了正确回答"一堆沙加一堆沙的答案还是一堆堆沙"这个问题,你可以问ChatGPT类似于以下几种问题:

  1. "两堆沙相加是什么?"
  2. "当你把一堆沙和另一堆沙放在一起时,会是什么?"
  3. "描述一堆沙加上另一堆沙的情况。"

这些问题会引导ChatGPT回答两堆沙合并后仍然是一堆堆沙的事实。请注意,有时候要通过巧妙的问法来获得准确的回答,特别是当问题涉及语义或逻辑方面的考虑时。

然后你用它说的去问,果然都会得到正确答案。

而4.0当你问一堆沙加上一堆沙等于?它直接就回答:
"一对沙加上一堆沙"的结果就是更大的一堆沙。在描述这种情况时,"一对"和"一堆"的精确数量是未定义的,因为"沙"通常不被计数。这是类似于说"一些"或"一堆"这样的定量术语。所以这个问题的答案在实际上会取决于"一对"和"一堆"沙的实际数量。

所以,4.0可以说理解力更强些。

就在刚才,我重新登录几次,chatgpt突然会提示让我使用哪个版本回答问题,我选择了chatgpt4,然后就使用阿根廷的信用卡付款成功了。

目前提示说,每3个小时限制50个消息,现在暂时先用用吧,大家也可以试试是否可以升级付费了。

免费使用chatGPT 4的5种方法

一直想用chatGPT4,但没办法购买,随着时间的推移,终于可以以各种途径免费用到chatGPT4,以下是五种方法免费使用CHATGPT4。

1.ForeFront AI 【链接

2.Microsoft 新版必应 【链接

3.Microsoft SwiftKey Beta 【链接

4.Ora.ai【链接

5.HuggingFace ChatGPT-4【链接

说实话,它帮了我很多编程的大忙,哈哈,chatGPT4版本更厉害,有时候你在3.5版本那边问半天都没有解决,在4这边一下子就给出准确的代码。

❌