首页
友情链接
全景相册
随机剧照
本站声明
壁纸
Search
1
diffusers-image-outpaint,智能扩图工具,懒人包,有更新
7,940 阅读
2
AIGC数字影像馆,键盘摄影大师(一键懒人包)
3,719 阅读
3
台湾-景(阿里山,101,故宫,日月潭)
2,939 阅读
4
三款离线OCR对比(供下载)
2,921 阅读
5
九寨沟
2,781 阅读
摄影类
茶余饭后
软件类
登录
Search
标签搜索
AI
园博园
锦绣园
五一
甘坑
重庆
大模型
荔枝公园
开源
懒人包
台湾
相机
大梅沙
沙井
大沙河
南头古城
锦绣中华
博物馆
一个公园
卡点
傻木摄影
累计撰写
599
篇文章
累计收到
135
条评论
首页
栏目
摄影类
茶余饭后
软件类
页面
友情链接
全景相册
随机剧照
本站声明
壁纸
搜索到
599
篇与
» 傻木
的结果
什么是馍?什么是型?什么是大馍型?AI大模型解惑
2024年05月11日
281 阅读
0 评论
0 点赞
2024-05-11
什么是馍?什么是型?什么是大馍型?AI大模型解惑 馍就是吃的馍馍  型就是很有型的人做馍馍 例如下图中的男馍 意思是一个很有型的男人在做馍  那么AI大模型又是啥玩意? 我们分开来说 AI是什么? 人工智能(Artificial Intelligence,简称AI) 是一门研究如何使计算机能够模拟和执行人类智能任务的科学和技术领域。 它致力于开发能够感知、理解、学习、推理、决策和与人类进行交互的智能系统。 人工智能的背景可以追溯到上世纪50年代,最初集中在基于规则的推理和专家系统的开发上。 随着计算机技术和算法的进步,尤其是机器学习和深度学习的兴起,人工智能开始迎来爆发式的发展。 大模型是什么? 大模型(Large Model),也称基础模型或Foundation Model,是指具有大量参数和复杂结构的机器学习模型。 它们能够处理海量数据、完成各种复杂的任务,如自然语言处理、计算机视觉、语音识别等。 大模型通过大量的数据和参数进行训练,以生成人类类似的文本或回答自然语言的问题。 超大模型是大模型的一个子集,它们的参数量远超过大模型。 大模型的种类 大模型按照输入数据类型和应用领域主要可以分为以下几类: 语言大模型(NLP):在自然语言处理领域中使用的大模型,如GPT系列、Bard、文心一言等。 视觉大模型(CV):在计算机视觉领域中使用的大模型,如VIT系列、文心UFO、华为盘古CV等。 多模态大模型:能够处理多种不同类型数据的大模型,如DALL-E、悟空画画等。 通用大模型 L0:可在多个领域和任务上通用的大模型,具有强大的泛化能力。 行业大模型 L1:针对特定行业或领域的大模型,相当于AI成为“行业专家”。 垂直大模型 L2:针对特定任务或场景的大模型,提高在该任务上的性能和效果。 适合本地部署的大模型及电脑配置要求 本地部署大型AI模型对电脑配置有一定要求,尤其是对GPU的显存和内存有较高需求。 以下是一些适合本地部署的大模型及基础配置推荐: 3B/7B/13B大模型:适合个人本地部署,对配置要求适中。 数字后面的B意思是10亿,3B则表示这个模型有大约30亿参数 一般推荐7B开始,小于7B的智商着急,大于7B的硬件资源消耗着急 我自己电脑4060 8gb显存,7B RWKV模型巨卡无比 CPU:10代I3或以上均可 AI时代的CPU就是打酱油的,可以理解为有个cpu就行 内存:16GB - 128GB,一般是显存的两倍左右。目前16gb远不能满足AI使用,基础配置建议32gb起步 我电脑32gb内存,转换7B模型时实际需要40gb内存,所以不要在说真的需要这么大内存吗,32gb已经是极低起步要求了 硬盘:M.2 SSD 512GB 如今各种模型层出不穷,动不动十几GB甚至几十GB,磁盘不建议小于512,有条件的建议直接2TB起步 GPU:至少4060 16GB显存,若要微调则至少应该配置4090 24gb 这个显卡还不能做的全参微调,仅能够支持极为有限的微调 大模型的本地部署可以为研究人员和开发者提供强大的工具,但同时也带来了对硬件配置的挑战。 合理规划硬件资源、关注数据质量、保证系统稳定性是成功部署的关键。 随着技术的不断进步,未来可能会有更多高效且易于部署的大模型出现,进一步推动AI技术的发展和应用。 目前我自己常用的模型是Meta Liama3 中文量化版 Llama-3-8B-Q4-K-M.gguf 模型参数 8B 量化参数 Q4-K-M 模型体积 4.8gb 显存消耗 6gb 每秒吐字 8-12 Tok/s https://hf-mirror.com/ 模型可以在这个站点自己搜索 关键词加上gguf [https://hf-mirror.com/QuantFactory/Meta-Llama-3-8B-GGUF/tree/main](https://hf-mirror.com/QuantFactory/Meta-Llama-3-8B-GGUF/tree/main) 例如我下载的是这个  上图中框起来这么多,实际都是同一个模型 只是量化参数不一样 根据自己电脑配置下载 原则上模型体积越大,质量越好 但是体积越大,对资源要求越高 例如我电脑显卡8gb显存,除去系统占用1gb 下载5gb左右的最合适 再小,质量太低 再大,明显不流畅 例如我下载了llama3 70b Q1量化版本,模型体积不到16gb 一样可以跑起来 两秒钟回答一个字 有毛线用吗 严重影响体验  以下是推荐加载gguf模型的工具,都是免环境配置,在windows上双击运行之类的 三个都是英文界面 LM Studio koboldcpp llamafile 另外在推荐一个国产的 RWKV 这个就是傻瓜式,有详细使用说明,中文,免费,开源 RWKV Runner https://github.com/josStorer/RWKV-Runner 或者同源的 ai00_server https://github.com/Ai00-X/ai00_server
立夏拍花试镜
2024年05月05日
324 阅读
0 评论
0 点赞
2024-05-05
立夏拍花试镜 至少花不会迟到 管你去不去 花就在那里 老家谚语 立夏不下----无水洗耙 意思是,立夏这天,怎么都得下点雨意思意思 如果一滴不下,那么今年就是个旱年            
2024-05-03
傻木摄影_文件批量重命名
傻木摄影_文件批量重命名 这个算是极简版且功能绝对够用的 界面是丑了点 纯自用 用于批量更改文件名 例如,原始文件名为: DSC_8722.jpg 可以在原始基础文件名中做出任意更改 例如将DSC替换成Sam得到 Sam_8722.jpg 保留原始文件名情况下,增加前缀得到 1-DSC_8722.jpg 或者删除前四位得到 8722.jpg 或者删除后两位得到 DSC_87.jpg 或者更改后缀名 DSC_8722.MP3 点击浏览按钮,载入需要批量改名的文件夹 文件目录不为空情况下,点击文件夹栏,即可打开这个文件夹 在我看来这个工具已足够简洁明了,我用起来不需要教程 如有不明,可以自己多尝试几次 如果之前有下载,请下载2024-4-10日更新版本 优化了自动复制和粘贴逻辑 双击列表中的文件即可打开 14日再次更新,列表中点击右键,显示打开,或删除选项 经测试,本软件有些小bug,正常情况下使用无问题,特殊情况下会出现异常 不打算修复了,不影响我使用 2024-05-03 更新,列表框不再显示文件夹,只显示文件名 删除了程序打开和关闭时的效果  [点我下载_文件批量重命名.rar](/usr/uploads/2024/05/2741630985.rar)
2024年05月03日
257 阅读
0 评论
1 点赞
2024-05-02,深圳工业展馆
2024年05月02日
248 阅读
0 评论
0 点赞
2024-05-02
2024-05-02,深圳工业展馆 一直心心念念要去工业展 这次趁着五一放假 环境挺好 因为偏向工业化 人不是很多 可以见识到很多平时见不到的 都是深圳市知名企业的当家花旦               还去了书店 忘记书店名字了 深圳书店还是挺多的 环境也都很好 非常适合打卡拍照      
2024-04-28
离线AI能蠢到什么地步?
离线AI能蠢到什么地步? 最近几天各家AI大模型你家唱罢我登场 那叫一个忙的不亦乐乎 先是Meta Liama3 系列 从8b到70b 着实火了一把 从一发布开始的当天晚上就有网友放出中文量化版 整天说被限制了买不到高端显卡 给我的感觉就是这届网友真有钱 这位大佬指定家里有矿,A800,还是4张,每张80GB显存,羡慕嫉妒恨啊  跟着微软的phi3 mini3b模型也发布了 模型太小,基本就是个摆设 阿里巴巴也发布了qwen 110b大模型,这个真牛逼 牛逼到上面那四张A800才跑的动,也只是勉强跑的动 民用显卡根本不敢说话 就连一向闭口不谈AI的苹果公司也按捺不住 而且一口气发布了4个模型 当然了,也是看客级别的 近几天着重测试了Meta Liama3 8B版本 寻常问题都是对答如流的 就这个体量的模型,有这个能力,已经很不错了 当然还有巨大的潜力 今天我给模型下达了几乎不可能的任务 看起来模型完成的非常好 不信你跟着往下看       模型大概被我气到了  已经泣不成声了  几乎不能回答完整了  如果需要我打分的话,给40分吧,满分120分的那种 我认为未来一年优化后可能达到70分左右 结论就是,目前离线模型几乎没什么用 再等一年吧,一年后估计有较大改观
2024年04月28日
335 阅读
0 评论
0 点赞
2024-04-24
目前生成式AI最大的短板是什么?
目前生成式AI最大的短板是什么?  如图 最大的短板应该是默契 你不懂我 就算放一本百科全书加一本康熙字典在你面前你一样看不懂我 如果有默契 一个眼神就足以说明一切 例如下表格式,一个问卷调查,共8题,每题有多个备选项,至少需要选择3项  我需要做出统计,如下表,某一题中的各个问题被选择了多少次  对此,我将Excel表单基础数据整理好了,并且写了一份我的需求,如下: 第一页回收,是问卷结果集8列(共8个问题) 第二页统计表单的8个问题和对应的可选项,以及统计列,对应的是第一页的问卷结果集 我需要分析第二页的每一个答案,在第一页中的被选择了多少次 问卷一共收回了152份第7题为例, 选中关爱会主席的2个, 选择关爱委员会成员26个, 选择活动小组团长的6个, 选择活动小组政委的12个, 以上角色均不参加的106个 合计152个 我需要在第2页的统计表单做出统计, 意思是每一题中的每一个问题, 例如 M列的打造ABP文化建设和N列的计数, 每个问题在第一页中被选中了多少次。 数据清洗:将第一页的回收数据(152份问卷)与第二页的题目及可选答案进行对比,确保数据的一致性和准确性以第7题为例。 数据拆分:根据第二页的题目,将第一页的每个问题的答案拆分成对应的可选答案。 例如,如果第二页的第7题有四个可选答案(关爱会主席、关爱委员会成员、活动小组团长、活动小组政委),我们需要将第一页的相应答案拆分成这四个部分。 数据匹配:将拆分后的答案与第二页的可选答案进行匹配,统计每个可选答案在第一页中被选中的次数。 以第7题为例,我们需要执行以下操作: 确认第一页中第7题的答案分布情况。 将答案拆分成四个部分:关爱会主席、关爱委员会成员、活动小组团长、活动小组政委。 对于每个部分,统计在第一页中被选中的次数。例如,关爱会主席被选中2次,关爱委员会成员被选中26次,等等。 在第2页的统计表单中, A列是问题,b列是对A列的统计 同样,C列问题,D列是对C列的统计.... 对于每个可选答案,统计其在第一页中被选中的次数。 重复以上步骤,为第二页的每个题目创建统计表单。 先是问了智谱轻言 各种回复乱七八糟 百度则摆烂,直接不支持excel 月之暗面更简单了,直接罢工
2024年04月24日
228 阅读
0 评论
0 点赞
MAC_8GB内存到底够不够用?
MAC_8GB内存到底够不够用? windows垃圾回收机制非常糟糕 每次系统升级带来的都是堆砌硬件 CPU+内存 加上现在AI带来对显卡无穷无尽的需求 还有随之水涨船高的存储需求 前面一波虚拟货币炒的显卡硬盘跌宕起伏 后面跟着AI 好歹AI对人类对社会是有用的 搞不懂虚拟货币有什么用 纯属浪费社会资源 扯远了 现阶段各种软件优化不到位 尤其是鹅厂 根本不在乎用户感受 各种程序常驻后台 QQ、微信、企业微信、等等 每个程序至少占用500mb内存 再加上系统开机2gb内存 以及常用的办公软件,邮箱,excel,浏览器等等 还有些erp,以及各种其他工具 8gb已经远远不够用了 万恶的MAC依然大言不惭的飚狠话说8gb依然够用 你是没有经过社会的毒打 说什么MAC8gb=win16gb 这一定是脑子被门夹了才会说这样的蠢话 什么是gb? 字节度量单位 好比一个水桶 MAC的8gb就相当于一个8升的水桶 但是质量尤其好 不光装水 装沙子装石头都能胜任 但是 但是,只能装8升 毕竟容量就这么大 哪怕你优化的再好 那也就这么大 怎么就等于隔壁16升大桶了?
2024年04月24日
239 阅读
0 评论
0 点赞
1
...
35
36
37
...
86
网站版权本人所有,你要有本事,盗版不究。 sam@gpcb.net