简介
Hugging Face 是一个专注于自然语言处理(NLP)的人工智能公司,同时也是一个非常活跃的开源社区。它提供了丰富的预训练模型和数据处理工具,知名的 Stable Diffusion、DeepSeek 等也都开源在上面。
Hugging Face 主要特点包括:
- 预训练模型库:Hugging Face提供了大量先进的预训练模型,涵盖了各种NLP任务开源的Transformers 库和Diffusers库:Hugging Face的transformers库和diffusers库提供了简洁易用的API,可以帮助开发人员在几个步骤内训练、测试和优化自己的 NLP 模型。模型架构与支持:Hugging Face支持多种深度学习框架,包括 TensorFlow、PyTorch 和 JAX等,不断推出新的模型架构,以改进各种NLP任务的性能。社区和开放性:Hugging Face提供了一个活跃的社区,让 NLP 开发人员可以分享和发现代码、模型和数据集。
官网
官网地址:huggingface.co
优势
- 免费账户提供100G免费存储空间提供免费 2核16GB CPU
限制
- 需要科学上网免费用户只能使用Zero GPU 4分钟
注册登录
没有Hugging Face账号,可以在Hugging Face官网首页点击【Sign UP】进行注册,通过人机验证进入注册页,输入邮箱和密码进行注册
已有账号,直接在Hugging Face官网首页点击【Log In】进行登录
注册登录成功后即可进入Hugging Face
基本功能
Models(模型)
在Hugging Face官网点击【Models】进入模型列表页面,可以看到Hugging Face上目前已收录185万个模型,量级是非常的庞大的
面对庞大体量的模型,Hugging Face提供了 模型分类、模型检索、过滤筛选 等方式提供快速检索功能
这里以 DeepSeek-V3 为例进行检索,输入“deepseek-v3”找到需要的模型
进入模型详情,可以看到这里包含了模型的所有信息
在这里可以进行模型的测试,还包含模型的 训练、部署、api接入 等功能入口
如果想体验模型的高更多功能,可以点击【Open Playground】体验,首次使用需要输入Hugging Face token
配置完成后即可进入Playground
除了体验,还可以在【Files and versions】下载模型相关文件
Datasets(数据集)
在Hugging Face官网点击【Datasets】进入数据集列表页面,目前也已包含了44万个数据集
与Models一样,数据集列表也同样提供了多种筛选过滤的方式,选择一个数据集进入数据集详情
Spaces(空间)
Space空间是Hugging Face有一个重要的板块,是托管机器学习演示应用代码的 Git 仓库,在Hugging Face官网点击【Spaces】进入空间页面,在这里可以创建自己的Space,也可以查找体验别人发布的AI应用
Space空间也提供了应用筛选条件帮助使用者快速查找应用
点击进入应用详情可以进行体验
点击应用底部的示例可以快速体验应用效果
当然也可以点击【New Space】创建自己的空间,下次再介绍。
Community(社区)
在Hugging Face官网点击【Community】进入社区页面,社区主要提供了 博客文章、Hub发帖、每日论文 3个板块,在这里可以了解到Hugging Face最新资讯。
产品定价
Hugging Face提供了免费和付费套餐:
- 免费套餐:
- 托管不限数量的模型、数据集和空间创建无限制的组织和私有 Repos访问最新的 ML 工具和开源社区支持免费CPU硬件支持
申请Access Tokens
Access Tokens在Hugging Face上是一个重要的鉴权方式,在以后通过Hugging Face Hub或者API与Hugging Face交互是一个不可获取的条件。
创建新的Access Tokens可以点击个人头像,选择【Access Tokens】进入Access Tokens列表,也可以直接访问链接直接进入:huggingface.co/settings/to…
点击【Create new token】创建一个新token
Hugging Face提供了 精细化配置、只读 和 只写 3种token类型,可以根据自己需要进行选择
配置完成后点击【Create token】创建
创建完成后将得到一个token,注意保存好该token,后续将不可再次查看
后续可在模型列表查看所有创建的token
友情提示
见原文:【Hugging Face】初识Hugging Face
本文同步自微信公众号 "程序员小溪" ,这里只是同步,想看及时消息请移步我的公众号,不定时更新我的学习经验。