Hugging Face 发布新闻:Hub 加入分类整理功能等更新

释放双眼,带上耳机,听听看~!
Hugging Face 最新发布的 Hugging News 包括 Hub 加入分类整理功能、模型显存计算器工具和文本生成中流式传输的优势。了解最新的 Hugging News,了解 Hugging Face 最新的产品和平台更新、社区活动和开源库更新。

每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉😍

🤗Hub 加入分类整理 (Collection) 功能

Hugging Face 发布新闻:Hub 加入分类整理功能等更新

现在你可以把任何你喜欢的模型 / 数据集 / Space 应用等按照自己的喜好进行分类整理和收藏。这个功能不仅对个人账号开放,同时对 Hub 上的组织账号也同样开放,Collection 会显示在个人或者组织的资料页面上,快去试试看吧!

查看文档: hf.co/docs/hub/co…

模型显存计算器

Hugging Face 发布新闻:Hub 加入分类整理功能等更新

模型显存计算器 (Model Memory Calculator) 工具,旨在帮助大家计算在 🤗 Hub上训练或运行大型模型所需的 vRAM(显存)。这个工具能在百分之几的误差内估算模型的显存需求。

最小推荐的 vRAM 是模型“最大层”的大小,而训练一个模型大约需要其大小的 4 倍显存 (考虑到 Adam 优化器)。在进行模型推理 (inference) 时,可能还需额外增加最多 20% 的显存。这个工具支持所有使用 transformers 和 timm 库的模型。使用时只需输入模型的 URL 或名字,选择其来源框架,以及你想使用的精度即可。
即刻体验: hf-accelerate-model-memory-usage.hf.space/

探索生物和化学方面的基座模型

Hugging Face 发布新闻:Hub 加入分类整理功能等更新

我们一位同事 Katie 正在收集生物和化学领域的基座模型的列表,我们看到绝大多数都是开源并且开放权重的。

你可以在这里查看到这些模型的列表:
hf.co/spaces/hf4h…

为什么要在文本生成中选择使用流式传输?

Hugging Face 发布新闻:Hub 加入分类整理功能等更新

流式传输是服务器逐个返回模型生成的标记 (tokens) 的模式,这有助于用户逐步查看生成过程,而不必等待整个生成完成。这对于提高终端用户体验至关重要,因为它减少了延迟,这是流畅体验的关键因素之一。

使用流式传输,服务器可以在生成完整响应之前逐个返回标记,使用户能够更早地了解生成质量。这有一些积极的影响:对于非常长的查询,用户可以更早地获得结果。在生成过程中观察进展允许用户在生成不符合他们期望的方向时停止生成。在早期展示结果时,感知的延迟较低。在会话界面中使用时,体验感觉更加自然。

我们发布了一个文档,介绍了如何在 Python、cURL 和 JavaScript 中实现流式传输,以及流式传输的工作原理,其中使用了 Server-Sent Events(SSE)来建立 HTTP 连接并实现数据的单向传输。通过指定最大并发请求数,还可以管理服务器的负载。

查看文档: hf.co/docs/text-g…

以上就是本期的 Hugging News,新的一周开始了,我们一起加油! 💪🎉

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI教程

ChatGPT:开发者的强大助手

2023-12-20 19:34:14

AI教程

基于R语言中的UBL包实现SMOTE算法与SMOGN算法

2023-12-20 19:39:14

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索