mirror of
https://github.com/LCTT/TranslateProject.git
synced 2024-12-23 21:20:42 +08:00
parent
9abf383213
commit
928cffb664
@ -3,32 +3,30 @@
|
||||
[#]: author: "Sourav Rudra https://news.itsfoss.com/author/sourav/"
|
||||
[#]: collector: "lkxed"
|
||||
[#]: translator: "lxbwolf"
|
||||
[#]: reviewer: " "
|
||||
[#]: publisher: " "
|
||||
[#]: url: " "
|
||||
[#]: reviewer: "wxy"
|
||||
[#]: publisher: "wxy"
|
||||
[#]: url: "https://linux.cn/article-15678-1.html"
|
||||
|
||||
号称可以成为 ChatGPT 平替的开源模型 ”Dolly“
|
||||
号称可以成为 ChatGPT 平替的开源模型 “Dolly”
|
||||
======
|
||||
|
||||
你需要一款 ChatGPT 的平替?还得是开源的?看起来我们已经被卷入了与 ChatGPT 的开源大战。
|
||||
> 你需要一款 ChatGPT 的平替?还得是开源的?看起来我们已经被卷入了与 ChatGPT 的开源大战。
|
||||
|
||||
![open source model dolly][1]
|
||||
|
||||
![][2]
|
||||
|
||||
Databricks 这家软件公司,在各个领域都有所建树,尤其是在数据仓库和基于人工智能的解决方案方面。
|
||||
|
||||
最近,随着 ChatGPT 横空出世,Meta、Google 甚至 Mozilla 也可以效仿 ChatGPT。
|
||||
最近,随着 ChatGPT 横空出世,Meta、谷歌甚至 Mozilla 都开始效仿 ChatGPT。
|
||||
|
||||
而现在,Databricks 开源了其 [<ruby>大型语言模型<rt>large language model</rt></ruby>][3](LLM)"Dolly",也正在以自己的方式进行尝试。
|
||||
而现在,Databricks 开源了其 <ruby>[大型语言模型][3]<rt>large language model</rt></ruby>(LLM)“Dolly”,也正在以自己的方式进行尝试。
|
||||
|
||||
我们一起来看看它。
|
||||
|
||||
**发生了什么?:** 在最近的公告中,Databricks 介绍了他们号称 **”廉价构建“** 的 LLM,使用 [EleutherAI][5] 的已经开源参数[模型][4] 提供功能。
|
||||
**发生了什么?** 在最近的公告中,Databricks 介绍了他们号称 “**廉价构建**” 的 LLM,使用 [EleutherAI][5] 的已经开源的参数 [模型][4] 提供功能。
|
||||
|
||||
他们在该模型基础上稍作调整,赋予了 Dolly 指令跟随能力,如头脑风暴和文本生成。
|
||||
他们在该模型基础上稍作调整,赋予了 Dolly 指令诸如头脑风暴和文本生成的能力。
|
||||
|
||||
当你拿它与 GPT-3 中的 **1750亿个参数** 比较时,Dolly 的 **60亿个参数** 就可能显得微不足道了。
|
||||
当你拿它与 GPT-3 中的 **1750 亿个参数** 比较时,Dolly 的 **60 亿个参数** 就可能显得微不足道。
|
||||
|
||||
但是,当 Databricks 的人看到即使数据量与 GPT-3 相差这么多,Dolly 也能 **展示很多与 ChatGPT 相同的能力** 时,他们感到非常震惊。
|
||||
|
||||
@ -36,11 +34,11 @@ Databricks 这家软件公司,在各个领域都有所建树,尤其是在数
|
||||
|
||||
![a screenshot of how dolly performs in an open question and answer scenario][6]
|
||||
|
||||
原始模型使用了 [Alpaca][7] 的数据,该模型由斯坦福大学以 Meta 的 [LaMA][8] LLM 为基础建立。
|
||||
原始模型使用了 [Alpaca][7] 的数据,该模型由斯坦福大学以 Meta 的 [LLaMA][8] LLM 为基础建立。
|
||||
|
||||
但是,正如你所看到的,原始模型产生了一个非常杂乱无章的结果,而 Dolly,通过不同的模型和调整,能够产生一个更为可用的答案。
|
||||
|
||||
> 📝 有趣的事实:Dolly 名字取自世界上第一只克隆羊。
|
||||
> 📝 有趣的事实:“<ruby>多莉<rt>Dolly</rt></ruby>” 名字取自世界上第一只克隆羊。
|
||||
|
||||
**为什么是现在?** 根据 Databricks 的说法,他们认为 **许多公司更愿意建立自己的模型,**而不是将数据发送给某个紧紧掌握模型只对外提供 API 的集中式供应商。
|
||||
|
||||
@ -56,7 +54,7 @@ Databricks 这家软件公司,在各个领域都有所建树,尤其是在数
|
||||
|
||||
总而言之,这种开源其模型的举动应该对其他公司有好处,可以保护他们的数据、节省运营成本,其他公司也能使用它创建自己的模型。
|
||||
|
||||
你可以查看 [公告博客][10],以了解更多技术细节和其他计划。
|
||||
你可以查看其 [公告博客][10],以了解更多技术细节和其他计划。
|
||||
|
||||
--------------------------------------------------------------------------------
|
||||
|
||||
@ -65,7 +63,7 @@ via: https://news.itsfoss.com/open-source-model-dolly/
|
||||
作者:[Sourav Rudra][a]
|
||||
选题:[lkxed][b]
|
||||
译者:[lxbwolf](https://github.com/lxbwolf)
|
||||
校对:[校对者ID](https://github.com/校对者ID)
|
||||
校对:[wxy](https://github.com/wxy)
|
||||
|
||||
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
|
||||
|
Loading…
Reference in New Issue
Block a user