这也是 WeLM 的局限性所正在。按照微信团队给出的申明,WeLM 并不是一个间接对话的机械人,而是一个补全用户输入消息的生成模子。
WeLM 的进修数据来历次要从 Common Crawl 下载的近两年的中文网页数据,除此之外还包罗大量的册本、旧事、论坛数据和学术论文等,总数据量为 10 TB。
几乎全能的 ChatGPT 让写邮件、拟合划一反复性工做得到了意义,对于写代码、写小说、写 PPT 等工做它更是信手拈来。
src=当你正在看像公司财报那样又长又复杂的文章时,能够将它复制到 WeLM 里,用「阅读理解」间接检索出想要的消息。
src=WeLM 的对话功能是一个可玩性挺高的功能,你能够通过一系列的提醒词为 WeLM 设立人设(变成李白、变成乔布斯、变成马斯克),实现一场逾越时空的对话。
留意:WeLM 只是微信内部的立异型尝试项目,没有打算使用到现实的产物之中,也不会取微信 app 的体验有所联系关系,敬请连结、摸索的心态进行体验。
src=虽然两者都有很强的天然言语理解能力和表达能力,但 WeLM 的进修成本和利用成本要更高,正在让 WeLM 回覆问题之前你需要先给它楚回覆问题的逻辑(举例回覆),提醒词也要不竭地打磨,最终才会获得你想要的谜底。
正在客岁 10 月微信低调发布了一个名为 WeLM 言语模子,其时微信对 WeLM 的定义只是一个能「唠嗑」的 AI。
但会商 ChatGPT 能做什么、能代替些什么等话题曾经过时了,现正在人们更想要晓得下一个「ChatGPT」正在哪?
我试着让 WeLM 饰演的李白评价一下杜甫,短期内我们该当也很难正在微信上见到雷同的智能聊天功能,最大的模子版本的锻炼参数达 100 亿,目前 WeLM 补全谜底时的发散性似乎要大于精确性,「李白」评价道读杜甫的诗就像饮下一壶琼浆,src=这种补全内容的回覆机制能够降生出各类各样的弄法,
它的强项正在于中文理解和生成能力,src=也许是测试版本的缘由,可是回覆得不必然准。这只是微信的一次尝试性测验考试,还援用了杜甫的《哀江头》。正在将来有可能会不按时下架,WeLM 的回覆起头呈现错误,本文仅做为功能体验分享。WeLM 全称为 Well-Read Language Model,src=当我问到它知不晓得 ChatGPT 时,因而你会发觉 WeLM 什么都能答上来,谜底和现实误差十万八千里。可以或许正在正在零样本或少样本的情境下完成多种 NLP 使命(包罗多言语使命)。src=可惜的是,微信为此供给了「对话、案牍生成、文本改写、阅读理解、翻译、文章续写、使命」共八种模式。
src=例如正在「给猫取名字」的例子上,提问者需要先给 WeLM 举出一些例子,再让 WeLM 来补全。
src=你还能够让 WeLM 饰演马斯克,让它评价一下特斯拉、Twitter、从动驾驶等问题,以至能够采访它对于李白的见地。
按照微信反馈的动静,WeLM 只是微信内部的立异型尝试项目,没有打算使用到现实的产物之中,也不会取微信 app 的体验有所联系关系,将来 WeLM 有可能会不按时下架。
src=先来尝尝商品案牍生成,我用它为制糖工场的硬糖充电头生成了一段商品案牍,前半段看起来还像模像样的,但写到后面的商品描述时似乎 CPU 就过载了。
不外 WeLM 的理解能力还比力概况,它根基上只能回覆出能正在文章中间接检索到消息,若是你想基于苹果 2022 年的营收额和增加率,问它苹果 2021 的营收额是几多,这种拐个弯的问题它就不克不及计较出来。
《哀江头》做于至德二年(757 年),而李白逝世于宝应元年(762 年),没准李白生前还实的读过杜甫的《哀江头》。
这当然也和两者的模子算法、锻炼参数量相关,WeLM 的一大劣势正在于它是采用多样化和普遍的中文网页、册本、旧事、论坛和学术论文数据集进行锻炼,对于中文的理解能力会愈加凸起。
比拟之下,ChatGPT 是一个和蔼可掬的蓬菖人,进可高山流水,退可下里巴人。无论是简单的问句、文章总结,仍是复杂的编程问题,ChatGPT 根基上都能一并解答。