全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线大模型看书,从来没有这么快过。国内大模型创业公司,正在技术前沿创造新的记录。10 月 30 日,百...
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
大模型看书,从来没有这么快过。
国内大模型创业公司,正在技术前沿创造新的记录。
10 月 30 日,百川智能正式发布 Baichuan2-192K 长窗口大模型,将大语言模型(LLM)上下文窗口的长度一举提升到了 192K token。
这相当于让大模型一次处理约 35 万个汉字,长度达到了 GPT-4(32K token,约 2.5 万字)的 14 倍,Claude 2.0(100K token,约 8 万字) 的 4.4 倍。
换句话说,Baichuan2-192K 可以一次性读完一本《三体 2》,是全球处理上下文窗口长度最长的大模型。此外,它也在文本生成质量、上下文理解、问答能力等多个维度的评测中显著领先对手。
能够一次理解超长文本的大模型,究竟能做哪些事?百川智能进行了一番简单演示。
上传一整部《三体 2:黑暗森林》的 PDF 文件,百川大模型统计出来是 30 万字。接下来,如果你询问有关这本小说里的任何问题,大模型都可以给出简洁准确的答案。
有时候我们寻求 AI 的帮助,并不是希望他们发挥想象力,而是要提取准确信息。有了 Baichuan2-192K,我们可以快速解读几十页,甚至几百页的合同文件,让 AI 快速给出简明摘要,四舍五入就是量子速读了:
那么如果我突然接到新任务,有一堆文件要看呢?
直接打包一起上传就可以了,百川大模型可以轻松把五篇新闻整合成一篇。
大模型能够理解的内容变长之后,应用的方向会越来越多。众所周知,长文本建模能力是很多场景能够应用落地的前提条件。这一次,百川做到了业内领先。 网页链接
版权声明: 发表于 2023-11-01 21:13:12。
转载请注明:全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线大模型看书,从来没有这么快过。国内大模型创业公司,正在技术前沿创造新的记录。10 月 30 日,百... | AI 時.空 | AiTime.Space
转载请注明:全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线大模型看书,从来没有这么快过。国内大模型创业公司,正在技术前沿创造新的记录。10 月 30 日,百... | AI 時.空 | AiTime.Space
暂无评论...