超出ChatGPT的原来是TA
欢迎关注“硅基合伙人”,不要钱获得每日份“维他命AI”
chatgpt中文版 http://chatgpt.guige.xyz
号称ChatGPT“最强对手”的Claude迎史诗级更新:
本次更新,将模型上下文窗口token数提升到了足足10万,相当于7.5万个单词!这意味着,ChatGPT“记性不好”的缺点被Claude解决了,如此,我们就能够直接丢给大模型上百页材料让他学习,比如财报、技术文档乃至是一本书,而TA都可以在一分钟以内理解、生成概要并能回答您发问的相关问题。
甚么是token?
token指的是大模型处理文本的基本单位,例如“hamburger” 被分成 “ham”、“bur” 和 “ger” 三个 Token,而 “tea” 是一个 token。1个token大约相当于4个字符或0.75个英文单词。中文相对英文,需要使用更多的token,比方“你好,世界”11个token,"Hello World"只有两个token。GPT3.5可以处理4k到8k的token,GPT4也只能处理8k到32k的token。
最后,LLM还有LangChain又是啥?
LangChain是在LLM(Large language models,比方ChatGPT就是一个LLM)发展体系中的一个开源框架,能够把LLM的能力做为一个模块与其他能力进行组合,创造出功能更强大的利用。LangChain中的"Lang"是language的缩写,"Chain"是链接的意思,LangChain本身其实不提供LLM模型,只是把LLM当作一个功能模块使用,TA可让LLM这个大脑有了身体,并且能使用工具。
举个例子,ChatGTP只能进行文本输入和输出,那末也就只能进行一些聊天方式的交互,结合LangChain以后,可以通过LangChain调用搜索引擎获得最新的信息、调用外部控制系统控制机器人部件、调用AutoGPT完成一些复杂任务分解等。
桂,哥,网,络www.GuIgege.cn
本文来源于chatgptplus账号购买平台,转载请注明出处:https://chatgpt.guigege.cn/jiaocheng/29686.html 咨询请加VX:muhuanidc