ChatGPT 不会倒写单词?
没想到时至本日,ChatGPT竟还会犯低级毛病?
chatgpt中文版 http://chatgpt.guige.xyz
吴恩达大神最新开课就指出来了:ChatGPT不会反转单词!
比如让它反转下lollipop这个词,输出是pilollol,完全混乱。
哦豁,这确切有点大跌眼镜啊。
以致于听课网友在Reddit上发帖后,立马引来大量围观,帖子热度火速冲到6k。
而且这不是偶然bug,网友们发现ChatGPT确切没法完成这个任务,我们亲测结果也一样如此。
△实测ChatGPT(GPT⑶.5)
乃至包括Bard、Bing、文心一言在内等一众产品都不行。
△实测Bard
△实测文心一言
还有人紧随着吐槽, ChatGPT在处理这些简单的单词任务就是很糟。
比如玩此前曾爆火的文字游戏Wordle简直就是一场灾害,历来没有做对过。
诶?这究竟是为啥?
关键在于token
之所以有这样的现象,关键在于token。token是文本中最多见的字符序列,而大模型都是用token来处理文本。
它可以是全部单词,也能够是单词一个片断。大模型了解这些token之间的统计关系,并且善于生成下一个token。
因此在处理单词反转这个小任务时,它可能只是将每一个token翻转过来,而不是字母。
这点放在中文语境下体现就更加明显:一个词是一个token,也多是一个字是一个token。
针对开头的例子,有人尝试理解了下ChatGPT的推理进程。
为了更直观的了解,OpenAI乃至还出了个GPT⑶的Tokenizer。
比如像lollipop这个词,GPT⑶会将其理解成I、oll、ipop这三个部份。
根据经验总结,也就诞生出这样一些不成文法则。
1个token≈4个英文字符≈四分之三个词;
100个token≈75个单词;
1⑵句话≈30个token;
一段话≈100个token,1500个单词≈2048个token;
单词如何划分还取决于语言。此前有人统计过,中文要用的token数是英文数量的1.2到2.7倍。
token-to-char(token到单词)比例越高,处理本钱也就越高。因此处理中文tokenize要比英文更贵。
可以这样理解,token是大模型认识理解人类现实世界的方式。它非常简单,还可以大大下降内存和时间复杂度。
但将单词token化存在一个问题,就会使模型很难学习到成心义的输入表示,最直观的表示就是不能理解单词的含义。
当时Transformers有做过相应优化,比如一个复杂、不常见的单词分为一个成心义的token和一个独立token。
就像annoyingly就被分成“annoying”和“ly”,前者保存了其语义,后者则是频繁出现。
这同样成就了如今ChatGPT及其他大模型产品的冷艳效果,能很好地理解人类的语言。
至于没法处理单词反转这样一个小任务,自然也有解决之道。
最简单直接的,就是你先自己把单词给分开喽~
或也能够让ChatGPT一步一步来,先tokenize每一个字母。
又或让它写一个反转字母的程序,然后程序的结果对了。(狗头)
不过也能够使用GPT⑷,实测没有这样的问题。
△实测GPT⑷
总之,token就是AI理解自然语言的基石。
而作为AI理解人类自然语言的桥梁,token的重要性也愈来愈明显。
它已成为AI模型性能优劣的关键决定因素,或者大模型的计费标准。
乃至有了token文学
正如前文所言,token能方便模型捕捉到更细粒度的语义信息,如词义、词序、语法结构等。其顺序、位置在序列建模任务(如语言建模、机器翻译、文本生成等)中相当重要。
模型只有在准确了解每一个token在序列中的位置和上下文情况,才能更好正确预测内容,给出公道输出。
因此,token的质量、数量对模型效果有直接影响。
今年开始,愈来愈多大模型发布时,都会侧重强调token数量,比如谷歌PaLM 2暴光细节中提到,它训练用到了3.6万亿个token。
和很多行业内大佬也纷纭表示,token真的很关键!
今年从特斯拉跳槽到OpenAI的AI科学家安德烈·卡帕斯(Andrej Karpathy)就曾在演讲中表示:
更多token能让模型更好思考。
而且他强调,模型的性能其实不只由参数范围来决定。
比如LLaMA的参数范围远小于GPT⑶(65B vs 175B),但由于它用更多token进行训练(1.4T vs 300B),所以LLaMA更强大。
而凭仗着对模型性能的直接影响,token或者AI模型的计费标准。
以OpenAI的定价标准为例,他们以1K个token为单位进行计费,区别模型、区别类型的token价格区别。
总之,踏进AI大模型领域的大门后,就会发现token是绕不开的知识点。
嗯,乃至衍生出了token文学……
不过值得一提的是,token在中文世界里到底该翻译成啥,现在还没有完全定下来。
直译“令牌”总是有点怪怪的。
GPT⑷觉得叫“词元”或“标记”比较不错,你觉得呢?
参考链接:
[1]https://www.reddit.com/r/ChatGPT/comments/13xxehx/chatgpt_is_unable_to_reverse_words/
[2]https://help.openai.com/en/articles/4936856-what-are-tokens-and-how-to-count-them
[3]https://openai.com/pricing
桂<哥<网<络www.guIgege.cn
本文来源于chatgptplus账号购买平台,转载请注明出处:https://chatgpt.guigege.cn/jiaocheng/29278.html 咨询请加VX:muhuanidc