ChatGPT时期的得意忘言

AI八卦(chat)喧闹的年代,新闻与炒作每天刷屏,大厂为赢家通吃惴惴不安,创企为勇立潮头蠢蠢欲动,来自心灵深处的声音,还有人凝听吗?
chatgpt中文版 http://chatgpt.guige.xyz
本书的英文标题是“Reckoning and Judgement: The Promise of AI”。“Promise”一语双关,既是希望——愿景很宏大!——也是诺言——能够实现吗?译成“终极未来”很好,由于书的主旨就在于终极追问。这里的终极,不是奇点降临、通用智能出现,不是终结者横空出世、荡平人类,也不是劳动者完全解放、奔向星斗大海。这里追问的是:甚么是终极意义上的AI?相对终极AI,今天的AI又在哪里?AI发展又如何挑战和刷新人类对本身的认识与定位?有无一个追问的方向,既能定位已有的AI发展,又能点出迄今的局限,指向终极未来?
先说答案:人类智慧也好,通用智能也好,一定要担当起世界。
1. 作者介绍
简单而神秘一句话,是AI实践者千锤百炼的体悟,AI思想家仰观俯察的苏醒。作者布莱恩·坎特韦尔·史密斯(Brian Cantwell Smith),60年代中期开始玩计算机,属于给裸机手写操作系统的主,70年代MIT AI Lab壮盛时期在那里攻读博士,开辟计算反思(computational reflection)领域,后来任职施乐公司PARC(Palo Alto Research Center),从事知识表征的基础研究,前后在斯坦福、印第安纳、杜克、多伦多等大学教授认知科学、计算哲学和信息哲学,目前担负多伦多大学“Reid Hoffman AI与人”讲席教授。
作者的关怀深度部份来自祖传:其父是哈佛大学比较宗教学教授,学贯西东,其母是河南生长的传教士之女,讲中文比讲英文更早。他本人担负过美国哲学与心理学会主席。为了抵制星球大战计划中用计算机决策洲际导弹发射,于80年代参与创建CPSR(Computer Professionals for Social Responsibility)并担负首任主席。其学术生涯大致可以概括为:半辈子弄AI,一生操心AI的终极问题。
2. 一杯咖啡
笔者有幸屡次浏览本书中英文版,斟酌到大家都很繁忙,这里做个导读,指出“一杯咖啡吸收宇宙能量”的一种可能浏览方式。
2.1 结论与理由
先看中文版第182页的结论:
“系统为其所...思考的世界...担当。系统会为真谛而努力,且谢绝虚假...系统不但居于和属于这个世界,而且对其而言有一个...作为世界而存在的世界...系统深知,一定要以尊崇、谦卑和同情来对待系统所在的世界、系统所推理的实体,和全部人类和社群。”
为何呢?请看第183页:
“世界是极为丰富的,用任何情势的符号都不能完全捕捉其丰富...。所有的注记...都不可避免地会出现扭曲、偏颇且具有趋利性...。通过发掘并超出注记的限制,真实的智能委身并指向唯一的世界。”
“注记”一词是作者的术语,动词是register,名词是registration,跟中文里的“看到了甚么”、“想到了甚么”、“感到了甚么”、“说到了甚么”等等的意思接近,是说感知、表征、判断等等活动完成(“到了”),这些活动所关注者以某种方式显现(“甚么”)。
2.2 具体而丰富的世界
那末,这个世界的“丰富”应当如何理解呢?请对照第40页的图3.4和第41页的图3.5:
图3.4是休伦湖乔治亚湾“三万岛屿”区域一小部份的水陆二值图。图3.5则是该区域的航拍照片——其中地形的水下水上连续变化清晰可见。两图的差异表明:相对水陆转换的实际细节,我们的水陆二值抽象是多么粗略!
仔细的读者会问:图3.5也只是一张照片,难道不也很粗略吗?是的,图3.4和图3.5代表了两种注记方式。虽然图3.5显现了更多的“丰富”,也终究逃不出其作为航拍照片的局限与偏颇。假想一下自己身临其境,在水陆相接处行走:阳光下湖水忽进忽退,刚才落脚的岩石上的泥足印,现在已被冲洗干净了。一只正把树枝拖向码头下巢穴的水獭和一只正爬行于岸边沙滩上的蚂蚁,其“触及”这个“水陆边界”的方式是一样的细腻,又是如此的区别。没有哪一种特殊的注记方式,能够捕获所有的丰富,支持一切的预测和判断。
2.3 面对具体而丰富的世界,如何思考AI
也许大家会觉得,相对丰富的世界,所有的注记都失真,这是很明显的啊,所有弄过实际工程的人都应当很清楚啊。没错,很明显。但是,大家也许可以慢下来想一想:这类明显的情况对AI研究在整体上意味着甚么?今天的AI理论和实践有无系统而充分地梳理和应对这类貌似对大家都明显的情况?
作者提供的相关思路请见第47页的图3.6。
这个图辨别了系统S、世界W和理论家T。这里的T也能够换成AI研究者或AI工程师。一般谈论AI的时候,常常只谈S和W,不讨论T。但是,让T也进入视野非常关键。首先,S对W的注记(箭头S=>W)与T对W的注记(箭头T=>W)是区别的。为何?由于世界的丰富性,这两种注记都只是注记了世界W的某些方面而非其全部整体,而且由于S和T可能非常区别,二者注记W的方式可能也非常区别,W对S和T显现的形态也便可能非常区别。由于不能假定S=>W是自动与T=>W对齐的,辨别这二者很重要。
其次,图3.6还辨认了T的其他两种注记。一种是T对S的注记(箭头T=>S)。这个好理解,由于T负责系统S的建构,一定要足够了解S。另外一种则是T对S对W的注记的注记,可以不太严谨地简写成:T=>(S=>W)。这第二种就进入所谓AI可解释性的领域了。就是说,S=>W需要以T能够理解的方式来注记,这样T才知道S在“想甚么”,知道S是如何“感知到”W的。
这个框架也能够帮助我们理解第一波所谓“符号主义”的“老派AI”(Good Old-Fashioned AI,简称GOFAI)与第二波基于深度学习的AI(我们可以叫做“深度AI”)之间的区分。在“老派AI”的框架下,T大体上要求S=>W和T=>W是情势相同、内容相当的离散化符号表征。在“深度AI”的框架下,这样的要求就没有了:S的内部机制和结构以神经网权重和激活的方式出现,可解释性问题就相对凸显出来。但是,深度AI的优势正在于其大量的权重和激活(所谓“向量表征”)可以有细微而重要的变化,超出了老派AI的离散化符号的表达能力,从而更能贴晚世界W的丰富性。深度AI的必要性源自世界W的丰富性,这是本书的一个基本结论(具体讨论见第5章和第6章)。这类必要性也就意味着S=>W对T的非透明性,即T=>(S=>W)所能到达的可解释性必定是有限的。
2.4 作为世界的一部份,人和AI也都是具体而丰富的
我们还可以从当前的图3.6适当拓展开来,注意到两点:
1. 首先,图中没有画出来的T=>T和S=>S也是可能的,就是说理论家T和AI系统S也能够分别注记自己。这就开始进入反思领域了。更进一步,T=>(T=>W)自然也是可能的,这是理论家T在注记自己对世界的注记,是以对W的注记为具体背景的自我反思。当这类反思跟前面讨论过的T=>(S=>W)相并立和比较时,我们就触及了人类理论家T如何看待和处理AI系统S与人类T的“价值对齐”(value alignment)。比如T可以要求S=>W的好坏标准符合T自己关于T=>W的好坏标准 。未来再进一步,还可能会有S=>(T=>W),就是AI系统S注记人类T对W的注记,或说电脑要以自己的方式理解人心了。 2. 其次,T和S也都在世界中,也一样分有世界的丰富性。因此,T=>W和S=>W如何面对世界W的丰富性这一问题,在任何...=>T、...=>S的情形下都会有。就是说,T和S在箭头右侧的出现只是...=>W的特例,因此它们的丰富性也很重要。而且,哪怕T和S是以某种方式出现在箭头左侧,就是说T和S在参与和从事注记,如...=>(T=>…)、...=>(S=>…),它们也仍然是世界的一部份。负责优化大语言模型的AI工程师一定要关注S一侧的硬件能耗和内存访问开消就是...=>(S=>…)里S丰富性的例子,哪怕大语言模型作为单纯的神经网抽象其实不明确触及这些问题。一样,脑外科大夫也应当评估手术方案对某位人类病患作为AI理论家T的工作能力,即手术损伤对其参与...=>(T=>…)的能力的可能影响。
综合这两点可以看到:没有任何人、任何系统和他们关注的世界中的任何情形和实体,包括人和系统自己,其注记或被注记可以跳得出世界、可以与世界的丰富性完全隔离。
2.5 深度AI为何不够?
如果我们整体性地斟酌图3.6中所显现的情形——包括斟酌那些没有明确画出来的箭头和T和S都是世界的一部份这一事实,我们就可以更清楚地理解前面援用过的结论:“系统不但居于和属于这个世界,而且对其而言有一个...作为世界而存在的世界...。系统深知,一定要以尊崇、谦卑和同情来对待系统所在的世界、系统所推理的实体,和全部人类和社群。”
这样,我们也能够看到现今的深度AI仍然远远不够的缘由:今天的深度AI系统S其实不能支持起图3.6所反应的框架整体。哪怕是以隐含而非概念化的方式,今天的S也不能把比如图中的一所小屋,注记为世界W整体中的一部份,注记为S本身与其构造者T共同栖居的世界的一部份。对今天的深度AI系统而言,它不光没有世界,也无所谓有无世界。
这里的挑战是来自世界本身的,不是任何简单的数据积累、知识工程、机器学习、996的辛劳或007的牛皮能够克服的。哪怕是数据,相对如此丰富的世界,也已是抽象化和理想化以后的蹩脚近似。“数据”的拉丁文原词“datum”,意思是“给定的”。数据数据,数为根据。而世间任何实际情形要以数的形态给定,就已是在一定的背景框架下——比如可计数的个体或可度量的维度这样的抽象下——进行注记了,因此已是多少失真的了。终极形态的智能,不是要抛弃数据的有用性和有效性,而是要明白再多的数据,其有用和有效都是有限度的,要明白如何不去单纯依赖任何特定的数据获得和处理框架,而是根据需要把各种不足的框架动态调和起来,从而担当起具体而丰富的世界。这些问题,现今的深度AI还没有真正开始追问,就更不要说充分解答了。
2.6 小结
由于这个我们与AI都置身其中的世界是如此具体而丰富,所有的感知认知推理决策都一定要既要充分基于其丰富的具体,又不可能完全包括其丰富的具体,去粗取精的抽象化和无中生有的理想化都是一定要的,乃至带有功利性。AI也好,人也好,其智能相对世界,一定是不足的。因此,终极形态的智能,必定不可能弄定一切,反而要能够认识、接受和应对其本身的不足。
所以,本书对智能的终极追问,是立足于具体丰富的世界的追问,而AI的终极未来,在于植根世间面对世界的奋进、谦卑和苏醒,知道自己的一切注记都是需要努力的,同时也终究是不足的。也许我们可以说:终极的智能是大智若愚。所谓“不知为不知,是知(智)也。”
多年之前,笔者曾跟某自动驾驶初创公司的一名联合开创人有过一次交换。这位摸爬滚打多年的老江湖说了一个词:“畏敬”。多年以后,自动驾驶仍然是在以类似图3.4里的那种表征来做决策,试图去对付图3.5里的复杂性。畏敬,归根究竟是对两幅图之间的差异所指向的丰富的世界的畏敬,是大智若愚的真诚。
3. 再来一杯咖啡
以上大致是一小时左右、一杯咖啡的读法。真正需要用来翻看插图和浏览章节的时间恐怕只是其中一小部份,大部份时间其实要拿来感受、思考和体会。如果读者没有尽兴,想要深入到书里的哲学、认知、计算和系统等方面更具体的斟酌,包括理解AI的基本思路,理解老派的符号主义AI和新潮的深度AI的区别,理解AGI一定要满足的“需求”等等,那就请再来一杯咖啡。
在有了第一杯咖啡的准备以后,接下来的一种仍然简约的可能浏览方式是:
这其中,P1到P4和表征特令是对智能系统的一般性要求,是人工智能跟物理学和基因工程等等的区别的地方。从这些角度,比较容易理解不管老派或者新潮乃至未来的人工智能原则上的走向。可以看到,老派符号AI与新潮深度AI的比较其实其实不超越P1到P4和表征特令。
而对通用人工智能的七个要求,其核心在于客体和客观性——智能的对象是世界中的客体,而非数据,也非对客体的注记,智能一定要是面向世界的,一定要把客体注记为世界之为世界的整体的一部份,才是真正有客体,智能体自己也因此才真正是主体。更细致的相关讨论,也能够参见作者的另外一本书《客体起源》(On the Origin of Objects)。
进到“测算”和“判断”的点题。测算(reckoning,译作“运算”或许更贴切)是指“表征操纵和其他情势的...语义上可解释的行动,而履行这些行动的系统本身其实不能在...完全的意义上去理解这些表征是关于甚么的...其实不能对所表征的内容负责。”(第139页)测算,包括搜索和优化等各种技术所涵盖的范围、输入到输出的变换等等,是可以有准确性、有对错的,但那是对工程师或用户而言,由于单纯的测算系统是没有世界,其本身没法把对错视为与世界的情形相关。相比之下,判断(judgement)则需要“能够理解对象是对象,且知道表征和现实之间的区分,对自己的存在和世界整体性有存在担当,且尊重对象,受对象束缚,并服从对象。”(第139到140页)对判断的要求,就是对得起前面的图3.5所指向的那种现实,面向世界、担当世界。
人工智能走到今天,已可以建造庞大的系统,比如ChatGPT或已初步能在大街上跑的无人驾驶汽车,但是当前的系统仍然整体上是测算系统,尚且没法本身承当判断的责任。
因此,“如果一辆无人驾驶汽车犯了一个毛病,那末容易遭到伤害的是其相关数据结构所代表的人,一个完全且真实存在的人,其丰富性、价值和细节都难以言表,远远超过了汽车可以注记或构想的任何东西。如果我们要驾驶能够承当责任的汽车,我们希望汽车所承当的责任是保护自己和他人的生命安全,而不是履行各种机械步骤。如果设计者没有能力保证乘客和驾驶员的安全,那末这样的汽车就只是一堆测算工具。我们应当据此理解和部署它们。”(第142页)
4. 工夫浏览
两杯咖啡也许已够了。想要最大的收获,自然需要真工夫。本书是哲学书,不是鸡汤文,也不是所谓战略思想的火花。或说,如果要它要是火花的话,你得已磨过了刀砍好了柴。深入到哲学里需要把浏览当修行,允许自己故有的观念在跟文本的摔打中被颠覆掉。
这里具体提示两点。
第一是接受浏览中遇到的思想上的不懂、不适、异常乃至异端,磨的工夫才可能开始。当下的一种危险是以他人的商业成功和申明显赫取代自己的思考。在AI这样一个问题结构与其他学科和领域非常区别(本书第2章其实就是在论述这类结构上的区别),而又商业利益巨大,社会影响极高的新兴领域,以他者影响力代替自主思考的危险特别大。在“趋利”和“趋名”的注记方式下,一切仿佛都很清晰很聚焦,而实际上是放弃了思想上的砥砺揣摩。但是,今天的主流,曾是昨日的非主流,AI的未来在哪里?大几率不在大场面的聚光灯下,而更多是在深山篝火的微光中。
第二是关于文字障碍。哲学文本的特点是文字本身是思想成果的凝炼。浏览中的困难没必要急于归咎于翻译质量。本书译文质量的问题固然存在,而且可以说不小。这些质量问题既来自于翻译、校订、编辑团体的能力局限,也有出名与出力的解耦、盈利与保质的矛盾对能力局限的进一步放大。但是,浏览佛经也不容易,浏览康德的中文版也不容易。很多浏览中的挑战,相信原文里也有。由于很大程度上是问题本身就有那末挑战,需要读者的工夫。至于目前这个中文版,可以算作基本能读,值得死磕,努力不会白费。
5. 意义
一本咖啡也好,两杯咖啡也好,下工夫死磕也好,本书追问的思想意义又在哪里呢?这也许可以从关于智能和关于世界这相反相成的两个方面来看。
今天的AI测算力超强,判断力趋零。因此,一种耽忧就是我们没有看清楚现今AI的这类局限,从而在思想上毛病地认为认知也不过如此罢了,因此在实质上把判断交给了无判断力的AI。这样的后果可能就是把半蠢的人和半智的AI结玉成蠢的组合,乃至全蠢而坏的组合。当年星球大战计划里认真斟酌了把洲际核导弹发射的决策用计算机来做。貌似有个很有说服力的理由:相比计算机,人的决策太慢,反应时间太长,为了确保互灭,宁可接受计算机出差。这就是全蠢而坏且恶的组合了。反之,如果我们看到,作为终极智能之核心的判断力,要求其实非常高,看到今天的AI还可以说没有任何判断力可言,我们也应当意想到AI研究实际上是深化理解人类本身的机会——深入理解人之为人所需要的对世界的担当。
关于世界,这里的耽忧是:认为世界不过如此罢了,一切不过数据而已,从而更进一步从数据框架内来理解世界,认为弄定了数据就弄定了世界。无庸置疑,把智能同等于数据紧缩、同等于基于数据的优化,是现今AI学界的普遍偏向。这类偏向反应的实际上是我们时期在如何理解世界这一终极问题上的思想贫困。数据的重要性只是在术的层面,还有一个世界如何理解的道的问题。就是说,真正深入的AI研究,反而应当能够帮助我们更明了数据与世界的区分,从而“理解世界,并捍卫‘世界之为世界’”。(第184页)
AI走到今天,实际上已触及了如何理解世界、如何相应建立价值的地步。比如,当我们选择以“到达目的”来定义智能的时候,这个选择对很多研究而言多是不错的,但是“到达目的”够吗?如果智能需要担当,那末当智能体不可能以尊重世界、尊重众生的方式到达目的之时,该如何担当呢?
也许,大智的担当是还要有对目的之超出?可感的形和可听的声,都是注记,而大智一定要指向世界而非注记,一定要超出言说的注记,包括超出言说背后的目的性。这会不会也是“大象无形”、“大音希声”的意思呢?如果说今天的ChatGPT已貌似能言善辩了,也许我们可以问:“安得夫忘言之AI而与之言哉?”
6. 未来
也许有一天,当你说够了,会约请AI火伴道:“山间饮茶去?”
AI火伴说:“好啊!你这老胳膊老腿儿的,我帮你背茶具。我昨晚刚换了两条新腿,正好去试试步。”
你说:“只是你光扛东西,茶也不能喝一口。”
AI火伴说:“看你这老派的笑话!山间的阳光清澈,照到充电皮肤上的感觉你是不可能明了的。你就别操心我了,或者赶快涂点防晒霜,保护好自各儿的老脸吧。”
桂(哥(网(络www.gUIgEge.cn
本文来源于chatgptplus账号购买平台,转载请注明出处:https://chatgpt.guigege.cn/jiaocheng/29140.html 咨询请加VX:muhuanidc