先做个广告:如需代注册GPT帐号或代充值ChatGPT4会员,请添加站长客服微信:gpt-app
推荐使用ChatGPT中文版,国内可直接访问:https://ai.gpt86.top
ChatGPT的隐忧:
关于AI的政治哲学寓言
Concerns About ChatGPT:
A Artificial Intelligence Fable from the Perspective of Political Philosophy
文/ 子宛
图片来源/ 视觉中国
注:这篇文章完成于2022年12月,是笔者在刘擎教授“政治与哲学思考”课程上的结课论文,发到公众号上有略微修改。2022年10月,OpenAI发布ChatGPT 4.0,之后几个月中,通用人工智能确实深刻影响着我们的信息获取和表达方式,因此笔者重新将这篇文章重新发出来,以表达对人工智能的担忧和展望,希望它能给朋友们有所启发。
2022年末,一款名为ChatGPT的超级对话模型横空出世,继人工智能写诗、人工智能绘画之后,已经火热的AIGC(人工智能生成内容)再度引发轰动。
ChatGPT是人工智能研究机构OpenAI在基于计算大模型GPT-3.5进行深度训练后的一款通用聊天机器人。它不仅能介绍“华东师范大学”,能用python写一段快速排序(rapid sort)的程序,并帮你修改代码中的bug,能和物理学教授侃侃而谈20分钟的物理学史,甚至能用鲁迅的口吻天马行空地创作,并阐发自己对于人类的看法(当然,这种带有伦理色彩的问题,需要特殊的问法才能被问出来)。上知天文,下知地理,经纬世务,通达人伦的ChatGPT有望成为有史以来第一个“通用人工智能”,给“元宇宙”的来临又打开了一扇大门。埃隆·马斯克也说这样的AI “强大到危险”。
这是一个很有趣的现象:AI本来就像科层制里按部就班的职员的, “专长于一家”。如“深蓝”只会下国际象棋,“AlphaGo”的强大也仅限在围棋领域,但是ChatGPT的横空出世昭示着AI的融合和化约。已经有人在b站上po出自己用ChatGPT写检讨书,还有人在用它给出的“恋爱攻略”追女生。
这不禁让笔者疑问:ChatGPT在未来会是一种像手机、电脑一样触手可及的“工具”吗?如果他超越了工具,又会是个怎样的存在呢?
还有两个问题很值得讨论。第一个是“反伦理”的顾虑。在ChatGPT爆火后,谷歌、问答社区Stack Overflow都宣布暂时禁用这类对话式搜索引擎,很重要的原因是它的回答“不受控”——并不准确,甚至可能造成危害。全世界网友也在推波助澜,他们变着法子地问人工智能,只是希冀得到一些“越线”的回答。在b站上,也有网友用“特殊”的问法询问了ChatGPT对于“杀人、放火”等问题的看法。可以预想,在通用人工智能“技术下放”的今天,AI的潜能不断被探索,很多时候都会超过伦理的边界。那么,AI对人进行伦理指导是可以接受的吗?AI会不会潜移默化地影响民众的价值观?
第二个也是很重要的问题,就是人工智能代表着谁的意志。回合制策略游戏《文明6》中有个政体被称为“合成专家统治”, “专家政治”是美国工程师W.H.史密斯提出的,指的是用社会分析师或科学家组成的专家团队来进行统治。有别于民主制或官僚制,在“合成专家统治”里,统治专家可以是非人类代理人,譬如高度发达的AI。
于是,我们可以设想未来的普通民众都可以使用AI来解决问题、规划生活,甚至谋生。那么就有了第三个问题——AI如何参与未来的公共生活?AI在未来的政治领域中应该扮演怎么样的角色?这三个问题都值得我们探讨。
“工具”变为工具神
——工具理性的突变式扩大
康德说:“人是目的,而不仅仅是手段。”可是随着现代化的过程,人从“天人合一”的社会想象中“脱嵌”了,发生了个体主义和人类中心主义的转向,这个世界被“祛魅”了。上帝已死,每个人都要为自己立法。马克思·韦伯说,人类的理性从此分裂成了两个部分,一部分是“工具理性”,一部分是“价值理性”,工具理性不考虑目标,只追求目标的手段的效益最大化;价值理性使用理性判断目标本身的价值。然而前者存在公认的逻辑,后者却没有公允的标准。结果就是个体在交流时基于相互同意而肯认工具理性的普遍性,最后导致工具理性的不断扩张。
工具理性的最大化,在制度上带来了“优绩制”,在政治上确认了“官僚制”。当我们审视计算机科学技术,也会惊讶地发现“人工智能”是这种扩张的延伸。在上个世界中叶,人们相信通过计算机的强大计算能力,就能构建出庞大富有逻辑的算法,解决社会生活的问题,这种想法被称为“计算思维”。
然而,发掘算法是非常难的。为了追求效率,从“深蓝”开始,计算机走上了以数据为导向的“机器学习”“深度学习”甚至是“强化学习”。训练者处于逻辑模型的“外聚焦视点”——不需要探究学习模型内部的逻辑结构,只是给其投喂“训练集”,经由数据模型线性和非线性函数的拟合输出数据,再评议输出结果的拟合程度并调整模型。这种思维是“数据思维”。
这样的行为模式,造就了两个暂时性的担忧:首先是AI所给出的计算结果的逻辑性存疑(譬如ChatGPT在编写代码的时候仍然会有很多错误)。当我们探讨AI计算的因果关系时,会发现很多结果仅仅是“强相关”。特别是对于具有强烈人类色彩的人文社会科学,在本体论上就具有卡尔·波普尔说的“云里有钟,钟里有云”的概然性,AI的在这些领域的回答和判断就更让人疑虑了。
其次是训练者的主观色彩。ChatGPT是在人类的帮助下创建并训练的,人类训练师对该AI早期版本回答查询的方式进行排名和评级。然后,系统会根据训练师的偏好来调整答案。这样的答案是否会存在价值偏向?我们可以设想对“是否要堕胎”的回答,保守主义立场的训练师会倾向于不能堕胎,而自由主义立场的训练师就会支持应该由母亲来决定。
这两个问题的解决,笔者都保持较为乐观的态度。但是,AI的发展引导人类社会共同体中的工具理性走向了一种不可逆的“突变”式扩大。人类看重的不再是理性(逻辑结构),需要的只是庞大的数据,这样的趋势比以往的工具出现时更为深刻、更为突然。这就意味着“人为自己立法”的法则被“数据为人立法”所取代。
在一种AI的神化叙事之中,人们笃信着其拥有 “全知”的神力。这里的全知意味着AI能认识一切现实世界规律的本质,并解答一切以现实世界为母题的问题。“全知”的AI也许不能成为“拉普拉斯之妖”,但能对人类社会的种种难题做出最优化的解答,那时的AI会成为一种超越世俗的理念权威。人们在启蒙运动中把上帝送走,却又在AI时代把上帝请回来。
在这样的叙事中,甚至不是人来选择工具,是由工具来选择工具,工具理性被无限放大,连“工具”的选择都要使用最大的工具理性。在AI崛起的人类社会里,工具成为了主体,而人被排除在故事之外。工具自我神化,人们自我异化,最终导向了理性的破灭和人本主义的消亡。
“反思的自我”之逃离:
AI如何重塑人类伦理
AI不仅是工具理性的无限放大,还影响到人类的价值或伦理领域。
第一个影响是,AI间接规训了主体,是一种对自由的扼杀。
举一个例子,假设有个好友总是对你提出建议,并试图规约你的生活。时间短了,还觉得忠言逆耳,朋友说的也不总是问题,但时间长了不免觉得厌烦。萨特说,人不仅仅是自在的存在,还是自为的存在,故人被判定为自由。那么即使这些建议对这个人很妥帖,他和朋友间依然存在着为了争夺主体性而斗争的隐忧,造成主体的反抗感。
强健的AI就像这种好友,但与之不同的是,AI用“工具”的外表隐匿起自身的主体性,使得我们的“斗争感”并不强烈。就像申真谞背诵AI棋谱被称为“申工智能”一样。在价值判断领域,人类不问由来、仅仅以“最有效率”为目的执行AI的某些评判,其实隐隐地执行了AI之下的价值观,其实是一种自由的扼杀。
第二个影响是,AI回答的“概然性”导致了“反思的自我”的逃离。
人们期许着AI的“全知”能力,那么这样的“全知”是否真正是可欲的呢?笔者先使用反证法证明AI不能“全知”——假设未来的AI能对人类中的每一个问题得出最优解。那么有两种可能性:
第一种可能性是AI的内部逻辑结构已经非常清楚了,清楚到每次询问时其的回答都是“同义而自洽”的。这预示着两点:所有社会科学的规律都像“钟”一样是“硬”的;在漫长的学习过程中,AI已经掌握了“绝对真理”。然而遗憾的是,许多社会科学规律是“软”的,而社会意识也是在不断变迁的,很难说AI就单纯通过学习了解这所有一切。这是逻辑本身的失语。
第二种可能性是AI的内部结构还是“不可逻辑化”的——可能是长此以往的机器学习累积下来所得到的最接近的拟合状态。在这种情况下,一次问答就有可能产生多于一种标准答案,且他们同等最优,但不同义、不自洽。且这两种答案的选择也没有一个评判标准——因为针对评判标准的问答也可能有多种答案。那人类作为一个具有价值理性的评判者不就站在AI之上吗?
根据上文的论述,AI并不可能是“全知”的,我们可以使用AI做出价值评判和反思(虽然这种评判最后要由人来拍板),这或许是“有效率的”。然而,当AI大规模进入未来时代,AI“概然的反思”会转变为使用者“反思的概然”。
现代人自我的建构,包含三个维度:生物性的自我、社会性的自我和反思性的自我。反思性的自我是一个分析性的概念,这使得世界成为我们一个积极注视的对象。尼采在《历史的用途和滥用》中提到了三种历史观:纪念碑式的历史、好古的历史和批判的历史。其中批判的历史的内涵是不使得历史成为定论,而注重建构“历史故事”中的叙事结构和意义结构。在这样的历史叙事中,人可以通过反思提炼出一种属于个人的史观,人讲通了自己的故事,成为了一种“叙事的自我”。这也是人“价值理性”的一部分。但遗憾的是,即使AI不会直接成为价值的绝对权威,也在潜移默化中影响人的价值理性判断。
这就是“反思的概然”:AI也给你提建议、讲故事(这里的故事是“历史故事”,就是人如何是其所是的故事)。但这不是一种“确实性”的故事,而是 “似是而非”的故事。它不仅告诉主体故事的结果,还告诉主体的故事应该由大数据来书写。这种模棱两可的“反思意识”使得未来的个体难以审慎地回溯自己过往的生活,并得出一个忠于自己的历史观。甚至“伦理建议”也成为了一种近似于“神谕”的存在,听者被训练为一种“木头好人”:无需独立进行道德判断,而是服从于“由AI确定的好事”。于是,“反思的自我”开始逃离,伦理学的主体开始消亡。
AI和未来政治:
从数字鸿沟到全景敞视监狱
上面的论述还存在一个问题:为何AI导向的价值体系让我们感到担心?其原因不仅仅是工具理性的无限延伸,还在于对未来政治的隐忧。
首先,AI的建构具有历史意义上的“偏向性”。ChatGPT在美国开发,程序员属于OpenAI的精英群体。这导致全球性互联网公司是AI的话事人。不仅如此,那些拥有更多电子设备的发达国家,会产生更多的数据,成为AI学习的主体;而老人、孩童、贫困落后地区人口就会成为AI计划的边缘人。
更进一步说,AI的偏向性是“数字资本主义”的另一种呈现。“信息富人”和“信息穷人”并不能同等对AI进行训练,还会带来“数字鸿沟”,加深信息技术边缘人群的压迫。
其次,AI的建构具有未来意义上的“规训性”。
更进一步说,就像近年来不断被爆出的“算法监控外卖小哥”事件,AI算法随着智能设备的普及已经变得无孔不入、无处不在。杰里米·边沁提出“全景敞视监狱”的概念,在AI 普及的未来,也许每个可穿戴的AI设备都蕴藏着“大他者”的凝视,人们在AI的指引下不断地进行主动的自我审查和自我规训。而承载着AI的电子数据库,在人们心甘情愿的注册、使用和消费下,成为了满载巨量信息的“超级全景监狱”,在这里,技术和权力被组合在一起,“技术权力”形成了更深的压迫。AI成为了拥有技术和权力的统治阶层和资本势力的工具。
这里,笔者想重提罗尔斯《正义论》里的“无知之幕”。如果将来人们需要重新训练AI,以保证未来社会的“平等的自由”和“公平的机会平等”,那么就要做出这样一件事:所有人站到“无知之幕”后面,忘却了一切个人特征,重新商讨如何训练AI。假设大家都有一定的计算机基础,同时又是一个理性人,就不会支持数字寡头的控制,因为万一自己是“信息穷人”呢?因此,AI最后会落入“数字民主”的框架下:成为一个平等、共享的工具或平台,给予每一个个体平等的知识和帮助。
在这个情况下,并不是人被AI牵着走,变得唯工具论、变得失去自由、变得对价值和伦理模棱两可,而是实实在在地创造一个属于人类自己,服务于人类,并把帮助人类更好的生活作为目标的AI。在这个语境下,人不再被技术异化,人不应该“像AI一样”,而应该是“AI理解人类的价值”。
结语:
元宇宙和未知的未来
在《百年孤独》里,吉卜赛人梅尔基亚德斯带来一卷羊皮卷,里面写着布恩迪亚家族七代人的宿命,“家族的第一个人被捆在树上,最后一个人正在被蚂蚁吃掉。”当第六代奥雷利亚诺破解出最后一章的瞬间,一场突如其来的飓风把马孔多卷走,整个村镇永久地消失在了地球上。
ChatGPT的到来,仿佛也是“元宇宙”的一卷羊皮纸。以现在的视角,AI有着许多隐忧:工具理性的扩大、对主体自由的侵犯、对价值理性的侵扰、数字资本主义的压迫和技术权力的监视。但是人类也许囿于过去的经验而忽略了,在未来的完全元宇宙里“我们已经不再是已知的人类”,AI也许会超出通用人工智能的范畴,成为人类智识不可或缺的一部分。
宛如消失不见的布恩迪亚家族一样,旧的人类带着孤独而死去。而AI的独有的创新性、高效性和强大的理解力与人类的感性和理性达成和解,新的人类带着“爱和理解”的亘古良方降临世间。
参考文献:
1.弗里德里希·尼采,《历史的用途和滥用》,上海人民出版社,2020.
2.米歇尔·福柯,《规训与惩罚:监狱的诞生》,生活·读书·新知三联书店,2003.
3.约翰·罗尔斯,《正义论》,中国社会科学出版社,2009.
微信公众号 | 沧浪夜航
联系邮箱 |
Yanglianghui.
study@outlook.com