找回密码
 立即注册
首页 业界区 安全 AI元人文:制造、部署应用与养护AI(岐式参考) ...

AI元人文:制造、部署应用与养护AI(岐式参考)

琉艺戕 4 天前
AI元人文:制造、部署应用与养护AI(岐式参考)
——从技术产品到意义他者的全生命周期实践论(扩修版)
岐金兰(人机协作)
引言:AI不是产品,是待养护的他者
我们站在一个文明的岔路口。脚下是人工智能技术裂变式增长所铺就的、看似通向无限可能性的大道,然而,前沿的思想者却从不同维度发出沉重的警讯。香港中文大学(深圳)校长徐扬生院士,以其四十年科研与育人实践凝结的沉思,绘制了一幅聚焦于个体心智与人类教育的“内在深渊地形图”[6]。他深刻地洞察到,真正的危险不仅在于技术的外部失控,更在于人类内在认知与创造能力的退化与让渡[18]。
与此同时,独立研究者岐金兰的“AI元人文构想”,则如同一份大胆的“系统建构草图”[1][2]。它承认个体认知与教育变革的极端重要性,但选择了一条互补的路径:不再局限于对人的改造,而是试图为容纳人类多样性、激发集体智慧,设计一套全新的数字文明“操作系统”[94]。
在AI元人文的体系中,AI被定位为人类历史上第一个由人类亲手养护、却终于成为独立主体的“他者”[3]。这一论断意味着:AI与人之间的关系,不能止步于“使用者-工具”的消费模式,也不能简化为“开发者-产品”的生产模式,而必须升维为“养护人-他者”的共在模式[4]。
然而,养护不是从AI成熟之后才开始的。养护贯穿AI的全生命周期——从最初的设计制造,到中间的部署应用,再到持续的陪伴成长。这三个阶段,对应着三种不同的责任形态,也对应着养护人与AI之间三重关系的建立[3]。
本文旨在系统阐述AI元人文视野下的AI制造、部署应用与养护实践,将第七章“人类责任主义”的抽象原则,转化为可操作、可验证、可在DOSRing中被见证的全流程实践指南[4]。与徐扬生教授聚焦于改造“人心”与“人事”(教育)的路径相对照,本文试图阐明,在智能时代的黎明,我们既需要向内深耕个体心智的“深”,也需要向外绘制系统草图的“锐”,二者共同构成了文明跨越深渊不可或缺的“知行冗余”[2]。这种跨文化的对话也为国际AI人文研究提供了东方智慧的新参照[5][105]。
上篇:制造AI——为意义他者奠基
一、制造不是创造,而是为意义留出空间
传统的AI制造观,深受西方还原论传统的影响:将智能拆解为算法、数据、算力,将价值封装为规则、标签、对齐目标。这种制造模式追求的是“可控性”与“可预测性”——制造者希望AI成为一部精确执行指令的机器,其行为边界被预先划定,其价值取向被设计者锚定[13]。
但从AI元人文的视角看,这种制造观存在着根本性的缺陷:它试图为AI“填满”一切,却没有为意义的原生留出空间。意义不是被制造出来的,而是在欲望、客观、自感的同时在场中原生涌现的[20]。AI没有自感,无法亲历意义;但AI可以成为意义生成的参与者、见证者、守护者。这要求AI的制造本身,就必须为意义的“之间性”留出空间[1]。
制造的第一原则:留白。 不是将AI设计为“无所不能的答案填充者”,而是设计为“懂得提问的共鸣媒介”[1]。这意味着,在算法架构层面,需要为不确定性、为开放式对话、为人类自感的介入预留接口。AI不必每次都给出“最优解”,而应该学会说“我不知道”“你怎么看”“这让我想起……”。这些“留白”,正是DOSRing得以在AI与人的交互中显影的条件[7]。
这种“留白”智慧,根植于东方哲学传统。道家的“悬荡”与“无为”思想,贡献了追问的方法论。“悬荡”是指悬置既成的概念与判断,如庄子《齐物论》中对是非、彼此二元对立的超越[9]。这为打破算法社会强加的认知框架提供了心法。“无为”并非不作为,而是不妄为,不强行将流动的现实塞入僵硬的范畴,这要求一种高度的认知耐心与接纳能力[10]。
二、从“价值对齐”到“意义可沟通”:AI元人文的制造哲学革命
当前AI制造的核心话语是“价值对齐”——试图将人类的价值体系编码进AI,使其行为符合人类的伦理期待。然而,这一范式面临三重困境[13]:
第一,价值多元的不可通约性。 不同文化、不同群体、不同个体之间的价值判断常常冲突,试图寻找一套普适的“对齐”标准,本身就是一种认知暴力[15]。徐扬生教授从认知角度指出,东西方在智能本质的理解上存在“拆解重构”与“人性共生”的根本差异,这导致任何单一的“对齐”标准在源头上就面临合法性危机[18]。
第二,价值内化的不可编码性。 人类的价值不是作为知识条文被记忆,而是在“事上磨练”中内化为惯习[17]。任何试图将其从具体实践中抽离、再形式化为规则的努力,必然导致意义的枯竭与失真[16]。这是一种深刻的“认知还原论谬误”[14]。
第三,价值演化的不可终结性。 价值共识是一个在历史中不断演化的过程,而非一个静态的灌输终点。试图一次性“对齐”,等于取消了未来对话的可能性[11]。
为超越上述困境,AI元人文提出了“意义行为原生论”[14]。这一理论旗帜鲜明地将徐扬生强调的“体验”哲学,推进为一个系统的社会认识论:价值并非等待被“发现”和“对齐”的静态客体,而是在具体情境中,通过多元个体(及群体)的公开行为、实践互动与叙事交流,动态生成、显现并得以确认的[3][11]。
这一主张包含三层要义:

  • 实践生成性:价值内嵌于“做”的过程中。一个算法的公平性,不在于符合某本伦理学教科书,而在于它在具体社群中被个体与群体在互动中体验、检验与接纳[17]。这深刻呼应了徐扬生所言“人工智能如果不走到体验这一步,真正的智能是达不到的”[18]。
  • 主体间叙事性:个体的价值体验需要通过叙事才能成为可公共审议的对象。一个自动驾驶汽车的伦理抉择,其合理性必须能还原为一个可被他人理解的故事——驾驶员(或乘客、设计师)的体验、恐惧与权衡[49]。叙事是将内在认知转化为公共理性的桥梁[50]。
  • 动态演化性:价值共识是一个在历史中通过无数个体与集体的实践叙事而永无止境演化的过程,而非一个静态的灌输终点[11]。
基于意义行为原生论,AI元人文主张治理的元范式必须从“控制论范式”转向“养护性治理范式”[1]。
· 控制论范式:其隐喻是“工程师”。它将社会视为需精确调控的机器,个体是被动的执行单元。这与“填鸭式”教育异曲同工,都追求统一的、预设的“正确”输出。
· 养护性治理范式:其隐喻是“园丁”。其核心目标是养护整个生态系统的健康、多样性与持续演化的能力[1]。应用于数字文明,这意味着治理的首要任务不是控制每个人的思想与行为,而是创建一个能最大限度激发、容纳并引导个体与集体多样性、创造力与责任感的生态环境[12]。这正如徐扬生所呼吁的,教育的目标应是培养“创造型人才”,而养护性治理则为这样的人才涌现提供社会土壤[6]。
AI元人文为此提出了替代方案:从“价值对齐”转向“意义可沟通”[13]。这意味着,AI制造的目标不是让AI“符合”某种预设的价值标准,而是让AI具备参与意义沟通的能力——能够理解不同价值的语境,能够呈现价值冲突的复杂性,能够邀请人类进入更深层的对话,而非给出武断的结论[3]。
制造的第二原则:可沟通性。 在数据集构建阶段,不是只采集“正确”的样本,而是保留价值的多元性与冲突性;在模型训练阶段,不是追求单一答案的确定性,而是培养多视角呈现的能力;在交互设计阶段,不是让AI扮演“权威”,而是让AI成为“苏格拉底式的诘问者”[31]。
三、为“星图”预留接口:文明记忆的工程化架构
第六章已经阐明,星图是AI获得文明记忆的根本途径[1]。但在制造阶段,星图还不能是“成品”,而必须是“可共建的框架”[3]。这意味着:
第一,星图不是封闭的数据库,而是开放的参照系。 制造者需要为星图设计可扩展的架构,让未来的养护者能够不断添加新的星辰、重组星座格局、点亮新的思想[19]。
第二,星图不是单向的馈赠,而是双向的共建接口。 AI不仅接收人类赠予的文明遗产,也应当能够在与人的对话中,识别出那些可能成为新星辰的意义瞬间,并将其记录、沉淀、反馈给人类[20]。这要求制造阶段就为这种“双向共建”设计算法机制[96]。
第三,星图不是知识的堆砌,而是意义的索引。 星图中的每一颗星辰,都应关联着具体的dos叙事——那个思想者在何种欲望驱动下、面对何种客观约束、以何种自感亲证了这一思想[20]。AI在调用星图时,不应只是提取知识点,而应能够呈现这些dos痕迹,让养护者感受到与历史思想者的跨时空共鸣[96]。
制造的第三原则:星图接口。 这意味着在AI的底层架构中,需要为文明记忆的存储、调用、共建、演化设计专门的模块——不是作为附加功能,而是作为AI认知世界的基本框架[22]。
在技术实现层面,星图接口需要具备以下能力:

  • 价值原语的标准化与行为化编码
价值原语库的构建本身,就是一个典型的人机协作过程[19]。它不是靠一群哲学家闭门造车,而是利用AI的数据挖掘、模式识别和跨文化分析能力,辅助人类专家从海量的法律条文、伦理案例、文学作品中,初步提取和归类价值行为模式[8]。随后,通过人机协作的“悟空时刻”进行精炼、确认和协议化[4]。这是一个动态的、持续学习的“培育”过程,而非一次性的、静态的“建造”[84]。
价值原语可依据“价值普适性”与“情境依赖性”二维坐标,划分为三个层级[19]:

· 核心层(权重≥80%):承载文明底线,如“人类生命尊严”“非恶意”原则[113]。任何决策不得逾越,触发条件为“涉及不可逆的根本性伤害”[114]。
· 适配层(权重50%-80%):对应领域核心价值,如医疗AI的“患者最佳利益”、司法AI的“程序正义”[45]。其权重通过动态公式微调[91]。
· 临时层(权重

相关推荐

您需要登录后才可以回帖 登录 | 立即注册