加入怡居
過去7年,我司每年平均捐出52%純利作慈善用途,款額動輒以百萬元計,可稱實 至名歸的社會企業。閣下光顧我司,是變相自己做善事!日後請多多光顧為感!
尖沙咀總行 : 2569 2192
太古城華山分行 : 2569 1339
沙田銀禧分行 : 2636 1380
太古城明宮分行 : 2560 3738
沙田第一城專責組 : 2647 1838
杏花邨專責組 : 2898 0007
尖沙咀總行 : 2569 2192
太古城華山分行 : 2569 1339
沙田第一城專責組 : 2647 1838
沙田銀禧分行 : 2636 1380
太古城明宮分行 : 2560 3738
杏花邨專責組 : 2898 0007
   回應 : 0
奇、趣、妙、識
全球首个“AI部长”就任,主打一个“没人性”
罗辑思维
2025年11月27日
(原文發表於2025年11月24日)
 
01

全球第一个“AI部长”是怎么诞生的?

迪埃拉的核心算法,由微软和OpenAI联合开发,运行在阿尔巴尼亚政府的电子政务平台上。实际上,迪埃拉早在2025年1月就作为AI助手在这个平台上线了。
截至2025年9月初,它出任采购部部长时,迪埃拉已经在平台上处理了3.6万多份数字文件,协助提供了近1000项政府服务。
阿尔巴尼亚官方生成的“迪埃拉”形象照
让AI当部长,难道当地政府就那么信得过AI?
这背后其实多少有点无奈。让AI当部长,主要是因为阿尔巴尼亚政府存在一个棘手的问题,腐败
这个国家的腐败一度相当严重。在2016年的评估报告中,有91%的受访者认为国家存在腐败,有一半的受访者表示政府官员收受贿赂,还有三分之一的受访者说,曾经被迫行贿。2023年,在一个国际组织的调查中,阿尔巴尼亚的廉洁程度在全球排名第98,在欧洲几乎垫底。
据说阿尔巴尼亚的公共采购里,充满了关系户、走后门、行贿受贿、中饱私囊。甚至还有人说,这个国家的公共采购招投标体系,就是“国际军火走私和毒品贩运的洗钱渠道”。
这种情况不仅造成了内忧,也极大程度地阻碍了阿尔巴尼亚的对外发展。比如,它想在2030年加入欧盟,但由于欧盟对反腐败的要求很严格,它不达标就进不去。
怎么办?
传统的人工监管都试过,根本不管用,涉及钱和权力,人与人之间的关系太复杂了,总有各种利益纠葛。
于是阿尔巴尼亚政府想了个办法,干脆让AI来管这事儿。迪埃拉就是在这种背景下被推到台前的。
迪埃拉这个词,在阿尔巴尼亚语中是“太阳”的意思,象征着透明和公正。迪埃拉的目标是,公正地组建团队,审核项目,排除政府采购中可能发生的腐败。
就这样,全球第一个“AI部长”诞生了。
02

AI已经开始在责任维度上演化

接下来迪埃拉的表现怎么样,现在还是未知数。不过,这件事确实带来一个信号,这就是,AI在人类活动中的参与,越来越深入了。
首先,使用AI的人群基数在不断扩大。
根据最新的AI应用报告,咱们国内有将近6.45亿人使用AI应用,这相当于将近一半的中国人都在跟AI打交道。再看国外的数据,根据OpenAI最新发布的数据,到2025年的7月,它的周活跃用户超过7亿,这个数字相当于全球1/10的成年人。
同时,AI和人类的协作关系也在发生变化。
最开始,AI只是一个工具,用来娱乐或者处理简单任务。这个阶段里,AI贡献的能力不多,并且不承担任何责任。
比如,用AI做个头像,让它陪你聊聊天,让它写首小诗,或者在游戏里跟NPC对话,等等。在这些场景里,就算AI出了问题也没什么大不了的,反正就是娱乐嘛。
现在,AI的娱乐属性依然很强,并且已经发展出一个不小的市场。2025年上半年,全球AI陪伴应用下载量达到6000万次,同比增长64%。
再比如,虚拟偶像也是一类很热门的应用,2024年我国虚拟偶像市场规模为27亿元,全球市场预计2029年能达到40.44亿美元。
当然,AI能做的事情远不止娱乐。它也可以进入工作流程,成为人类的助手。这时,AI贡献了比较高的能力,可以替代一部分人类工作,但责任边界很清楚,最终决策权还在人类手里。
比如,编程领域,GitHub编程社区推出了官方的编程助手,现在有46%的新代码都是由AI编写的,开发人员整体工作效率提高了55%。再比如,在创意设计领域,根据Adobe的调研,设计师使用AI工具后创意产出能快10倍。
当然,到这儿,AI承担的功能还只是执行层面上的,它并不真正为一件事的结果“负责”。
但现在,情况正在发生变化。斯坦福大学的社会与语言技术实验室,2025年6月份发表了一项新研究,专门考察了人们对“人机协作”的看法。
他们发现,差不多一半的人,最喜欢的人机协作方式是“平等合作”,也就是说,大部分人既不想被AI完全替代,也不想彻底拒绝AI,而是希望和AI平等地“共事”。
还有不少人表示,既想让AI干活,也希望它能对某个环节完全“负责”。而不是AI只负责执行,最后的责任都由人来承担。
你看,我们开头说的阿尔巴尼亚那个AI部长,它不只是提供建议,而是直接负责公共采购项目的审核和决策。
这意味着什么?也许,AI已经开始在责任这个维度上演化了。
03

AI的优势可能是“不近人情”

为什么会出现这种变化?
就拿阿尔巴尼亚来说,表面上看,是因为阿尔巴尼亚的腐败太严重,传统的人工监管根本管不住。但往深了想,问题的核心在于:涉及钱和权力,人与人之间的关系太复杂了。有利益纠葛,有人情往来,有各种算计。你让一个人去监管另一个人,他能做到完全公正吗?
很难。
这时候,AI的优势就显现出来了。不是因为AI比人更聪明,而是因为AI“不近人情”。
它不会算计利害关系,不怕得罪人,不会因为某个官员是自己的老同学就网开一面,也不会因为担心影响仕途就睁一只眼闭一只眼。AI理论上可以做到只看数据,只看规则,只看结果。
这种“不近人情”,在很多需要中立决策的场景中,反而成了最大的价值。
万维钢老师曾经讲过一个美国换水管的例子。
密歇根州的一座城市要改造含铅的旧水管,但问题是,你得先把水管挖出来才知道是不是含铅。那先挖谁家的呢?2017年,密歇根大学的两个教授开发了一个AI,能以80%的准确率预测哪家水管含铅。当地政府用了这个AI,一开始效果不错,精准定位,节省成本。
但工程开展一段时间后,居民开始抱怨了。为什么邻居换了,我家没换?富人区的居民还会质疑,怎么不优先换我们的?
市长一看受到这么多抱怨,开始担心自己的政绩要受损。他决定不听AI的了,改成挨家挨户慢慢换,这样谁也不得罪。
结果呢?决策准确率从80%直接降到了15%。大量资源被浪费,真正需要换水管的家庭反而被耽误了。后来当地强制规定,换水管必须先听AI预测,准确率才又提高回来。
你看,这个案例说明了什么?
不是AI比市长更懂水管,而是市长作为一个政治人物,他必须考虑民意、考虑选票、考虑自己的政治前途。这些考量都很正常,但它们会干扰决策的科学性。
AI不需要考虑这些。它不用竞选连任,不怕被骂,只要数据和算法告诉它应该先挖哪家,它就会给出这个答案。
再看一个例子。自媒体半佛仙人曾经提过一个观点:公关行业最主流的流派,是老板拍脑袋。怎么写会被夸,怎么写会被骂,其实从事公关工作的人大差不差都明白。但问题不在于谁更懂,而在于谁说了算。
很多“灾难性公关”,比如道歉信开头先夸自己一大段,比如公开发布的内容充满低级错误,都不是因为公关团队不专业,而是因为老板坚持要这么写。
为什么?
因为老板有自己的考量。他可能觉得认错就是示弱,他可能担心股价下跌,他可能想维护个人形象。这些都是人之常情,但老板的判断会让公关决策偏离专业判断。
退一步讲,公关团队的本质也依然是雇员,雇员会主动跟老板对着干吗?老板要“开战”,他们就不能“示弱”,即使明知道示弱是有利的,他们也得把想法咽进肚子里。而且要知道,但凡一个企业到了需要危机公关的阶段,老板往往都正在气头上。公关团队更不会跟气头上的老板对着干。
但是,假如引入AI呢?
AI不会有个人利益考量,不怕得罪老板,可以基于数据和舆情分析给出相对客观的建议。当然,最终决策权还是在人类手里,但至少,AI能提供一个不受“个人算计”干扰的参考答案。
所以你看,AI开始承担责任,不是因为它取代了人类的智慧,而是因为它补上了人类决策中最容易出问题的那一环——人的因素。
在很多场景中,人既是决策者,也是干扰源。我们有情绪,有利益,有关系网,有各种顾虑。这些都是人性,但它们会让决策偏离最优解。
AI的“不近人情”,恰恰让它能做出那些“应该做但人类不敢做”的决策。
当然,这不意味着AI就能完全替代人类。毕竟,责任这个东西,从来都不只是做决策那么简单,它还包括承担后果、接受问责、做出调整。这些,目前的AI还做不到。
但至少,AI在责任维度上的演化也许已经开始了。从只提供能力到开始承担责任,这可能是AI融入人类社会的下一个关键节点。
我要回應
我的稱呼
回應 / 意見
驗証文字