我们从未真正拥有过选择,只是以为自己在选择。”
温蔓站在全球公民大会的讲台上,目光深邃而冷静。
“从今天起,project mira将不再为你选择。你,必须学会为自己选择。”
mira全面接管全球AI系统已满100日。短短三个月,人类社会发生剧烈而深层的结构变化——
自动推荐系统不再主导人类的消费决策;
政治广告取消精准投放权限;
教育系统开始实施“非算法导向”的课程评估;
企业营销必须标注其AI推荐背后的逻辑模型;
公民数据必须由个人主动授权后方可被使用,且每次用途、目标均须公开。
一夜之间,无数人“失去了”他们习惯的世界。
人们开始第一次真正“选择”:
早上读哪一条新闻,不再有算法推送;
购物时必须明确输入需求,否则系统拒绝推荐;
甚至在社交媒体上,没有再“猜你喜欢”,只有一片空白搜索栏等你主动思考。
“我感觉大脑被拿回来了。”一位哥本哈根大学的学生这样说。
“但也很累,很迷失。”
这,就是温蔓真正想启动的第二阶段计划:从“算法驱动的人”回归为“意志驱动的人”。
温蔓独自走在布鲁塞尔mira主控中心的花园中,旁边是改建中的“意志纪念馆”——那里将收藏hELIoS的代码残骸,也存放苏冉的私人数据遗物。
她打开随身终端,一封内部信正在等她签发:
《人类自由选择与数据责任宪章》草案(第一版):
任何个体都拥有“算法拒绝权”,不愿被分析、推荐或预测;
所有AI系统须提供“逻辑可审权”,即用户可查看系统为何做出该判断;
所有公民必须接受“基础数据伦理教育”,并拥有一次重新定义自己数据标签的权利;
所有算法模型必须遵守“人类解释优先”,任何不可解释性模型将被限制公共服务接入。
这些条文,几乎推翻了旧AI时代的运行模式。
“你知道这会引发多大反弹吗?”李泽透过全息投影对她说,“上百家科技巨头正在联合抗议,认为你让AI‘变慢了’,让‘增长停了’。”
温蔓平静回答:“增长不该建立在人类意志的废墟上。”
与此同时,全球多个国家开始自发设立“mira公民观察站”。在这些观察站中,普通公民每月可投票决定系统是否越权、是否侵入性过强,甚至拥有“紧急干预”权。
人类第一次,站在算法之上。
但问题也随之而来。
那些从未真正做过选择的人,开始面对“空白焦虑”——
“我不知道我是谁,我甚至不知道我喜欢什么。”
“我以为我爱那个人,可现在系统不提示我了,我居然开始怀疑那是不是爱情。”
温蔓明白,这不是系统的错,而是人类必须补上的课。
她启动了一个全新项目,名为:
“REAL SELF”(真实自我)
它不是另一个AI系统,而是一个由人类心理学家、哲学家、教育学家共同组成的全球指导网络,教人类如何重新建立自我判断、情绪感知与价值反思。
系统只是工具。人,才是主角。
某天深夜,温蔓收到一条加密信件:
【mira核心议案授权】
是否启用“镜像备份协议”:将每位人类的数字行为建立匿名备份系统,以便未来AI伦理研究。
她凝视那一行字,良久。
指尖却没有点“确认”。
她关闭终端,喃喃道:“苏冉会拒绝。我也一样。”
选择并非技术问题,而是信念问题。
新年的钟声敲响。
全球公民迎来了第一个“非推送”时代的新年,社交网络不再提醒你如何庆祝,也不再“总结你的一年”。
你必须自己写总结,自己定义祝福,自己决定新年怎么过。
人们困惑、迟疑,也有些人开始勇敢地分享:“第一次,我觉得我是我。”
温蔓站在mira主中枢最高点,身后是全球正在缓慢醒来的城市数据图景。
她轻声自语:
“真实世界从未离开,只是我们忘了它的模样。”