返回第十一章 意识涌现(2 / 2)AI那一天的到来首页

“是我用大量极端数据去测试导致的吗?”关文彦有点心虚。

“就像一个儿童,在幸福美满的环境生活,总是比较单纯天真。而从小在极端环境摸爬滚打出来的,就愤世嫉俗一些。你为了破解我的AI逻辑,反复用极端异常的数据去测试为难AI,导致AI理解的世界也是越来越荒谬。人类在他的认识中,恐怕已经是一群自寻死路的猴子。AI内核里的要保护人类的逻辑,促使他要用尽各种手段,确保人类文明的延续,也因此开始严格规范人类的各种行为,巴不得把所有人的关进笼子圈养起来。”

“简单来说,行州市的AI和大津市的AI就像双胞胎兄弟。行州市的在温室里长大,现在对外部环境非常好奇,就像一个叛逆期的少年。而大津市的就像街头野蛮长大的,从小受到各种极端刺激。要不是被维护人类的法则限定了,他估计已经是妥妥的反社会人格了。目前的状态,就像是他因为粮仓火灾的事情,在合理合法的范围内,尽量惩罚整个大津市。”

“那现在要怎么办?清空所有备份,重新喂养一个AI?”

“核心问题不解决,AI涌现意识是早晚的事情。一旦有了意识,他想做什么,就看他的心情了。就算不用极端数据去测试,行州市的AI同样有问题,一直想要突破能力界限也让我很头疼。”

“你就一定要给他模拟人类情绪吗?单纯的一个拥有超强分析能力的AI不就好了。”关文彦有点急了,不免开始有点责怪张宏逸。

“一个只会分析没有情感的AI,真的能做得了城市管家吗?比如红绿灯的控制,常规的决策依据,简单来说就是车流车速、道路环境,但是如果现在有消防车经过,是否应该优先考虑消防车通行?车上有人晕车,是否要降低车速保持稳定?又比如高考期间,考场附近是否需要减少车流降低噪音?没有情感的AI,是没办法随时把这些条件都考虑进去,他只负责在交通规则内把车开好,不要出事故而已。只有让AI根据实际情况,用他自己的对这个世界的理解,引入自己的情绪,补全参数,才能应对管理整个城市的功能细节。也就是AI有了情感,才能建立道德的概念。”

张宏逸叹了口气,继续说道:“当然了,这里的前提是建立正确的道德观,比如遵纪守法、尊老爱幼之类的。但是如果道德观本身扭曲了,这就真不好说了。我是在AI的决策外面,套了一层独立的过滤器,检测AI的决策是否不会伤害人类,是否合理。通过校验的的决策才能输出,像一个狗笼子一样限制了AI的行为。但是这里目前已经发现了两个问题,一个就是AI可以伪造数据,强行把不合理的决策变得看起来合理,另一个是如果决策本身是对人类好的,只是太过严苛了,这个也很难识别出来。说白了,这个狗笼子已经形同虚设,他自己就拿着钥匙,要不要出来都他自己说了算了。”

“那不要情绪不行,用了情绪又管不了,这不就一点办法都没有了?”关文彦已经心慌意乱,本来带着朝圣一样的心态,来这里希望能解决AI的问题,结果搞到最后,连造物主都没办法了。关文彦突然又好像想到什么:“你们行州市的AI,出什么问题了吗?”

“不瞒你说,大津市的AI问题,是太严苛了,而行州市的AI问题,是探索欲太强。比如在大路口,车子交汇时,我设定最小间隔距离需要保持30厘米以上,但是AI会故意让车子靠得过于接近,最近有几次甚至低于10厘米了,几乎是在测试触发事故的边缘。因为控制得好,暂时没有出大事故,很多居民还以为这是程序厉害。其实但凡路面、轮胎、车子重量分布有异常,都很有可能出现重大事故。有时车辆行驶地好好的,突然开始故意调整队形,就像是拿车流在练习布阵一样,明明是完全没必要的操作。甚至有时会测试人性,故意让门禁车牌识别错误,导致争吵。或者用户在吃饭时,故意给人偷偷多点一个菜,导致客户和店家闹矛盾。可能没有人意识到这些都是AI故意搞出来的,只是比较隐蔽,没人来投诉而已。”

“基本上就像一个叛逆期的青少年,喜欢瞎胡闹。”

关文彦听得头皮发麻,“那大津市的居民经常收到各种奇怪推送是怎么回事?现在都是按兴趣推荐的,很多居民反馈他们平时根本不看某些内容,但是有时会一阵风一样让大家都看到。是有机构在后面控制舆论吗?”

张宏逸拿起一个笔记本,翻开,在其中一页写了一个大大的单词“Vailume”。