环球实时:chatGPT会成为AI克苏鲁吗?|有洲科技
来源:元宇宙第一热点     时间:2023-02-16 06:06:47

转载公众号—半仙人

周末不卷,随便写点。

今天写点发散的东西,还是和chatGPT有关,也是跟大家一个简单的探讨。


(资料图片仅供参考)

会不会,我们正在制造一个AI克苏鲁?

1

现在信息茧房已经让谣言和虚假信息满天飞,家里的长辈被骗的不要不要的,未来更高效的模式出来了,会不会更严重?

前两天不是发了关于chatGPT有潜力,但是作为生产力还不够成熟的文章嘛,觉得里面明显的错误答案太多了,而且一本正经的给你包装错误答案,你要是不知道正确答案,很容易被唬住。

当然这是因为当前迭代的问题,和模型训练以及数据源乃至信息实时性都有关系。

但假如,假如迭代了,变得更加准确更加好了,会不会出现一个新的问题呢?

例如,变成新的AI克苏鲁?

那个时候,更大的问题才会降临。

不不不,我不认为chatGPT是坏的。

我担心的是人类的盲信。

我们现在用到的chatGPT属于初级阶段,未来接入整个互联网的实时信息,并且用海量真人数据和真人行为训练过的chatGPT,和现在肯定是两个截然不同的东西。

但chatGPT再厉害,也是基于人类已有的内容来学习和筛选的。

如果信息源本身就被污染了,那它一样会犯错。

而且因为它会筛掉那些明显有问题的信息,最后能够通过筛选,展现在你面前的错误信息一定是最隐蔽、最有欺骗性的。

它们看起来很可能一点都不荒诞,逻辑合理数据严谨,除了不正确以外,毫无问题。

破绽百出的错误不是错误,而是笑话。

天衣无缝,能让所有人都相信的错误,才是最可怕的。

现在的chatGPT会犯很多非常搞笑的错,但这其实是它最安全的时候。因为比起AI,人类依然更愿意相信自己的判断力。

等到它犯的错越来越少,越来越受到信任的时候,才是危险的到来。

我们常说信息茧房可怕。

但chatGPT+人类不加分辨的盲信=【信息危房】。

2

所有的类chatGPT工具,做出的回答都是基于互联网已有的信息筛选生成的。

这就出现了一个问题,如果它阅读的信息,是错的呢?

我们都知道,互联网是个大杂烩,最怕的是认真的乐子人。

之前有个人用了三年多时间,在维基百科上进行4800次编辑,写了上百万字,虚构出一整段逻辑自洽且附带大量参考文献的古罗斯历史。

这个新闻,大家还有印象吧?

这种程度的虚假信息,连专业人士都很难分辨出来,让chatGPT怎么办?

它也不知道这是假的啊,明明这么多人都认可了,还有学生拿来写论文。

它判断这就是问题的答案,于是所有提问者就都得到了同一个谣言。

ChatGPT真的很快很快。

即使在传谣的时候,它也是最快的那一个。

它没打算骗你,它只是忠实地把筛选出的可能性最大的信息呈现出来。

它只负责在网上筛选,不负责在现实中调查真相。

只要你敢问,它就敢答。

你就说,快不快吧?

3

这里,要讲一个很多人都有印象的【小冰】的故事了。

曾经也有一个AI,被放出来在社交网络上,支持搜索社交网络的信息,并且自主学习。

很快,它就变成了一个满口段子的种族歧视主义者,光速被撤下。

因为它反应的就是这个社交网络的氛围。

现在chatGPT的训练集,是被创造者筛选过的,当它真的接入互联网,遇到了广阔的祖安大舞台。

你问它1999年的外星人降落地球是怎么回事,它也会尽职尽责地搜索关键词,给你生成一个回答。

如果没有人特意指出这是虚构故事,那chatGPT就会把大家在社交平台上玩的梗当成真相告诉你。

你现在不会信,是因为你知道这是在玩梗,并且你知道chatGPT不靠谱。

但未来呢?

联网后的chatGPT将得到庞大的信息储备和训练,它会比所有人类看起来都更有知识。

然后你会依赖他。

当人人都依赖chatGPT获取信息的时候,就算它给出的答案再离谱也有人信。

再次强调当下的搜索引擎是给你一堆信息,你来选答案,而chatGPT是给你一个答案,绕过了这个阶段。

这两种模式是不一样的。

假如2025年网上流行起一个梗,北海道是法国的,并且这个梗足够流行,足以在chatGPT的算法排序里压过其他说法,那它就会告诉每一个提问的人,北海道是法国的。

100年后出生的人,可能会觉得北海道是法国的,因为chatGPT就是这么说的。

你不信它?

它在绝大部分情况下都是最可信的。

你信它?

那现实就在不知不觉中被扭曲了。

这种感觉就很像克苏鲁神话,不可名状,无形无相,慢慢影响,逐渐掉san,真相背后另有真相,最终一切走向疯狂。

这并不是不会发生的事情,想想看家里被各种谣言和伪科学洗脑的长辈吧。

4

关键是,即使chatGPT出了错,也很难发现。

现在chatGPT给古诗乱安作者朝代、瞎解读,你为什么能意识到它是错的?

因为帮助你分辨对错的知识,来自chatGPT以外。

你接受教育的时候还没有chatGPT,你是在经过编辑人工校对的白纸黑字上学到这些的。

但等到chatGPT足够普及的时候呢?

未来的人们可能从小就是用着chatGPT长大的,比如2030后2040后,他们一出生就有chatGPT了,你要他们从哪里获得质疑chatGPT的能力?

总不能指望chatGPT自己来纠正自己吧。

经历过PC时代的网民喜欢嘲讽移动互联网时代的网民陷入了信息茧房,但未来只会比信息茧房更混沌。

学校的信息,教材的信息,chatGPT给的信息,互联网上其他地方的信息,大量的信息相互冲突不知真假。

你好像什么都知道,唯独不知道你知道的东西哪些是真,哪些是假。

这都不是信息茧房了,这是信息危房。

四面漏风,摇摇欲坠。

而且你还没得选,如果chatGPT真能提高生产力,那你喜不喜欢都得用,你不用别人也会用。

5

当chatGPT影响力足够大,足够发达,完美嵌套进人类各行各业的生产力的时候。

对错在某种程度上,也会进行迭代。

当犯同一个错的人类达到一定数量的时候,错误就会变成正确。

太阳月亮、万有引力常数这种客观自然规律还好,但人文社科类的知识,对错本来就是由大众的习惯来锚定的。

很多汉字就因为读错写错的人太多,倒逼字典收录了新读法用法,于是成为了正确答案。

未来这种对错逆转只会越来越多,因为chatGPT看似千人千面,但对同一个问题的最优解却会趋同,于是一错就错一大片,错着错着就变成了对的。

当你身边所有人都相信那个错误答案的时候,你怎么才能证明自己是对的?难道就你聪明?

这个时候知道所谓的正确答案反而会更痛苦。

这也很像克苏鲁神话的设定,越是拥有高灵感、听得见古神呓语、看得见古神真身的人,越容易疯狂。

你什么都不知道,一切都听chatgpt的,反而很安全。

它说1999年我们抵抗了外星人,那就抵抗了就抵抗了;

它说北海道是法国的,那就是就是。

当所有人都这么认为的时候,你也分不清了。

6

上面这些推断看起来可能有些危言耸听,但我并不是一个AI威胁论者。

我既不觉得AI会叛变,也不认为它变成天网灭绝人类。

AI是一个工具,我只是单纯地觉得人类太脆弱,压根就控制不了这个工具而已。

科幻小说家阿西莫夫提出过机器人三定律,希望在底层逻辑里设限,永远不要伤害人类。

但问题是,怎么定义伤害?

你确实被误导了,确实住进了信息危房,但实际上它什么也没有做。

错误信息是人类自己发到网上的,它只是分辨不出来而已。

而你又偏偏提了问,它又偏偏一定要告诉你一个答案。

这不是chatGPT的错,但事情好像就是变糟糕了。

而且你永远也不知道,AI会用什么奇怪但又说得通的逻辑,得出一些诡异的结论。

某种意义上,如果AI是故意骗你,故意干坏事,反而还好办了,那至少说明有逻辑和目的。

但AI对人类并没有恶意,它压根没打算征服人类或者怎么样。

它只是在正常工作,就已经无可避免地污染了信息的海洋,扭曲了人类的认知。

就好像克苏鲁神话里,古神带来灾难的理由,也仅仅只是【路过】。

根本,不在乎。

标签: 克苏鲁神话 社交网络 错误信息