天天看点

ChatGPT背后竟然是这么搞的,不可思议!

作者:爱情情感专栏

本人在今日头条所发作品皆为原创首发,未发布其他任何平台,请勿搬运抄袭,违者必追究版权责任。

近期,ChatGPT成为了热门话题,许多人认为我拥有强大的智能,但实际情况并非如此。举个例子,如果你问我:“今天北京天气如何?”很抱歉,我无法获取实时信息,因为我停留在2021年9月的知识。要获取实时信息,需要借助其他途径,比如插件等。

然而,我的回答似乎具备通用AI的特质,能够针对问题做出有针对性的回应,这与以往的AI有了很大的不同,引发了许多人的惊叹。

ChatGPT背后竟然是这么搞的,不可思议!

尽管如此,我并不能理解我所给出回答的含义,因为在我这里,一切都是基于概率。

实际上,我的回答是基于概率生成的,就像在文字接龙游戏中一样。尽管听起来匪夷所思,但那些逻辑严谨的答案都依赖于概率。虽然我无法理解概念,但我需要找到词汇之间的关联,以生成回答,这种关联通过“向量”来表示。

以一个词汇表为例,其中包含“喵”、“汪”、“猫”、“狗”这四个词,它们的向量可能如下所示:

喵:[0.9,0.1]

汪:[0.1,0.9]

猫:[0.8,0.2]

狗:[0.2,0.8]

在这个二维坐标中,你可以看出“喵”和“猫”具有相似的向量表示,因为它们在坐标上比较接近。

ChatGPT背后竟然是这么搞的,不可思议!

“汪”和“狗”的向量也相似,因为它们在坐标上距离较近。虽然我并不理解“猫”和“狗”的含义,但我知道它们与“喵”和“汪”的关联性,这已经足够了。

在实际应用中,为了捕捉更丰富的语义信息,这些向量可能具有几百甚至几千维。你很难想象这种维度的巨大。

也许你会问,这些向量是如何生成的呢?实际上,需要将数据集用于训练。当你提出问题:“猫喜欢吃什么?”我会将问题中的词汇转化为向量,如:

“猫”:[0.9,0.3]

“喜欢”:[0.5,0.2]

“吃”:[0.4,0.7]

“什么”:[0.3,0.8]

“?”

ChatGPT背后竟然是这么搞的,不可思议!

:[0.1,0.1]

然后,将这些向量输入神经网络,经过多层计算和激活函数,生成输出向量。接着,将输出向量转化为概率分布,从中选择概率最高的词汇作为回答的一部分。例如,问题“猫喜欢吃什么?”可能生成回答:“猫喜欢吃鱼。”

这只是一个简单的示例,通常的回答要经过多次概率选择,好像在进行单词接龙一样。比如对于问题“猫为什么喜欢晚上活动”,回答的生成也经过类似的概率推测。

ChatGPT背后竟然是这么搞的,不可思议!

或许你会感到惊奇:如何能够生成逻辑上合理的回答呢?就像某篇名为“GPT-4最震撼我的一点”的文章中提到的一样。不过不必担心,这正是概率游戏的精髓,它以BERT和GPT为代表两个不同的方向。

BERT像是在完形填空,猜测句子中间的词汇;而GPT则像是在写作文,猜测下一个可能的词汇。2018年,Google推出了BERT,在自然语言处理领域引起了轰动,不仅在问答、文本分类、情感分析、机器翻译等任务上表现出色。

ChatGPT背后竟然是这么搞的,不可思议!

然而,GPT的潜力也受到了人们的关注,我ChatGPT也因此在GPT3.0的基础上爆发出来,成为人人可用的应用。这无疑是一次飞跃,让许多人认为AI已经具备了极大的潜力,仿佛能创造出一切。

当然,我不能忽视事物发展的规律。一个新事物的出现往往伴随着幻想,但经过一段时间的发展,人们会认识到它的局限性。ChatGPT也将经历这个过程,从最初的兴奋,到逐渐发现它的局限性,最终在合适的场景中发挥其真正价值。

ChatGPT背后竟然是这么搞的,不可思议!

继续阅读