两周学习报告

说实话,我原来设定的目标是本周要写两节课程和两篇论文。事实证明,我完全低估了这些任务的工作量。你可以看出来,这些学习报告很多都是用LLM写的。就像cmu15445的讲师所说的那般,数据库无处不在,那么我们可以合理推测,我们的大脑也是数据库的一种。既然这样,我们完全可以应用在语义算子那篇文章中的结论,用LLMs所蕴含的强大语义能力,将讲师或者论文中对我的语言头脑不熟悉的内容经过LLMs的操作转换成我的头脑熟悉的部分。我要开始我的逻辑推理。

为了证明我的文字并没有被人工智能绑架,我可以保证,上面和下面的所有文字的产出过程完全依赖我本人的头脑,没有用AI。

在我看来,这是未来人类的必由之路。有一些人声称依赖这些生成的文字会损害人的思维能力,这样的话未免有些傲慢。当一个人提出这样的论断,往往基于一个假设:由使用ai造成的思维习惯是不好的,通过头脑直接写出的文字是好的。但是我们回望进化的历史,好与不好是一个相对的概念,而绝非基于绝对的标准。现代智人的超大脑容量,在很长一段时间内可以称得上是累赘:消耗大量的能量、需要笨重的头骨保护……即使智人的脑容量已经远远超出其他物种,他们在很长一段时间都处于食物链的中段,无力与拥有强大体格的掠食者竞争。这个时候,我们能说放弃进化更加强大的身体,进化脑容量是不好的吗?反过来想,在我们已经稳稳坐上顶级掠食者的宝座后,难道就能够断言我们的进化方向是正确的吗?要知道,人类成为顶级掠食者的时间事实上甚至比不过那些在我们眼中蠢笨的远古生物,未来还尚未可知呢。

在修辞学文字学萌芽的时期,苏格拉底也曾经在与他人的交谈中担心文字的普及会让人丧失记忆和深度思考的能力。但是现在看来,能够认真阅读一本书的人反而在社会上被称为有思想智慧的存在,没有人会说他(她)记忆力差、不会思考(至少不会基于这一点说)。其实道理很简单,事情是发展的,我们要与时俱进。

这样的理由还会遭到反驳。那就是我们作为人类本身,任何事情都是基于本身进行判断的,考虑我们种群遥远的历史本来就和我们个人(寿命不过百年)关系疏远,更别提其他物种了。既然现代的哲学主流都是基于以人为本,大脑和语言的进化可以称的上是我们自身的进步,无论如何,他们离开了我们自身就毫无意义。甚至是对于锤子、斧头这样的工具,也是我们思维的外延而已,我们可以理解他们的作用。他们在我们理解范围外的意义是不可想象的,我们没有办法想象出用锤子剪头发,用锤子写字。但是对于这些新的事物,机器人也好,大模型也好,他们对于人类的意义似乎就像工具与存在之间的分界线。从来没有讲述人类灭绝后锤子们日常生活的科幻作品。但是与机器人人工智能相关的作品却层出不穷,他们的行为似乎是我们理解之外的。最经典的机器人作品来自阿西莫夫,这位天才的作家提出了机器人三大定律,似乎是成功地把机器人的行为归位我们能够预测分析的范围,但是对于人工智能,到目前为止,这样通俗明确板上钉钉的定律似乎还没有出现。(事实上,即使是机器人,现实生活中也没有任何理由让他们遵循机器人三大定律,阿西莫夫的假设完全是形而上学的)。这就引出了另外一个问题,我们无法理解的真理,是否有意义,是否存在呢?

对此,我不能说我要反驳这个观点,但是我可以讲讲我的理解。这个问题的核心在于什么是人。我这周读了一本书叫《人类简史》,书中把人类的历史划了三个关键的节点:认识革命、农业革命、科学革命。在认识革命之前,对人类的分析完全基于生物学的范畴,我们可以用生物的知识解释我们的种种行为,科学家们用化石DNA来研究智人这一生物意义上的物种。我们的存在似乎只局限于这具身体。但是在那之后我们还能够这样认为吗?为什么我们会学习历史、语文这样庞大的分支,去了解关于巫术、部落、国家、法律、意识形态这样事实上看不见摸不着,但又让我们对其存在性确信无疑的东西呢?不管你承认与否,它们都是我们的一部分,就像集合,去掉了所有有意识的人,它们就消失了,它们就是我们一部分。

我扯的太远了,对于概念的思索总是让人投入。黑格尔提出了辩证法,人的创造和行为本身构成了自身,系统的演化也是系统的一部分,马克思说人是一切社会关系的总和。对于人工智能,如果把我们的头脑嵌入这个更加庞大的系统,是不是我们自身的意义也扩展了呢?拜托,这和我们拿起扳手或者开着汽车没什么区别。

还有一个问题没有解释,在其他工具中,人本身似乎是处于绝对核心地位,但是人工智能,它们和我们如此相像,甚至让我们认为它们可能是平等的,甚至未来会凌驾于我们之上的。这个时候,我觉得我们可以搬出语义算子中的黄金算法了。对于大模型对于某个具体的查询,我们可能完全不知道怎么来的,判断是怎样进行的,要人类进行判断也绝对达不到同样的结果,但是黄金算法提供了一个共识,不管怎样,这个算法的合理是毋庸置疑的,对人类的理解而言。我想到一句话叫做“把权力装进制度的笼子”。这简直是新的机器人三大定律啊!

好了,毕竟人脑并非简单的关系性数据库,黄金算法没有那么好找,不过我打算开始做这件事。从那几篇用人工智能写的文章你可以看出我的一些实践。

比如#01中,我先听了一遍课程,记下关键词句,在脑子里形成一个初步想法,在大模型中询问它们的意义和关系,然后把大模型给出的文字读一遍,修改脑子里面的想法,然后把这个新想法写出来。

在#02中,我先抄写课程目录,然后粗略地问大模型他们的概要,记在脑子里后再听课。听完课后对每个人句子具体询问内涵,然后选择关键部分写上去。如果听不懂就要求举例子,至少把例子听懂,然后把例子写上去。

在#03中,说实话我的实践比较糟糕,我的原计划是像#02一样分抽象意义和具体例子两种情况写。然而这篇的内容是有关数据的存储形式。这和前两章中纯粹的逻辑完全不一样。这些硬性规定的东西建立初步印象的效率简直太低了(比如顺序和random写入的效率差异,它们和机械硬盘固态硬盘的物理结构有关,又比如Pages和Files的结构,它们的排列和数据结构有关,什么索引什么B+树,我没见过啊>_<),好吧,那举例子吧,结果全都是什么图书馆和奶茶店这样的例子,这谁敢信啊?我只能找原知识来补,效率下降了。好吧,我感觉自己就像是那个最愚蠢的DBMS在Latency Time极高的磁盘中进行大量random的I/O呢(笑)。

不管怎样,我还是只能依靠大脑想出一个新的golden algorithm出来,以上就是我前两周的学习思考,今天太晚了,就让我沉浸在睡梦中吧。

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇