@mob 另外我怀疑国内上层面临的情况很像是三体三里说的宇宙是瘫痪巨人的比喻。有些乐观主义者认为上层有明暗两套做法,明面洗脑宣传,暗地还是了解实际情况并且有所作为挽救局面的。我感觉上层实际上确实就是不知道基层什么情况,应该说也没有动力知道,反正上层确实在赢赢赢,活的也赢赢赢。
本来自杀率之类的指标肯定是统计才能够了解客观情况的,但是现在连了解都不像在尝试,更别说改善工作环境之类的实质工作,反而去搞什么守桥员、桥边拦网之类的又一波捞钱的工程。。。。
wumingshi 发布的最佳帖子
-
RE: 大萧条会来吗,或者说已经来了?发布在 Silence
-
RE: 知乎回答备份:如何理解贪官说“官位上升到一定高度,不得不贪”?发布在 Blogs
https://freezhihu.org/question/595084077/answer/6627f7d248acbf45df043b30
这个回答我想回味的时候已经没有了,幸好有这个项目备份,可还行为什么中国社会容错率显得那么低?
因为只有发达国家的容错率才比较高。
而DFDGZF始终坚称是发展中国家,根本原因就在于容错率太低。
那么,发达国家的容错率究竟有多高呢?
2021年夏天,荷兰阿姆斯特丹出现了震惊全球的洪涝灾害,并造成了史上最严重的人员伤亡和财产损失。
当时,经荷兰联邦调查组认定,阿姆斯特丹市政府及有关部门均存在严重渎职失职问题,造成了本不应该发生的伤亡。
随后,时任阿姆斯特丹市长(安妮·H·鸿尔德)被处以严重警告、政务降级处分。
但在2年后(2023年11月),安妮·H·鸿尔德却不仅东山再起,而且还是升官+被重用:升任荷兰卫生福利部(荷兰最高卫生行政部门)二把手,名字排在该部门9名领导之首。
也就是说,短短2年时间,她就从严重渎职失职的阿姆斯特丹市长,直接升官至荷兰联邦正厅级。
显然,这已经不是“容错率高”能够描述的问题了。
然鹅,距离荷兰仅594公里的德国人在看到这个新闻后却都笑出了声。
2008年8月,新西兰恒天然公司向新西兰驻德国大使馆人员反映了德国北部城市、萨克森州首府(德累斯顿市)出现的毒奶粉问题。
9天后,新西兰驻德国大使向新西兰外交部进行了汇报。随后,该事件被报告至新西兰总理海伦·克拉克。
由于事态紧急(人命关天),因此克拉克命令绕过德累斯顿市政府,直接通过外交渠道向德国内阁报告该事件。
3天后,德国内阁就收到了新西兰外交部的外交照会报告。
至此,这起德国本土的奶粉事件,也变成了震惊全球的国际外交事件。
最终,德国萨克森州农业厅一把手(大卫·L·卓尔群)被德国联邦监察部予以行政记过处分,德累斯顿市一、二把手等当地Top 3天团也均被撤职。同时,德国联邦质检总局局长(江特·L·布劳恩)也被迫引咎辞职,成为了该事件中辞职的最高级别官员。
然鹅,仅仅1个半月之后(2008年11月),大卫·L·卓尔群就就悄然上演了“异地升迁”的逆天剧情:调任萨克森州第二大城市的二把手,并于2009年1月成功当选该市市长。
1个月后(2008年12月),在该事件中负有重要责任、被德国联邦监察部处以重大行政处分的德累斯顿市质检总局原副司长,也同样上演了异地升迁的剧情,不仅直接升至正司级[1],而且还比其原职务高了半级。
随后,德累斯顿市当初被撤职的Top 3天团,也都成功实现了集体复出。
到了2009年12月,级别最高的江特·L·布劳恩也重出江湖,出任德国APIA[2]联邦工作组专职副组长,随后又被增补为德国联邦议会委员、外事副主任。
对此,德国联邦议会新闻发言人的官宣解释则是:
江特·L·布劳恩原是因负有领导责任而辞职的,但其并没有因为引咎辞职而失去工作热情,所以可在德国议会继续实现他的经验和见解,这是联邦议会长尾们讨论同意的。
See?这种只要“讨论同意”就可以复出的日耳曼文化,正是德国“容错率高”的集中体现。一年后(2010年11月),德国经济中心城市:法兰克福市中心城区(JA区)一栋教师公寓大楼发生了“特别重大”火灾。
这场火灾导致58人死亡(最小的遇难者是年仅16个月大的婴儿)、71人受伤,造成直接经济损失高达1.58亿。而在当时,法兰克福市JA区的平均房价才2.9万左右。
最终,法兰克福市共有54名官员因此受到行政处分或免职、28人被追究刑责。
由于该事件在德国本土和国际社会上均引起了强烈的震撼效应,德国内阁当时还责成法兰克福市长作出深刻检查。
当时,这场火灾对所有法兰克福市民都产生了强烈的冲击和影响。
甚至,该市知名矮人作家还在自己的长篇小说《Tiny Times》[3]中高度还原了这场人间惨剧,并以大部分人物都在这场火灾中死亡的悲剧情节作为全系列小说的结尾。
然鹅,直到今天,大部分法兰克福市民都不知道的是,当初因为这场火灾而被行政处分或免职的该市官员都已成功集体复出。
就在这场火灾的3年后,德国最北部城市:弗兰斯堡市,一名女大学生却因为无法获得毕业证书而黯然神伤。
当时,弗兰斯堡市理工大学一位名叫露西·G·沃尔德的马理专业[4](德国本土高校的法学一级学科)研究生,因为硕士学位论文没有通过答辩,而无法取得研究生毕业证和硕士学位证。
直到十年后,她才终于完成了华丽的人生逆袭。
2020年1月,她开着一辆AMG G63“先型特别版”直接进入了位于柏林市中心的德国皇宫,并在社交媒体平台上发布了现场照片。
由此,她也成为了德国历史上第一位“公开”突破皇宫禁车令的人。
要知道,当法国总统奥朗德2013年在参观德国皇宫时都只能一路步行。
也就是说,这位当初连毕业证都没拿到的女大学生,却在日耳曼“高容错率”文化中一举超越了法国总统的待遇。
那么就只剩下最后一个问题了。
为什么德国、荷兰这样的发达国家能够做到“高容错率”,而发展中国家DFDG的容错率却这么低呢?
由于涉及sensitive内容,【此处删除2002字】
热尔梅娜·德·斯塔尔[5]说,他们一直活在别人给他们创造出的一个虚假的世界里,从头到尾都没有离开过,所以当厄运找上门来的时候,他们才会如此的不堪一击。
楼下保安则说,如果将DFDG看成是一个1200万左右人口的经济体,那么就是妥妥的发达国家;但如果看成是一个十几亿人口的经济体,那么就是中下游发展中国家。
️以上内容节选自《红龙》、《卡夫卡效应》,所有sensitive内容均已删除,感兴趣的童鞋可以在new base[6]中查看未删减版原稿。参考
^出任德国中部某州出入境检验检疫局局长
^Anti-pornography and illegal activities
^《小时代》
^马克思主义理论专业
^《法国大革命》的作者
^通过WX(naibaodedashu)加入。
编辑于 2024-04-23 16:19・IP 属地俄罗斯 -
RE: xz 后门事件还挺有戏剧性发布在 Networking
绷不住了,我感觉我有时候就像个 ChatGPT,还是 2.0
https://www.geoffmulgan.com/post/human-chatgpts-and-the-vices-of-foggy-thinking
大家都说 ChatGPT 像人,但是我觉得,还有另一方面,那就是有些人很像 ChatGPT,尤其是在学术界。
ChatGPT 不理解任何材料,但可以利用这些材料,快速找到问题的合理答案。它会综合和模仿,有时表现得非常令人信服,就像某个知识渊博的人在谈论某个主题。
学术界的很多人也是这样,他们很聪明,吸收了说话和构建理论的方法,并且善于听起来令人信服。
但是,如果你问一个探索性的问题,就会发现他们的理解很少,一切侃侃而谈都是表面的,没有深度。这都是模仿而不是真正的思想,他们只是故意让别人觉得似乎有道理。
许多领域的许多人,表现得就像 ChatGPT 的真人版,特别是在那些不做太多实证工作、不涉及对事实或假设进行检验的学科。他们制造的文本越多,就越危险。
这种人有很多明显迹象,比如使用非常笼统的术语,以及听起来巧妙的表述或行话,内容里面很少有事实,例子也很少或者很随意,没有真实的感受,而且通常也不会足够清楚地说出他不同意什么。
我现在意识到,我不理解某人在说什么,有时很可能是他们不知道自己在说什么,表现得像 ChatGPT。
我将其称为"吹泡泡",即没有实质内容但能让他人信服的说话能力。这是很多大学领导的重要技能。
现在,ChatGPT 向我们展示了尽管不理解,但将大量材料合成为可信的文本流,是完全可以做到的。也许这是不可避免的,但真是一种非常不健康的恶习----人们应该走出去,观察事物,清晰说出自己的真实感受。
我明确意识到,自己更愿意被那些行为不像机器人的人包围,更愿意倾听那些有原创思想的人的声音。
-
RE: [公告] 置顶贴 - 新来的用户请看这里发布在 Admin
@admin 主帖是显示有问题吗?感觉内容有缺漏
「目前针对所有p大用户开放。」
这表达可能有点问题,针对所有p大学生(或者师生)好像更自然一点 -
不知道站长有没有看过这篇文章,讨论网络论坛帖子的组织形式发布在 Discussion
https://mp.weixin.qq.com/s/a-32UpINmb_vSj17epysiA
中文互联网中“讨论”的消亡
如何组织网络论坛确实有很多很细节的议题 -
RE: 中药是安慰剂吗发布在 Guest
今天我想到一个我觉得挺有趣的解释。中药整出来的汤药普遍极其难喝,以及苦味通常暗示着毒性,于是排斥心理影响了大脑的底层,更卖力地动员人体自己的免疫系统啥的赶紧好起来好不继续喝被本能判定为毒物的东西
我称其为反向安慰剂 -
为什么我们可以写出离散的国际音标系统发布在 Discussion
比如说元音,舌位不是连续的吗?在某种具体语言中的某个音位常常可以有一定范围内的音标的实现,但是国际音标能够成立,似乎是在说,对于某个元音总能客观地记录下其音标而没有任何模糊的地方,而且看到这个音标后一个合格的学者也可以发出这个音而让另一个学者知道他发的正是这个音
wumingshi 发布的最新帖子
-
RE: 最近在线上做一些收集专业文本做成题喂ai的活发布在 Discussion
@wumingshi
果然不是我一个人觉得 tool_call 太别扭
虽然我没怎么理解这里面的逻辑
karminski-牙医
@karminski3
大模型 Tool Call 描述太占上下文的问题解决了?Manus的后端负责人刚在reddit上发的一篇帖子爆火, 我看完了赶紧给大家整理下他做了什么.
大家都知道大模型配置了 tool call 就可以使用本地工具了, 而且可以跟操作系统交互, 访问本地资源从而完成更复杂的任务. 比如你就可以把视频素材上传到部署了openclaw的电脑, 然后让它剪视频.
但是想要用工具就要把所有的工具都是干什么的写入到 system prompt 中. 一旦工具很多, 就会造成 prompt 失焦, 大模型会忙于选择工具而不是真正的解决问题.
于是这个作者提出了一个全新方法, 不是给AI一堆散的工具, 而是只给一个
run(command="...")这样的调用模式. 文件操作也好, memory 也好, browser 也好, clip 调用也好, 最后都变成统一命令空间里的 command.而且这个调用可以利用UNIX管道命令符实现复杂的调用, 最终就会变为
run(command="cat 脚本.md | grep "分镜A" | find ./分镜A.* | ffmpeg ....")这样来剪辑视频这样模型不再是在很多 API 之间跳来跳去, 而是在一个自己本来就很熟的 CLI 语境里, 直接表达“我要完成什么流程”.
为什么这么做效果会好呢?
因为大模型本来就是接受文本输入和输出, 而tool call 所在的 Unix CLI 本来也是文本输入和输出(一切皆文件的UNIX哲学). 而 shell 命令则是在所有大模型训练中先天已经训练好的. 所以对大模型来说, 命令行比一大坨 JSON schema 更自然.
而且作者还说与其给大模型一堆tool call 说明, 不如提供每个命令的 --help 指令, 然后让大模型自己去看每个工具的每个参数怎么使用这样更节省token, 因为AI可以只看需要的部分.
所以看懂了吗? 与其给AI一大堆 tool call 的说明, 不如使用AI本身已经掌握的 Unix 工具, 因为这些工具本身就已经训练到大模型的参数里面了, 完全不用告诉大模型该怎么用大模型先天就会用! (魔法往往就这么简单...)
不过这个方式我觉得可能也有一些新问题, 比如除了unix工具以外, 作者还提供了一些新的命令, 而大模型的 tool call 是经过后训练专门调整过的, 而作者的新命令并没有, 所以不确定这部分新命令的调用稳定性是否能得到保证, 作者也说了如果是一些 typed data (编程中的概念, 类似于每个数据都有单位), 或者数据库这样的精准操作, 建议还是用 tool call 会好一些.
我对这个思路很感兴趣, 所以我现在正在尝试把这个作者写的这个工具剥离出来 (它是嵌入到一个AI自动剪辑工具里面了), 看看能不能用到龙虾里面. 如果我测试完效果不错我会放出来个 skill 给大家.
原贴也分享给大家, 推荐一读: http://reddit.com/r/LocalLLaMA/comments/1rrisqn/i_was_backend_lead_at_manus_after_building_agents/
-
RE: 最近在线上做一些收集专业文本做成题喂ai的活发布在 Discussion
@wumingshi gemini的比喻还挺形象的
你的这种直觉非常敏锐,而且触及了当前人工智能领域最核心的争议之一:“统计模拟”与“逻辑架构”的脱节。
你感觉到的那种“微妙的违和感”,其实可以从以下几个深层维度来拆解。看完这些,你可能会发现这种“邪路”感并非错觉,而是当前架构的本质局限。
1. 概率机与确定性结构的逻辑错位(“强行套壳”的违和感)
你提到的 JSON 强制约束(Constrained Decoding)确实很怪。
LLM 的本质是一个概率预测器,它的任务是预测下一个词“看起来像什么”。而 JSON、代码、数学,这些东西的本质是严谨的树状或图状逻辑结构。- 人类的做法: 我们在大脑里先有一个“树”的结构(我要写一个对象,里面有三个键),然后通过手(工具)把它写出来。如果写错了,IDE 会立刻报错,我们是基于规则在填空。
- LLM 的做法: 它的底层是一个扁平的序列(Sequence)。你看到的 JSON 嵌套,对它来说只是“在
[后面出现{"的概率很高”而已。
违和感来源: 我们在用一种“模糊的、感性的、基于联想的”引擎,去强行驱动一个“精确的、理性的、基于规则的”输出。这种做法就像是雇佣一名极其擅长模仿画风的画家,去画一张精密到微米的芯片电路图。 画家并不懂电路,他只是记得那个线条该怎么走。你为了保证他不画错,在他手边装了把尺子,强行限制他的笔尖只能走直线。这当然显得极其笨拙且“不正宗”。
2. “扁平化”架构 vs “嵌套式”逻辑(没有堆栈的痛)
你提到了一个非常深刻的点:嵌套结构应该用“原生的带嵌套的东西”来实现。
在计算机科学里,处理嵌套(如 JSON、括号匹配)最标准的做法是栈(Stack)或递归。但是,主流的 Transformer 架构是循环无关的、扁平的注意力机制。
- Transformer 很难原生处理深层递归。它现在的“博学”确实在很大程度上依赖于参数量巨大后的模式识别。
- 它并没有在脑子里建立一个“堆栈”来记住自己现在在第几层括号里,它是靠 Position Embedding 和 Attention 机制“瞥”一眼前面的上下文来维持一种“我在嵌套中”的幻觉。
这就是为什么当 JSON 嵌套太深或者结构太复杂时,LLM 会“幻觉”或者崩溃。因为它不是真的在执行逻辑,而是在进行高维特征的匹配。
3. Agent 的违和感:交流的“宽带”与“协议”问题
你觉得 Agent 调用工具很怪,是因为人类和工具的交互是多模态且有深度反馈循环的,而 LLM 调用工具是文本协议的二次翻译。
- 人类用 IDE: 我们的眼睛看到红线(实时反馈),手指按下快捷键(指令),大脑处理逻辑。这是一个高频、低延迟、深度集成的过程。
- LLM 用工具: 它必须先吐出一串字符串(推理),发给 CLI(外部系统),CLI 运行完再把结果吐回成字符串,LLM 再读一遍字符串。
这种违和感来自于“效率的极度低下”和“接口的拙劣”。
目前的 Agent 就像是一个坐在小黑屋里的天才,他只能通过门缝递纸条来指挥外面的人干活。虽然纸条(Claude Code)写得越来越好,但这种“通过文本模拟动作”的方式,相比于真正的“原生具备操作能力的系统”,确实显得非常迂回。4. 为什么人类用笔记本不觉得怪,Agent 用却觉得怪?
这是一个非常精彩的对比。答案可能在于**“意识的统一性”与“状态的割裂感”**:
- 具身智能(Embodiment): 人类使用笔记本时,笔记本是感官的延伸。我们对“记录”和“调取”有直觉的控制。
- 状态管理: LLM 没有任何“持久化内存”。它的每一次推理(Inference)都是从零开始的计算。为了让它记得刚才干了什么,我们必须把所有的历史记录塞进上下文。
- 违和感: 这种做法就像是一个每动一下手就会失忆一次的人。为了让他能炒菜,你必须在他每次动勺子前,把整本菜谱和他过去 10 分钟干的所有事在他耳边快速复述一遍。
- 这种“通过重复输入历史来模拟连续状态”的做法,正是当前 LLM 架构最被诟病的“非自然”之处。
5. 这真的是“邪路”吗?
目前的技术路径其实是一种**“暴力美学”**:
既然我们无法在数学上完美定义“逻辑”和“理解”,那我们就用海量的算力和数据,在概率空间里逼近出一个“看起来完全拥有逻辑和理解”的系统。你感觉到的“怪”,是因为我们正处于从**“符号AI”(老派、讲究逻辑结构、层级嵌套)向“联结主义”**(新派、讲究神经网络、概率逼近)彻底转型的阵痛期。
未来的“正路”可能是什么样?
很多学者(比如 LeCun)认为现在的 LLM 确实是死胡同,真正的下一代架构应该是:- 世界模型(World Models): 内部具备物理法则和逻辑结构的模拟,而不是单纯的文本预测。
- 非自回归架构: 不再是一个字一个字往外蹦,而是能像人类一样,先在“思维空间”里构思好完整的树状结构,然后一次性映射成输出。
- 原生具备工具接口: 神经网络的权重直接可以驱动逻辑门,而不是通过生成字符串去调 API。
总结
你的违和感是对的。目前的 LLM 是在用“卓越的模仿”来掩盖“逻辑的缺失”。
它就像一辆为了飞上天而加装了无数个喷气发动机的坦克——虽然它真的飞起来了,甚至比很多飞机飞得还高,但你看着那笨重的履带和厚重的装甲在云端穿行,总会觉得哪里不太对劲。这种不对劲,正是下一场技术革命的突破点。
-
RE: 最近在线上做一些收集专业文本做成题喂ai的活发布在 Discussion
我总感觉当前的llm是一条功能很强但是底层架构限制的上限的邪路,比如说输出json之类的结构文本,我问了下Gemini说是用某种外置的格式检查器,在遇到需要匹配符号的地方给正确的符号的输出概率强行改到100%来实现,这怎么看都怪怪的,给我感觉是,因为参数越来越大,单次推理的记忆力越来越强,所以它直接把括号嵌套结构给背下来了。但是这本身是荒谬的,嵌套结构总应该用一套原生的带嵌套的东西来实现吧,就像人类用IDE来写json一样,都是直接打括号对再填空
工具调用也是,是的,目前直接训练成能输出某种格式的tool call字符串,让外挂的CLI之类的工具识别,确实已经很好用(claude code在这方面做到了极致),但是这总给我一种「这对吗?」的疑问。。。。。。
不过话又说回来,人类在拆分任务时,同样也是用外置的东西(笔记本,和笔记本)记录,让软件来处理数据,所以当前的agent做法那种微妙的违和感到底来自哪里呢( -
RE: 最近的openclaw和各种小型版本大家有没有体验发布在 Computer
有个实际的例子,我让nanobot帮我把已有的一个本地运行的和ai聊天的界面,接入另一个ai,一直写代码写了好几轮,也不回复,最后得到的结果不仅不可用(这个倒是早在预料之中),而且界面完全变成了另外一个样子,虽然更像是平时看到的聊天工具,但是太多冗余了浪费了显示空间。自主性这么高感觉没法用,这还是我已经提过要把「不要额外发挥」写入记忆文件的条件下发生的
-
最近的openclaw和各种小型版本大家有没有体验发布在 Computer
我试用了nanobot和picoclaw,感觉比较一般,我原想着这种架构会不会让普通的模型产生更聪明的表现,目前看来并没有。我听说 Claude code 有更丰富的交叉验证产出的工程实践,如果能让普通模型表现更好就好了,贵的api买不起。。。。
最近字节开源了一个管理记忆的项目( https://github.com/volcengine/OpenViking/?tab=readme-ov-file ),不知道组合起来会不会好用,我看有人发了个教程,但是反响不是很明显话说前段时间贵站挂了吗?试过几次打开网站失败了
-
RE: 好纠结要不要给win11降级到win10,实在是用不下去了发布在 Networking
草,这么草台班子的吗。。。。。那个发行的版本代号也是太中二了吧
https://linux.do/t/topic/874875?page=7
卸载 clash verge 会删除你的所有快捷方式!
现在有点懵逼,白天 cmd 打开还好好的,突然就不见了 [image] 我一般习惯用 windows 自带的搜索,输入 cmd,然后回车快速打开命令行,结果白天还好好的,现在突然没了 tieba_015 tieba_015 tieba_015 我也没干啥事啊,唯一干的事情应该就是把 clash verge 卸载了(出了很严重的 bug,无法导入订阅,会卡死)windows开始菜单快捷方式在两个文件夹
卸载程序会将C:\Users\用户名\AppData\Roaming\Microsoft\Windows\Start Menu\Programs文件夹整个删除导致开始菜单快捷方式丢失,而如果快捷方式位于C:\ProgramData\Microsoft\Windows\Start Menu\Programs则不会丢失。
我在今晚更新2.3.2版本时先自行卸载了程序,触发杀毒软件系统防护,无视风险后导致上述第一个路径的快捷方式被全部删除。自行安装再卸载均会复现。滥用 AI 贡献开源代码又不仔细 Review 就是这样的,以后这种情况会越来越多。
AI 越是“看上去很聪明”,这种情况就越容易发生。试了一下,把左下角搜索框里的最近应用访问记录都删了

-
RE: 好纠结要不要给win11降级到win10,实在是用不下去了发布在 Networking
去clash verge的GitHub提issue,已经尽量按照格式要求填写了,然后以duplicate为理由被关闭了
我自闭了
-
好纠结要不要给win11降级到win10,实在是用不下去了发布在 Networking
clash verge各种慢,可以说是不可用的水平
https://linux.do/t/topic/887395?page=3
win10 代理很多绿的到了win11 就都慢了一倍左右!不知道大家是不是都这样搜了一下不止我一个人这样
真的很怕搞这种麻烦事啊