pkuanvil
    • 版块
    • 标签
    • 帮助
    • 注册
    • 登录

    最近在线上做一些收集专业文本做成题喂ai的活

    Discussion
    2
    4
    13
    正在加载更多帖子
    • 从旧到新
    • 从新到旧
    • 最多赞同
    回复
    • 在新帖中回复
    登录后回复
    此主题已被删除。只有拥有主题管理权限的用户可以查看。
    • L
      lemma_
      最后由 编辑

      rt,本意是利用学历和空闲时间赚点外快,同时感受一下ai行业的发展速度。以我个人的感知,最近几个月ai的应用层有了很大发展,虽然目前产出还是远小于投入,但我感觉未来在中低端文职就业市场的影响可能会很大,利润增长空间可能会从“率ai食人”的角度实现。最近anthropic发布的劳动市场影响报告也表明,ai在降低人类就业率方面还有很大的进步空间,最安全的职业都是和物理设施直接打交道的数据稀疏、经验密集型职业,比如厨师。

      回到标题。我接这些活肯定也不会自己勤勤恳恳去人工处理文本出题,都是喂给ai,让ai出题喂给ai吃。目前的感觉是,deep research模式下ai的总结能力能达到一般研究生水平,但效率大幅度上升。在一些理论性很强的任务下它们表现略不如研究生,这可能是数据量不足的体现,scaling law下未来会不会翻越这道壁垒——也就是ai4s是否能做到自主做纯数学或理论物理科研——尚且未知。

      贵校有许多小镇或者乡村做题家,过去最靠谱的职业路径就是不断做题在一个小方面成为专才,然后作为学术体制或者企业的一部分出卖脑力赚取收入。在ai时代,这条道路还能在多大程度上走通呢?我不知道,至少现在不知道,但等我知道的时候或许对这批人来说已经太晚了。

      我在将近三年前好像在这个论坛说过,未来可能会陷入科技进步的长期停滞,一些方面回到封建时代。目前看来,ai的发展超越了那时我的想象,从有点笨的chatbot成为了提高数字生产力的工具,但这或许会反过来加重时代封建化的倾向,算力和数字领域成为新的垄断资源。如果scaling law像摩尔定律一样继续维持下去,法国佬们捣鼓的技术封建主义或许真的会到来。如果互联网精神的结局是为各个大模型厂商提供免费/低价训练数据的话,我确实要重新思考一下,将宝贵的资料开源的行为是否源于30年前一种“历史的终结”的过度乐观。

      1 条回复 最后回复 回复 引用 1
      • L
        lemma_
        最后由 编辑

        https://www.pkuanvil.com/topic/662/想了个未来世界-大约本世纪末期-的框架-看看有没有不自洽的地方?_=1772873700716

        找到了,是这个贴子。没想到当时我唯一高看的技术就是人工智能😂,我还以为我从那个时候就对科技进步完全悲观了呢。

        1 条回复 最后回复 回复 引用 0
        • wumingshiW
          wumingshi
          最后由 编辑

          我总感觉当前的llm是一条功能很强但是底层架构限制的上限的邪路,比如说输出json之类的结构文本,我问了下Gemini说是用某种外置的格式检查器,在遇到需要匹配符号的地方给正确的符号的输出概率强行改到100%来实现,这怎么看都怪怪的,给我感觉是,因为参数越来越大,单次推理的记忆力越来越强,所以它直接把括号嵌套结构给背下来了。但是这本身是荒谬的,嵌套结构总应该用一套原生的带嵌套的东西来实现吧,就像人类用IDE来写json一样,都是直接打括号对再填空
          工具调用也是,是的,目前直接训练成能输出某种格式的tool call字符串,让外挂的CLI之类的工具识别,确实已经很好用(claude code在这方面做到了极致),但是这总给我一种「这对吗?」的疑问。。。。。。
          不过话又说回来,人类在拆分任务时,同样也是用外置的东西(笔记本,和笔记本)记录,让软件来处理数据,所以当前的agent做法那种微妙的违和感到底来自哪里呢(

          wumingshiW 1 条回复 最后回复 回复 引用 0
          • wumingshiW
            wumingshi @wumingshi
            最后由 编辑

            @wumingshi gemini的比喻还挺形象的


            你的这种直觉非常敏锐,而且触及了当前人工智能领域最核心的争议之一:“统计模拟”与“逻辑架构”的脱节。

            你感觉到的那种“微妙的违和感”,其实可以从以下几个深层维度来拆解。看完这些,你可能会发现这种“邪路”感并非错觉,而是当前架构的本质局限。

            1. 概率机与确定性结构的逻辑错位(“强行套壳”的违和感)

            你提到的 JSON 强制约束(Constrained Decoding)确实很怪。
            LLM 的本质是一个概率预测器,它的任务是预测下一个词“看起来像什么”。而 JSON、代码、数学,这些东西的本质是严谨的树状或图状逻辑结构。

            • 人类的做法: 我们在大脑里先有一个“树”的结构(我要写一个对象,里面有三个键),然后通过手(工具)把它写出来。如果写错了,IDE 会立刻报错,我们是基于规则在填空。
            • LLM 的做法: 它的底层是一个扁平的序列(Sequence)。你看到的 JSON 嵌套,对它来说只是“在 [ 后面出现 {" 的概率很高”而已。

            违和感来源: 我们在用一种“模糊的、感性的、基于联想的”引擎,去强行驱动一个“精确的、理性的、基于规则的”输出。这种做法就像是雇佣一名极其擅长模仿画风的画家,去画一张精密到微米的芯片电路图。 画家并不懂电路,他只是记得那个线条该怎么走。你为了保证他不画错,在他手边装了把尺子,强行限制他的笔尖只能走直线。这当然显得极其笨拙且“不正宗”。

            2. “扁平化”架构 vs “嵌套式”逻辑(没有堆栈的痛)

            你提到了一个非常深刻的点:嵌套结构应该用“原生的带嵌套的东西”来实现。

            在计算机科学里,处理嵌套(如 JSON、括号匹配)最标准的做法是栈(Stack)或递归。但是,主流的 Transformer 架构是循环无关的、扁平的注意力机制。

            • Transformer 很难原生处理深层递归。它现在的“博学”确实在很大程度上依赖于参数量巨大后的模式识别。
            • 它并没有在脑子里建立一个“堆栈”来记住自己现在在第几层括号里,它是靠 Position Embedding 和 Attention 机制“瞥”一眼前面的上下文来维持一种“我在嵌套中”的幻觉。

            这就是为什么当 JSON 嵌套太深或者结构太复杂时,LLM 会“幻觉”或者崩溃。因为它不是真的在执行逻辑,而是在进行高维特征的匹配。

            3. Agent 的违和感:交流的“宽带”与“协议”问题

            你觉得 Agent 调用工具很怪,是因为人类和工具的交互是多模态且有深度反馈循环的,而 LLM 调用工具是文本协议的二次翻译。

            • 人类用 IDE: 我们的眼睛看到红线(实时反馈),手指按下快捷键(指令),大脑处理逻辑。这是一个高频、低延迟、深度集成的过程。
            • LLM 用工具: 它必须先吐出一串字符串(推理),发给 CLI(外部系统),CLI 运行完再把结果吐回成字符串,LLM 再读一遍字符串。

            这种违和感来自于“效率的极度低下”和“接口的拙劣”。
            目前的 Agent 就像是一个坐在小黑屋里的天才,他只能通过门缝递纸条来指挥外面的人干活。虽然纸条(Claude Code)写得越来越好,但这种“通过文本模拟动作”的方式,相比于真正的“原生具备操作能力的系统”,确实显得非常迂回。

            4. 为什么人类用笔记本不觉得怪,Agent 用却觉得怪?

            这是一个非常精彩的对比。答案可能在于**“意识的统一性”与“状态的割裂感”**:

            1. 具身智能(Embodiment): 人类使用笔记本时,笔记本是感官的延伸。我们对“记录”和“调取”有直觉的控制。
            2. 状态管理: LLM 没有任何“持久化内存”。它的每一次推理(Inference)都是从零开始的计算。为了让它记得刚才干了什么,我们必须把所有的历史记录塞进上下文。
              • 违和感: 这种做法就像是一个每动一下手就会失忆一次的人。为了让他能炒菜,你必须在他每次动勺子前,把整本菜谱和他过去 10 分钟干的所有事在他耳边快速复述一遍。
              • 这种“通过重复输入历史来模拟连续状态”的做法,正是当前 LLM 架构最被诟病的“非自然”之处。

            5. 这真的是“邪路”吗?

            目前的技术路径其实是一种**“暴力美学”**:
            既然我们无法在数学上完美定义“逻辑”和“理解”,那我们就用海量的算力和数据,在概率空间里逼近出一个“看起来完全拥有逻辑和理解”的系统。

            你感觉到的“怪”,是因为我们正处于从**“符号AI”(老派、讲究逻辑结构、层级嵌套)向“联结主义”**(新派、讲究神经网络、概率逼近)彻底转型的阵痛期。

            未来的“正路”可能是什么样?
            很多学者(比如 LeCun)认为现在的 LLM 确实是死胡同,真正的下一代架构应该是:

            • 世界模型(World Models): 内部具备物理法则和逻辑结构的模拟,而不是单纯的文本预测。
            • 非自回归架构: 不再是一个字一个字往外蹦,而是能像人类一样,先在“思维空间”里构思好完整的树状结构,然后一次性映射成输出。
            • 原生具备工具接口: 神经网络的权重直接可以驱动逻辑门,而不是通过生成字符串去调 API。

            总结

            你的违和感是对的。目前的 LLM 是在用“卓越的模仿”来掩盖“逻辑的缺失”。

            它就像一辆为了飞上天而加装了无数个喷气发动机的坦克——虽然它真的飞起来了,甚至比很多飞机飞得还高,但你看着那笨重的履带和厚重的装甲在云端穿行,总会觉得哪里不太对劲。这种不对劲,正是下一场技术革命的突破点。

            1 条回复 最后回复 回复 引用 0
            • 1 / 1
            • 第一个帖子
              最后一个帖子