本网站服务器在海外wordpress怎么找回密码
本网站服务器在海外,wordpress怎么找回密码,哔哩哔哩推广平台,短视频营销的优势和劣势以下内容转载自“AI深度研究员”#xff0c;仅作学术分享#xff0c;如有侵权请留言删除
原文链接#xff1a;https://mp.weixin.qq.com/s/DcjR6G89LydlJTy4MwLfBQ
#xff08;宾大工程学院#xff0c;对话Meta首席AI科学家Yann LeCun#xff09;
最近的一两周时间里&…以下内容转载自“AI深度研究员”仅作学术分享如有侵权请留言删除原文链接https://mp.weixin.qq.com/s/DcjR6G89LydlJTy4MwLfBQ宾大工程学院对话Meta首席AI科学家Yann LeCun最近的一两周时间里65 岁图灵奖得主 、Meta首席AI科学家Yann LeCun杨立昆 先后出现在新加坡国立大学与宾大工程学院的讲台。他没有谈参数也没有夸算力而是抛出一句让全场安静的反问——“当模型连‘杯子在桌子上’都可能答错为什么我们敢说它懂世界”✍️ 第一节第一道墙看不懂物理世界“我们最聪明的 AI 系统连猫都不如。它们不能理解物理世界的常识。” ——Yann LeCun“我们现在的 AI 系统在这方面连狗都不如。” 问题不在于数据而在于“看世界的方式” LeCun的解法预测真实而非生成语言LeCun认为越过这堵“物理常识缺失”的墙关键不在于调模型、堆算力而在于让系统具备对现实的抽象建模能力而不是只是生成语言。今天的AI可以告诉你‘这个杯子掉了’但它不知道‘为什么会掉’。而真正的智能正是从“因果理解”开始的。不是让AI变得更能“说”而是更能“懂”。✍️ 第二节第二道墙没有长时记忆“大语言模型并不真正拥有记忆。它们只是看得更多但记不住任何事。” ——Yann LeCun“我们一个4岁的孩子在成长过程中大概接收了 10¹⁴ 字节的信息。而一个 GPT 级别的模型也训练了 10¹⁴ 字节的 token。”数据量看起来相似但差别巨大。人类不是只“看”这么多——而是整合、抽象、积累并持续更新。而大模型只是“扫一遍然后忘掉”。 这就是为什么模型越大输出却越来越“无主体感” 记忆机制才是下一代智能系统的核心突破口✍️ 第三节第三道墙没有推理结构“我们今天的大语言模型不是在思考而是在猜下一个词。” ——Yann LeCun 推理意味着目标导向的结构展开“语言模型不是问题求解器它只是一个自编码器以预测为本能。” 他公开反对“奖励足够了”这类路径幻想 没有内部模型AI 只能“碰运气”✍️ 第四节破解路径JEPA 架构登场“我们要让系统预测现实而不是续写句子。” ——Yann LeCun我们不是让系统在像素层面重建视频而是在高层抽象空间中预测接下来会发生什么。 为什么要预测表示而不是还原原始数据 JEPA 的区别在哪里JEPA 是 LeCun 概念中的“高级机器智能”AMI架构的底座。JEPA 不是商业上的“下一代模型”而是方向上的重新定向。LeCun的回答很清晰如果我们不改变底层架构就永远造不出真正懂世界的 AI。✍️ 第五节重定义AMI 取代 AGI“AGI 是伪命题我们需要的是 AMI——高级机器智能。” ——Yann LeCunLeCun并不回避“通用人工智能”这个话题。但他的态度很明确他不信 AGI也不追 AGI。他认为这个概念存在两个根本问题误判了人类智能的本质掩盖了真正的系统设计路径 人类智能从来不是“通用”的人类智能是非常专门化的只是在我们擅长的任务上看起来很强。LeCun提出一个看似挑衅实则深刻的观点我们之所以觉得自己“通用”是因为我们无法意识到那些我们永远无法理解的事物。所以我们误以为我们能理解的就是全部。而 AGI恰恰建立在这种错觉之上。 AMI比“通用”更现实的目标LeCun提出一个替代概念AMIAdvanced Machine Intelligence它的特征不是“无所不能”而是具备以下核心能力对现实有抽象建模能力世界模型有持久记忆和状态追踪机制能规划、分解任务、做中长期推理能通过多模态感知和环境互动逐步学习AMI 不是试图“模拟人类”而是构建适合机器自身的智能系统架构。这是一种系统理性而非幻想超越。 为什么 AMI 更重要AGI是一个故事AMI是一个系统。前者吸引投资后者真正推进能力边界。LeCun的选择很明确他不站在 hype 上他站在架构底层。✍️ 第六节行动建议别卷模型卷架构“学术界不该再追 LLM应该去做工业界没时间做的事。” ——Yann LeCunLeCun的这句话像是对整个AI创业圈泼下的一盆冷水。所有人都在调模型、堆RAG、炼提示词。 但在他看来这种热闹的局面本质上是资源错配。 LLM 已是产业路线创新窗口正迅速关闭LeCun点出一个现实“LLM 已经掌握在工业界手里几家公司用几千张 GPU配几百名工程师在打磨。学术界很难再贡献突破性的东西。”这话也适用于大多数 AI 初创公司。如果你做的是“训练大模型”或“在大模型上包皮”那么你面临的不是技术门槛而是资源垄断与同质化淘汰赛。 真正的“空白地带”藏在三道认知墙之后LeCun给出了新的方向具身智能Embodied AI多模态感知视觉触觉动作表示学习与预测建模JEPA架构长期记忆与推理能力这些并不是市场热点但它们有一个共同特征没人有现成方案没人规模化做没人垄断 GPU。这才是技术创业者最应该押注的地方。 创业机会不在模型后缀而在架构前提不是 GPT-Next、Claude-Plus、LLaMA-Max 而是谁能构建新一代“表示系统”谁能让 AI 理解连续世界谁能让系统从行动中自主学习。LLM 是终点JEPA 是起点。真正的下一代 AI不是能说得更顺而是能想得更深。 你以为AI在进化其实是认知还没进化Yann LeCun 这场公开对话抛出的不是技术路线图而是一个基本问题我们理解的“智能”到底是什么当全世界都在追求更大的模型、更低的token成本、更快的输出速度 LeCun却回到起点追问了三件事AI 看得见世界但看得懂吗它能说一段话但能记住刚才那句话吗它能接得上节奏但知道要往哪去吗如果这些都不能智能不过是算法的幻觉。在这场由 OpenAI 引爆的大模型竞赛中 越来越多的人误把 token 的生成能力当成智能的全部。但真正的竞争力可能藏在这些不被注意的角落里能不能建构世界模型能不能规划行动能不能拥有自己的“认知系统”LeCun 的提问像是一道延迟引爆的火线—— 它让所有从业者都必须重新思考你是在提升模型能力还是在放弃对智能的定义权未来真正值钱的不是会生成的模型而是能理解问题的人类。