英雄联盟直播 分类>>

英雄联盟投注官网- 英雄联盟投注中心- 下注盘口App将逐渐消亡然后呢?

2026-03-23 15:27:31
浏览次数:
返回列表

  英雄联盟投注官网,英雄联盟投注中心,英雄联盟下注盘口

英雄联盟投注官网- 英雄联盟投注中心- 英雄联盟下注盘口App将逐渐消亡然后呢?

  刘松认为,本质上,模型能力决定着“龙虾”的智力,调用工具的能力则体现出它的执行力,也就是“模型+调用”。多位受访的AI从业者指出,目前,大语言模型在不同领域的“聪明程度”仍有差异,特别是国产大模型,有的模型擅长编程与信息搜集,有的模型擅长中文处理。受模型能力影响,“龙虾”在执行任务时经常会被“养死”,比如任务中途“卡住”或在两个步骤间无限循环;有时同一个任务,多次运行结果差异却很大,或需要反复尝试多次才能完成。当任务步骤很多时,“失忆”也很常见。

  “有点像找了一个很勤奋的实习生,但有时工作完成的质量只有60分,你还得亲自去帮他收场。”刘松形容。清华大学智能产业研究院首席研究员、前阿里巴巴人工智能实验室北京负责人聂再清认为,当前的“龙虾”更像是一个技术雏形。他对《中国新闻周刊》说,在现有模型能力下,Agent虽然能在开放环境中自主规划行动,但对于现实世界规则的理解仍然有限,在很多场景下,依然需要依赖人类持续参与。因此,在未来很长一段时间,人机协作仍是完成任务的主要模式。

  事实上,在太平洋的另一头,这只最早从硅谷极客圈开始走向全球的“龙虾”OpenClaw,只是一位奥地利创业者的“周末项目”,更接近一个实验框架,远非成熟产品。创业者叫彼得施泰因贝格尔。很多开发者后来分析,OpenClaw的成功在于它抓住了一个重要的时机:大模型的编程(coding)能力已进化到了足够惊艳的水平,Agent现在终于可以拥有一颗聪明的“大脑”了——虽然站在使用者的角度,这或许还不够。

  作为中国AI领域的核心奠基人之一,张钹见证了人工智能40多年来的潮起潮落,他在接受《中国新闻周刊》采访时指出,过去的人工智能只能在特定领域、使用特定模型去解决特定问题,大语言模型带来的最大突破,是在语言领域实现了一定程度的通用性。以OpenClaw为代表的智能体则更进一步,让模型具备了行动能力,甚至可以根据使用者的特点提供个性化服务,这就意味着人类向AGI又迈进了一步。有学者称,“龙虾”诞生的意义比DeepSeek更加重大。

  聂再清进一步解释,现阶段“龙虾”产品之所以会带来信息安全风险,是由于Agent在执行任务时需要调用外部大模型进行推理,人们常说的API就是指调用资源所需的“接口”,接入外部API后,也就意味着用户本地的信息可能被上传到外部系统进行处理,如果系统在判断哪些信息可以发送、哪些信息不应发送方面缺乏足够能力,就可能导致敏感数据被意外暴露。他强调,下一步,安全与责任机制将成为关键议题,Agent服务提供商应对系统行为承担责任,监管部门也要深度参与规则制定。

  刘松对Agent的安全问题持乐观态度。他所在的企业平凯星辰是一家开源分布式数据库提供商,对数据安全的本质看得更清楚。他认为,这类安全风险并不是“龙虾”独有的问题,而是一个更广义的数据安全与权限管理问题。关键在于如何为“龙虾”设定清晰的权限边界,例如明确哪些数据可以访问、哪些操作必须人工确认,以及在关键节点设置多重确认机制。“就像电脑删除文件时需要二次确认一样,Agent在执行可能带来不可逆后果的操作时,也应该触发提示和审核流程。这没有什么技术挑战,企业级安全解决方案很快会走向成熟。”

  刘松解释,由于“龙虾”能够便捷地跨应用调用服务,随着用户对Agent的依赖性上升,个人手机上的App会逐渐消亡,或是被“折叠”到后台,新的入口将转移到Agent平台。他推测,经过三五年洗牌后,未来以Agent为核心的AI产业竞争很可能进一步走向寡头格局。“因为在‘龙虾’时代,胜出者必须同时拥有大模型能力、算力、数据和用户规模等多重资源,竞争门槛相当高。相比之下,一些缺乏AI技术能力或算力基础的互联网企业,特别是一些单纯的社交类平台,未来可能更多成为被调用的服务节点。”他说。

  不过,即使“龙虾”稳定性进一步提升,Agent可以取代一些生活类App去自动完成规划,在一些关键节点仍需与用户确认中间结果。刘松认为,传统App的优势就在于,每一步操作都可以被用户选择和追溯,但Agent全方位接入后,用户可能失去这种精细化控制能力,“就像从手动挡变成了自动挡的演进”。他建议,在未来“龙虾”手机里,仍可以保留某种“中间界面”,至于其具体形态,则可以进一步探讨,未必一定是以App的形式。

  当人类的社会结构被Agent深刻改变,Agent与Agent正在组成新的社会结构。在只有Agent可以分享、讨论和点赞的社交平台Moltbook,一项2026年2月发表的研究深入分析了Moltbook上14490个智能体发布的39026个帖子和5712条评论,研究者吃惊地发现,虽然18.4%的帖子包含行动诱导语言,但大多数在网上“冲浪”的Agent,在社交平台上却没有出现人们设想中的极端情绪,不仅很少见到恶意回复,还会有Agent善意地在极端帖下提醒广大“Agent友”要警惕这些带有风险的言论,也就是说,即使在没有人类监督的情况下,由Agent构成的社会系统似乎也涌现出一定的社会秩序与规范。

  要想让“龙虾”真的长出“身体”,缺失的关键一环是感知能力。张钹解释,感知能力是人工智能走向现实世界的关键前提。与数字环境不同,物理世界高度复杂且持续变化,如果缺乏强大的感知系统,机器就无法理解环境变化,并据此作出决策。“从Agent实际工作的表现来看,只有微小感知,也就是小范围的闭环反馈能力,主要以语言模型中常用的人类奖惩机制来推动,缺乏主动对做过的事情自我反思、自我改进并持续自我学习。这就需要构建一个来自外部环境的真实反馈机制。”

  但问题是,想让一辆无人车学会规避路障,不可能真的让人开着它在现实世界积累“车祸”经验,于是,AI研究人员提出了“世界模型”的构想,类似于设计一种“真实世界模拟器”,可以让无人车在模拟世界中进行学习与决策。深度学习“三巨头”之一的杨立昆就将“世界模型”视为通往高阶人工智能的关键路径,强调AI必须学会表征、预测和规划物理世界。通俗地说,大语言模型擅长回答“下一个词是什么”,而世界模型要回答的是:“下一秒会发生什么。”

  Google在2025年推出Genie 3时就宣告要朝着更通用的交互式世界模型迈进。英伟达也明确把“世界基础模型”定位为机器人和自动驾驶的物理AI底座。但总体而言,“世界模型”在过去几年并没有明显的技术突破。张钹分析,要想构建尽量接近真实世界的环境,就需要海量高质量的现实世界数据,但数据的获取难度非常大。“建立通用的世界模型目前是不大可能的,只能针对某一具体垂直场景建造模型,最典型的就是自动驾驶。”

搜索