亿万28-2026世界杯官方合作平台

发布时间:2026-03-24 08:58:20 浏览:59 次

笔者虽不是网络安全技术专家超凡国际登陆,但在研究该事件时首先想到的安全对策便是“用智能体对抗智能体”这样的新型“矛与盾”的较量。因为显而易见,从黑客攻击层面,AI智能体可自主规划、自动化执行攻击,如果靠人为来排查系统漏洞并作补丁,这种攻防能力是完全不对等的。

亿万28

兼顾AI应用安全性和业务价值创造出发,企业更需要系统视角重塑AI与人的协作关系

如果对以上依赖“隐性知识”解决问题的讨论再做一个延伸,站在企业视角来看,“解决复杂商业问题”的工作一定是在可见的未来AI无法企及的。为什么?简要谈以下三点:

系统与数据安全威胁受到更大担忧,未来以智能体对抗智能体的矛与盾的较量成常态

在发挥AI优势的同时,我们更应该懂得怎样管控AI所带来的风险,以及每个人如何保持自身的核心优势;在认清AI的工作机制和利弊之下,学会如何通过与AI协作来高效构建自身职业及企业发展的核心价值。

(注:伦理黑客本身即指获得系统所有者明确授权,通过模拟恶意黑客的攻击方法来主动发现计算机系统、网络或应用程序中安全漏洞的计算机和网络专家。)

其一,创建该AI智能体“黑客”的CodeWall动机并不是直接“攻击”Lilli, 而是帮助找到不同公司系统的网络安全漏洞,进而能够解决这些漏洞问题。CodeWall创始人Paul Price甚至直接公开表示,其聚焦如麦肯锡这类公司研究其系统及安全漏洞,是因为如麦肯锡等公司有明确的指引,接受伦理黑客(又称“白帽黑客、道德黑客或红客”)这样做。

“ 近日,麦肯锡内部的AI智能体Lilli被外部AI智能体在2小时内以“黑客”身份侵入,该“黑客”智能体瞬间获得了麦肯锡核心数据库的完整读写权限,这意味着直接接入了4650万条讨论战略、并购、客户交付等的文本聊天信息、57,000个账户注册背景数据、384,000个AI助理和94,000个工作区(几乎完整描述了麦肯锡内部如何使用AI的组织协作关系)等。据报道,该AI“黑客”来自一家网络安全创业公司CodeWall。”

虽然没有出现“吃瓜群众”所预期的“数据外泄”,但AI智能体自主侵入任何一个企业的内部系统或“智能体”这类现实挑战的确成了更多企业新的担忧。试想麦肯锡毕竟具有全球最顶尖的人才和网络安全团队,且具备足强的IT基础设施和运维预算,即使有安全漏洞也可以快速响应并解决问题。

AI为何做不到?——AI核心依托于计算机科学、数学、统计学、逻辑学、语义学等,可以基于逻辑学、语义学等理性原则做归纳、演绎,但没法“无中生有”。

AI为何做不到?——AI是人的工具,可以在特定业务流或场景下高效地工作,但可见的未来无法改变人的群体意愿和群体行为。

笔者由此想到,就像我们在特定的专业机构依然会保留拥有超级速算能力的人才做备份一样超凡国际登陆,也许我们每个人都依然需要保留解决AI所替代的基本问题解决的备份技能和判断能力。试想,从人类发明计算器到PC的使用和普及,如果我们早都不会自己做基本计算了,是否也还是会有很大的危机感?当我们在体验代理式AI所带来的巨大效率提升时,也更应该意识到保留“常识判断与备份技能”依然时不可或缺的。

其二,不少文章谈到的728,000份重要文件(涉及93,000数据表、192,000 PDF文件、及其他讲演PPT等文件)也被AI黑客直接接入并不严谨。根据英国金融时报(FT)3月12日的撰文,该AI智能体接入的并非文件本身,而所看到的是728,000个文件名。

第一,人是创造性解决问题的核心——解决复杂商业问题不仅仅是对现有事实和数据进行简单的归纳总结,而是通过结构化、系统性的思考问题,创造性地产出兼顾理性原则和人性关怀的解决方案。

而基于SaaS订阅收费的CrowdStrike之所以仍被市场看好,恰恰说明企业即使在增加AI智能体的应用,但对智能体应用所引发的新的安全威胁无力通过自建能力做短期解决,不仅包括面对如CodeWall所创建的智能体黑客攻击,也包括更多使用如OpenClaw这类代理式AI所增加的安全风险(该智能体具备本地数据主动采集能力,可在未经用户明确授权的情况下自动读取终端敏感信息,并结合系统级权限实现远程控制、数据外传等恶意行为)。

如果结合AI的机器学习和自主行动的底层逻辑,AI一定更容易去模仿显性知识密度高的工作,以及在工作内容重复性高的场景,其执行的准确度和效率会更高。因此,笔者近期曾撰文谈过,只有一部分既符合高显性知识要求由符合工作重复性高的工作会完全被AI替代,但人类社会更多的工作都需要AI与人建立新的协作关系,而不是简单的替代关系(参下图,及进一步阅读“数字华商业论”媒体号文章——“AI浪潮下,‘未来的工作会怎样’是确定的吗?”)。

本文转载自公众号:数字华商业论。

综上,在“AI颠覆一切”的市场论调中,诸多企业使用AI也进入到“大干快上”的阶段。但麦肯锡内部AI智能体被外部智能体“黑客侵入事件”恰恰给每个人及组织带来了反思机会,提醒我们认真思考到底应该如何定位自身的工作及处理与AI的协作关系。

- END -

2、智能体作为黑客入侵带来的AI应用不确定性倒逼个人保留常识判断与备份技能更关键

1、系统与数据安全威胁受到更大担忧,未来以“智能体对抗智能体”矛与盾的较量成常态

要知道,在2024年7月,CrowdStrike还因为内容更新故障造成全球超过850万系统宕机,成千上万家大企业(包括几百家财富500强企业)的数天的业务可持续性受到影响,这一备受关注的更新故障当时据估计造成的经济损失超过50亿美元。然而,华尔街相关投资机构Wedbush的渠道调研数据显示,目前并未发现企业因 AI 替代担忧而取消网络安全订单,相反,AI 驱动的威胁激增正在推动企业采用比如CrowdStrike Falcon 平台的高级防御系统。

特别是当大众越来越依赖如OpenClaw这类代理式智能体应用的情况下,由智能体自主感知或获取数据,然后推理与规划工作流,进而调用外部工具做行动,并结合行动反馈进一步学习与优化。一方面,也许用户可以确保喂给代理式智能体的数据是准确的,但如果被“黑客”智能体替换或篡改,一般用户是很难监控或感知到的,另一方面,一旦大家都习惯于让智能体自主感知、自主决策与行动、自主学习循环,一般用户更容易失去辨别对与错的能力——真正等智能体所执行的结果与所预期的成果发生巨大的偏差甚至南辕北辙时,一切都是亡羊补牢。

国内外网络自媒体瞬间沸腾,有国内自媒体“标题党”甚至打出“AI黑客自主攻陷麦肯锡”、“4650万数据泄露”、“家底被看光”等极度博取眼球的文章标题。然而,如果进一步追踪事件始末,就可以发现这次AI“黑客”的动作可能让“吃瓜群众”有点失望了。

这也使得网络安全平台或工具在近年以来更被市场看重,尽管这是与传统企业软件、SaaS平台一定被AI颠覆的论调同时发生。美国网络安全领域的超级巨头CrowdStrike在3月初公布截至1月31日的2026财年第四季度业绩报告,该季度总营收约13.05亿美元,同比大幅增长23%,高于华尔街分析师们平均预期的约13亿美元,其中订阅性质营收实现约12.42亿美元,同比增长23%;该公司的年度经常性收入(ARR)同比大幅增长24%,达到52.5亿美元。

AI为何做不到?——AI通用大模型所依托的数据是广泛且开放的数据,并不能触及到专有的、稀缺的、甚至被管控的数据。此次“CodeWall智能体事件”更凸显企业核心专有数据被管控甚至离线的必要性,以规避数据安全风险。

]article_adlist-->

智能体作为黑客入侵带来的AI应用不确定性倒逼个人保留常识判断与备份技能更关键

其三,也正如以上提及的CodeWall定位,该公司3月1日主动向麦肯锡披露相关漏洞问题,麦肯锡迅速于3月2日完成了相关问题的排查、安装系统补丁、阻隔公开API文档等工作。3月11日,麦肯锡还专门发表正式声明称,除了自身调查,还聘请了权威第三方鉴证公司参与,目前没有证据显示客户数据或敏感信息被该AI智能体或其他未经授权的第三方所泄露。

因此,当代理式AI越发流行,大众越依赖使用AI工具的时候,潜在风险反而在变大,其风险甚至可能包括当我们的数字化设备突然失去电力供应的话,习惯于让AI打理工作的人恐怕突然变得什么都不能做。

相应地,CrowdStrike市值也从2019年6月时的114亿美元上升到当前(2026年3月)的1037亿美元,增长了809%。

广告及商务合作|bd@chreview.cn

]article_adlist-->图1. McKinsey内部Lilli平台的界面(来源:图片来自互联网)图1. McKinsey内部Lilli平台的界面(来源:图片来自互联网)图2. CodeWall官网发布的说明文章图2. CodeWall官网发布的说明文章图3. 麦肯锡对该事件的官网说明图3. 麦肯锡对该事件的官网说明图4. CrowdStrike的市值变化(2021-2026)(来源:Stockanalysis.com)图4. CrowdStrike的市值变化(2021-2026)(来源:Stockanalysis.com)图5. AI演化发展的三个典型阶段图5. AI演化发展的三个典型阶段图6. 未来AI对不同职业工作的影响图6. 未来AI对不同职业工作的影响首席商业评直播推荐

]article_adlist-->点击「推荐❤」,锦鲤附身!

]article_adlist-->投稿及内容合作|editor@chreview.cn

]article_adlist--> 海量资讯、精准解读,尽在新浪财经APP

3、兼顾AI应用安全性和业务价值创造出发,企业更需要系统视角重塑AI与人的协作关系

因此,CodeWall利用AI智能体自主挑战如麦肯锡内部AI应用Lilli更进一步地说明,在AI进阶普及的进程中,有以下三点更值得个人与组织审慎地看待,并努力规避AI应用所可能带来的陷阱。

AI应用陷阱:此次CodeWall所创建的智能体倾入麦肯锡Lilli事件,从CodeWall一方进一步的披露指出,Lilli如何被训练的AI模型、配置文件、是否有保护机制等,以及喂给Lilli做训练的核心知识库内容(麦肯锡数十年的专有方法论、研究框架及研究成果等)皆被“黑客”智能体发现。这就带来了一个显而易见的问题,在“黑客”智能体获得完全读取权限的条件下,一旦“下手”恶意篡改AI训练模型或输入错误数据用于机器学习等,那智能体所输出的结果被人直接使用所带来的负面影响将难以估量。

但对于更多的传统企业,无论是新采用的AI智能体还是传统内部应用系统,恐怕一旦被AI自主侵入、识别漏洞,其后果可能就不是如麦肯锡声明这样轻描淡写了。

第三,以“人”为中心是企业存在的根本——真正解决复杂的企业问题,不仅仅是发现问题、提出方案,还需要让变革发生,本质上要回归到人的组织、回归到对人的行为改变和潜能发挥,同时也还是以“人”为客户去创造价值。

麦肯锡智能体Lilli被AI自主攻破表明,企业敏感信息(如客户数据、商业机密、业务核心应用的交互数据等)即使在内部系统经过加密保护也并非密不透风,在AI智能体的黑客攻击中也会轻易暴露其漏洞。

第二,支持关键决策的数据往往是稀缺的——解决企业的关键问题,往往需要有多元的方法、工具和渠道获得经过筛选的、专有的甚至稀缺的数据(而非仅仅是广泛的数据),并进行创造性地整合利用,帮助企业“知己知彼”。

于是超凡国际登陆,笔者也特别请教了一些生成式AI工具,得到的答案是“‌以智能体防御智能体‌”在国内的行业与政策面已获得广泛共识。国家互联网应急中心、公安部、中国信通院等机构在近两年均指出,需构建“AI智能体驱动”的防御体系,由此可见我国在‌AI环境下的网络与数据安全治理方面是非常具有前瞻性的。

相关标签:

本文链接: http://miniskirt-stu.com/chaofanguojidenglu/482.html