678CHAT AI资讯 95%的公司搞AI都栽了跟头!这家初创拿了2500万美金,要搞能追责的AI

95%的公司搞AI都栽了跟头!这家初创拿了2500万美金,要搞能追责的AI

在人工智能热潮席卷全球的当下,一个刺眼的数字正为无数企业的AI雄心泼上一盆冷水:根据麻省理工学院NANDA计划的最新研究,高达95%的企业级生成式AI试点项目最终未能落地成功。这一数据揭示了当前AI应用的深层困境——技术虽先进,却难以真正融入企业核心流程。然而,在这场大规模的试错浪潮中,一家名为Maisa AI的初创公司正悄然崛起,试图用一种全新的智能体架构重塑企业自动化的未来。

95%的公司搞AI都栽了跟头!这家初创拿了2500万美金,要搞能追责的AI插图

成立仅一年,Maisa AI便迅速完成了由欧洲顶级风投Creandum领投的2500万美元种子轮融资,标志着资本对其理念的高度认可。其核心主张直击痛点:企业需要的不是“黑箱式”的AI模型,而是具备可解释性、可监督、可问责的数字员工。为此,公司正式推出Maisa Studio——一个模型无关的自助平台,允许用户通过自然语言训练和部署AI智能体,真正实现“会说话就能用AI”的愿景。

重构逻辑:从输出结果到透明执行

尽管市面上已有Cursor、Lovable等主打“氛围编程”的AI开发工具,Maisa AI却选择了截然不同的路径。“我们不关心AI生成了什么回答,我们关心的是它为了得到这个回答,走了哪些步骤,”公司CEO David Villalón在TechCrunch专访中强调。这种被称为“工作链”(Work Chain)的方法论,将AI的决策过程完全可视化,让每一次操作都可追溯、可验证。

这一理念的源头可追溯至Villalón与联合创始人兼首席科学官Manuel Romero在西班牙AI企业Clibrain的共事经历。2024年,他们共同目睹了AI幻觉在实际业务中带来的灾难性后果,从而坚定了“可信AI”的研发方向。他们的共识是:没有监督的AI,终将失控。

HALP机制:让AI像学生一样展示解题过程

为实现对AI行为的实时监督,Maisa AI推出了HALP系统——即“人类增强型大语言模型处理”。该系统的工作模式如同学生在黑板前解题:AI首先向用户确认任务目标,然后逐步列出执行计划,每一步都接受人类审核。这种“先说明,再执行”的机制,极大降低了误操作风险。

与此同时,公司自主研发的知识处理单元(KPU)进一步强化了系统的稳定性。KPU作为确定性模块,有效抑制了大模型常见的“编造事实”现象。尽管Maisa最初从技术底层切入,但其对可信度与问责制的执着,意外赢得了金融、制造、能源等高合规行业客户的青睐。目前,已有大型银行及跨国制造企业将Maisa智能体部署于生产环境。

双轨部署:兼顾安全与灵活性

为满足企业对数据安全的严苛要求,Maisa提供云端与本地化两种部署方案,既保障核心数据不出内网,又不失系统的可扩展性。这种企业级策略虽使其用户规模暂时无法与消费级AI产品比肩,却在关键领域建立了难以撼动的信任壁垒。

值得注意的是,美国安全投资机构Forgepoint Capital International通过其与桑坦德银行的欧洲合资企业参与本轮投资,侧面印证了Maisa在监管敏感行业的吸引力。公司双总部设于瓦伦西亚与旧金山,全球化布局已初具雏形。

突围之道:聚焦复杂场景与非技术人群

面对CrewAI等同类产品的竞争,Maisa AI选择深耕技术门槛高、容错率低的复杂业务场景。CEO Villalón在LinkedIn发文警示:“当‘快速上线’成为唯一标准,后期的维护成本将指数级飙升。”为此,公司计划将团队从35人扩至65人,全力推进产品迭代与客户服务。

随着等待名单不断拉长,Maisa预计从今年第四季度起进入高速增长期。Villalón信心十足地表示:“我们将向世界证明,真正可靠的企业级AI,不仅存在,而且正在运转。”在AI项目失败率居高不下的今天,Maisa的路径或许正指向一条通往规模化落地的可行之路。

本文来自网络,不代表678CHAT立场,转载请注明出处:https://www.678chat.com/ai/19373.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部