678CHAT AI资讯 小心裸奔的开源AI!没人管可能被黑客当跳板

小心裸奔的开源AI!没人管可能被黑客当跳板

近日,网络安全领域的两家重量级机构——SentinelOne 与 Censys 联手发布了一项历时近300天的深度研究报告,直指当前开源大语言模型在脱离主流平台监管后所暴露出的巨大安全隐患。研究显示,一旦这些模型被部署在缺乏防护措施的私有服务器或本地环境中,便极易成为网络犯罪分子的“理想工具”,引发一系列难以控制的安全后果。

调查团队在扫描全球互联网时,发现了成千上万个暴露在外、未设任何访问控制的开源AI运行实例。这些实例中,不乏基于Meta推出的Llama系列以及谷歌Gemma等知名开源模型二次开发的变体。尽管部分原始模型内置了基础的安全机制,例如内容过滤器和行为限制策略,但研究人员仍识别出数百起人为移除或绕过这些“安全护栏”的案例,暴露出系统性的防御漏洞。

业内专家将这一趋势比作潜伏在水面之下的“冰山”:表面上看,开源AI正推动技术创新与普惠应用;但在公众视线之外,其算力正被恶意行为者大规模滥用。攻击者不仅能够利用这些无防护的模型批量生成垃圾邮件、定制高仿真的钓鱼内容,甚至还能策划复杂的虚假信息运动,对社会舆论、金融秩序乃至公共安全构成实质性威胁。

研究特别聚焦于通过Ollama这一流行工具部署的开源模型实例。数据显示,在被监测的部署节点中,约四分之一存在严重配置缺陷,允许外部攻击者直接读取模型的“系统提示词”(system prompt)——这组指令本质上决定了AI的行为边界与输出倾向。更令人警觉的是,在这些可被读取的提示词中,有7.5%已被篡改,明确用于引导模型执行有害任务,例如生成违法内容或协助实施诈骗。

此类风险的潜在影响极为广泛,涵盖仇恨言论扩散、暴力内容自动化生产、敏感个人信息窃取、金融欺诈话术生成,甚至涉及危害未成年人的内容制作。由于这些私有部署的模型完全绕开了如Hugging Face、Google Cloud或Meta官方平台所设置的审核与监控体系,传统基于云服务的安全防护策略几乎失效,使得监管与溯源变得异常困难。随着开源AI部署门槛持续降低,若缺乏统一的安全标准与社区自律机制,这一“暗面”或将迅速扩大,成为下一代网络安全攻防战的关键战场。

本文来自网络,不代表678CHAT立场,转载请注明出处:https://www.678chat.com/ai/22761.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部