背景与动机 要说 2025 年最让安全工程师睡不着觉的新威胁,Prompt Injection 绝对排得上号。这玩意儿厉害的地方在于:它不靠缓冲区溢出、不靠 SQL 注入、也不靠任何传统的安全漏洞——它 exploit 的是 AI 系统最核心的设计缺陷:指令与数据的边界模糊。 这意味着什么?传统的安全模型里,数据就是数据,指令就是指令,你永远不应该让用户控制的内容摇身一变成为系统要执行的命令。但在 LLM 系统里,这个假设从根本上就不成立了——用户的输入本身就是指令的
原文链接:40 Months of Prompt Injection Attacks 背景 Prompt Injection 于 2022 年 11 月 17 日被正式命名并针对 GPT-3 进行演示,距 ChatGPT 发布仅 13 天1。ChatGPT 上线后数小时内,用户即通过角色设定和角色扮演绕过其安全层。在随后四十个月里,随着每一次能力扩展(浏览、代码执行、多 Agent 管道、工具访问),攻击面也随之扩大,新增了多种注入向量。 本文是重大事件、违规事件、研究里程碑和缓解措施的时间线汇总。 2022 年:起源 Prompt Injection 作为一种命名攻击类别出现,在 ChatGPT 发布后迅速从研究原
文章概要 本文旨在探讨利用 OpenClaw 对接 Dida365 (滴答清单) Open API 的技术实践,以构建更为智能的个人日程规划与项目管理系统。文中将详细解析系统的整体技术架构,展示核心 API 的调用逻辑,并阐述如何通过配置定时任务(Cron Jobs)实现数据的每日自动化汇总与处理。本文内容侧重于工程落地,非常适合滴答清单的高级用户以及致力于 AI Agent 自动化工作流开发的开发者参考。 背景与动机 你是否有过这样的困扰?每天早上打开任务管理工具,面对一堆待
(译)Unexpected security footguns in Go’s parsers - 在 Go 解析器中因误用引发的意料之外的安全问题 目录 (译)Unexpected security footguns in Go’s parsers - 在 Go 解析器中因误用引发的意料之外的安全问题 目录 在Go中进行解析 攻击场景1:(反)序列化意料之外数据 没有标签的字段 错误地使用 - 标签 错误地使用omitempty 攻击场景 2:解析器差异 重复字段 不区分大小写的键匹配 攻击场景 3:数据格式混淆 Unknown keys 前置垃圾数据 后置垃圾数据 构建多语言文件 缓解措
胡言乱语 计算机科学领域的任何问题都可以通过增加一个间接的中间层来解决。 Isolation Level from High To Low Virtual Machine → Kata Container → gVisor → Container → JVM (Java Virtual Machine) Hardware Simulation → Hypervisor (KVM) → Kernel In Userspace → Namespcae + Cgroups + Chroot → Apps Sandbox Overview 沙盒(Sandbox)技术是一种通过创建隔离的执行环境来运行程序或代码的方式,用于实现资源隔离以创造安全的运行时环境,使得可以在信任域内的机器执行不受信的用户代码或程序。沙箱能够限制程序的行为,有效防止程序运行过程中对主机系统造成的潜在损害。 机器级虚拟
最近在学习云原生最佳安全实践,其中提到了 k8s 中的认证与授权模块,为了加深理解以及有对 k8s 源码阅读的计划,便诞生了这个[✨探索系列]。我们将从需求出发看看为什么这个系统需要设计成这个样子,这个模块以及在源码层面是何如实现的,这样的实现有什么亮点以及工程考量,不仅如此,在这个过程中我们还会着重关注其中与安全相关的细节,关注系统的全貌,重现思考安全系统的构建。 🌠 我是谁?我能做什么?—— 认证与授权 认证和授权是