rayepeng

rayepeng

周报#17 国庆后的状态调整

一些碎碎念 似乎国庆回来后就有些中断自己坚持下来的写作习惯了,果然任何依赖人工维护的系统都是很难有可持续性的,想法照旧还是不断地产生,缺少一个落地的过程,还是喜欢这种碎碎念的过程 国庆是在10月1号才回家的,毕竟高铁票难抢。上午11点的高铁,我照例是要提前1个多小时到的,似乎每次旅行前都习惯了要早早准备,担心第二天会有突发的意外,以前甚至晚上都睡不好觉,因为心里一直在担心着,有一根弦在绷着。不过随着旅行的次数变多心态也逐渐好转了,每次告诉自己国内旅行带上身份证和手机就够了,国外只要检查护照签证等。 短暂的旅途(不过也持续了一天)也没啥意外,高铁选的是靠窗座位,坐好后一抬头发现斜前方的几个人,似乎是大学生打扮,其中一个拿出了一盒三国杀,开始洗牌做准备,思绪一下又回到了高中,那时经常在熄灯之后,熬夜打三国杀哈哈哈,三国杀算是从小学就开始陪伴我了,不过对于打牌的技巧并没有掌握太多 国庆回来后最显著的一个转变就是,我开始想逐渐调整自己,让自己慢下来,学会聚焦,不再分心去做其余的事情。 最明显的就是,上周集中通关了幽灵诡计,虽然后面很多关卡都是依靠着别人的攻略来做的,但当我通关完之后,
11 min read
understand tcache poisoning
pwn

understand tcache poisoning

文章首发于 https://xz.aliyun.com/t/12600 tcache 结构分析 Tcache(Thread Cache)是 glibc(GNU C Library)从 2.26 版本开始引入的一个特性,旨在提升内存分配性能。在 tcache 中,每个线程都有自己的缓存,可以减少线程间的互斥和锁的竞争。 默认情况下,大小小于等于 1032(0x408)字节的 chunk 会被放入 tcache 中。 分配释放:当程序进行 malloc 操作时,会优先检查 tcache 是否有可用的 chunk,如果有,就直接返回。同样,当进行 free 操作时,
13 min read
通过命令提示注入来攻击大语言模型
LLM

通过命令提示注入来攻击大语言模型

文章翻译自:https://link.medium.com/klyhSFNxoAb 我最近有幸运参加了Google IO开发者大会,大会发布了许多新产品。其中许多产品对人工智能的关注非常突出,尤其是生成人工智能。 生成式人工智能太令人着迷了,我很兴奋看到能通过将其功能与其他不同产品的功能进行集成,来颠覆一些过往的工作。我已经使用这些工具来编写脚本、撰写文案,生成博客的一些想法。虽然这些应用程序非常酷,但研究如何安全地使用这些技术也很重要。 大型语言模型((LLM)已经被应用到处理私人信息的产品中,不仅仅是总结新闻文章和编辑电子邮件。这就像一个全新的世界!我已经看到它们被计划用于客户服务聊天机器人、内容审核以及根据用户需求生成想法和建议。它们还用于代码生成、单元测试生成、安全工具的规则生成等等。 首先我要说的是,我在人工智能和机器学习领域完全是新手。就像其他人一样,我仍然试图围绕这些进步的能力。当涉及到大型语言模型时,我充其量只是一个初学者提示孩子。尽管如此,我还是很有兴趣了解更多。如果我提供的任何信息不准确,请随时打电话给我。 LLM 到底在做什么 给定一个文本块或“上下
11 min read