垃圾广告在AI帮助下进化 有团伙利用OpenAI生成不重复的垃圾邮件成功避免被拦截
但凡我们将邮箱暴露在网上那么接下来将是无穷无尽的垃圾邮件,垃圾邮件制造者通常都会以百万甚至千万级别的规模发送垃圾邮件,大部分垃圾邮件都会被用户侧的邮箱系统拦截。
诸如 Gmail 能够拦截这些垃圾邮箱是因为有规律可循,例如垃圾邮件通常内容相同并且在短时间内向 Gmail 端口发送大量邮件,谷歌利用这些数据可以判断这是垃圾邮件并进行拦截。
然而在人工智能时代垃圾邮件也在进化,网络安全公司 SentinelLabs 发现垃圾邮件制造商利用 OpenAI GPT 系列模型生成具有针对性的、不重复的垃圾邮件,由于内容不重复所以被拦截的概率相对来说要低得多。
这个垃圾邮件制造者使用 AkiraBot (用于自动化发送大量消息的框架应用) 向中小型网站发送搜索引擎优化 (SEO) 相关的营销内容,AkiraBot 使用基于 Python 的脚本轮换网站名称。
在实际操作中垃圾邮件制造者提前抓取收集大量中小型网站的名称和域名,然后将其整理为数据表单,接着利用 GPT-4o-mini API 生成营销邮件,其中提示词中网站名称和域名会自动轮换。
由于 AI 生成的内容总不是完全相同的,因此生成的垃圾邮件内容虽然差不多但都不是重复的,每条消息的正文开头都会指明网站名称,最终邮件没有一个是完全相同的。
借助这种操作垃圾邮件制造者成功发送 8 万封邮件没有被拦截,被拦截的则有 1.1 万封,这个效率要远远高于常规的垃圾邮件发送策略,这种策略通常发送百万封能成功的可能也就一万封。
发现这种情况后研究人员报告给 OpenAI,OpenAI 则是火速封杀了对应的 API 账户并表示这种行为违反了使用条款,不过这并没有太大意义,毕竟垃圾邮件制造者肯定也注册或购买了大量账号可以换着 API 继续用。
值得注意的是这场恶意利用持续四个月都没有被 OpenAI 发现,很难说这是 OpenAI 安全机制问题而是故意为之,毕竟大家都知道肯定有不少账号当前都在利用这些 API 从事某些违规的行为。
-
我国科研人员研发出类脑脉冲大模型
记者今天(9月8日)从中国科学院自动化研究所获悉,近日,该研究所李国齐、徐波团队与相关单位合作,成功研发出类脑脉冲大模型“瞬悉1.0”(SpikingBrain-1.0)。该模型基于团队原创的“内生复
-
OpenAI新论文揭示AI模型出现幻觉的原因:并非神秘故障而是模型训练的奖励机制问题
目前人工智能模型普遍存在幻觉问题,所谓幻觉就是模型偶尔会自信满满地输出错误信息,此前曾有报道称连研究人员都搞不清幻觉的根源,因为模型在运行中属于黑盒模式。不过 OpenAI 研究团队最新发布的论文已经
-
Anthropic因下载盗版书训练模型向作者赔偿15亿美元 平均每本书约3,000美元
人工智能开发商 Anthropic 日前已经同意支付 15 亿美元以和解作者和出版商对其提起的法律诉讼,该诉讼涉及 Anthropic 使用数百万本受保护的书籍来训练 Claude 模型。具体来说该公
关注公众号:拾黑(shiheibook)了解更多
友情链接:
关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
安全、绿色软件下载就上极速下载站:https://www.yaorank.com/