随着大型语言模型(LLM)等技术的普及,日常任务执行和信息获取变得前所未有的便捷。然而,这一技术进步不仅吸引了软件开发人员和人工智能爱好者的目光,网络犯罪分子也开始在暗网上积极试验这些工具,探索其潜在的恶意应用。 最近的一项研究深入探讨了暗网社区中与恶意使用人工智能(AI)工具相关的活动。虽然研究中的案例并不直接表明聊天机器人和其他AI工具本身存在危险,但它们确实揭示了网络犯罪分子如何巧妙地将这些技术用于非法目的。 统计数据显示,在论坛和Telegram频道中,涉及将ChatGPT等工具用于非法目的或依赖AI技术的讨论帖子数量在3月份达到峰值,尽管目前呈下降趋势。但值得注意的是,讨论的质量正在上升,模型变得越来越复杂,集成效率也越来越高。 在2023年的观察中,网络犯罪论坛上出现了使用ChatGPT进行多态恶意软件生成、数据转储处理、信用卡盗刷等非法活动的讨论。攻击者们利用ChatGPT生成特定功能的代码,以绕过多项安全检查,甚至在一些情况下,AI被用于解决处理用户数据的复杂问题,大大降低了犯罪的技术门槛。 更令人担忧的是,这些趋势可能导致潜在攻击数量的增加。以前需要经验丰富的团队才能执行的复杂操作,现在甚至新手也能在基本级别上执行。此外,一些网络犯罪论坛甚至在其默认功能中集成了ChatGPT或类似工具,以自动回应用户的帖子。 为了绕过模型对恶意应用的限制,攻击者还设计了特殊的“越狱”提示词,解锁模型的其他功能。这些提示词集在暗网上被广泛分发和销售。虽然并非所有“越狱”行为都是为了非法目的,但它们的存在确实为恶意行为者提供了更多机会。 此外,随着基于ChatGPT的解决方案在开源软件中的集成,网络犯罪分子也开始滥用这些工具进行恶意活动。例如,一些渗透测试工具被犯罪分子用于恶意目的,这使得网络犯罪的门槛进一步降低。 同时,一些类似ChatGPT的产品,如WormGPT、XXXGPT和FraudGPT等,也在暗网上引起了关注。这些产品被宣传为没有限制并具有附加功能的语言模型,尽管社区强烈反对它们的存在。然而,仍有不法分子利用这些工具进行诈骗等非法活动。 总的来说,人工智能在暗网上的试验和滥用揭示了技术进步带来的双刃剑效应。虽然这些工具为日常生活带来了便利,但它们也可能被恶意行为者用于非法目的。随着技术的不断发展和语言模型能力的增强,未来网络犯罪的复杂性和威胁性可能会进一步上升。因此,公司和个人需要保持警惕,及时了解暗网的趋势和讨论,以建立更有效的防御措施来应对不断变化的威胁环境。 |
正在阅读:网络犯罪的阴暗创新:暗网上的人工智能试验揭露网络犯罪的阴暗创新:暗网上的人工智能试验揭露
2024-02-21 12:42
出处:其他
责任编辑:houxianyong