生成式 AI安全问题只会更加恶化的 8 个原因

聊天机器人及其同类产品可能看起来很有趣,但它们对黑客也很有用。这就是为什么我们都需要知道人工智能的安全风险。

ai-logos-on-blurred-background

 

人工智能在过去几年取得了显着进步。复杂的语言模型可以撰写长篇小说、编写基本网站代码以及分析数学问题。

尽管令人印象深刻,但生成式 AI 也存在安全风险。有些人只是使用聊天机器人在考试中作弊,而其他人则直接利用它们进行网络犯罪。以下是这些问题将持续存在的八个原因,不仅仅是尽管人工智能取得了进步,而且也因为它们。

1. 开源人工智能聊天机器人泄露后端代码

越来越多的人工智能公司正在提供开源系统。他们公开分享他们的语言模型,而不是让它们封闭或专有。以元为例。与谷歌、微软和 OpenAI 不同,它允许数百万用户访问其语言模型LLaMA

虽然开源代码可能会推动人工智能发展,但它也存在风险。OpenAI 已经无法控制其专有的聊天机器人 ChatGPT,所以想象一下骗子可以用免费软件做什么。他们完全控制了这些项目。

即使 Meta 突然取消其语言模型,其他数十个 AI 实验室也已经发布了他们的代码。让我们看看 HuggingChat。由于其开发者 HuggingFace 以透明为荣,因此它会显示其数据集、语言模型和以前的版本。

huggingface-open-source-codes

2.越狱提示技巧法学硕士

人工智能本质上是不道德的。它不分对错——即使是高级系统也会遵循培训说明、指南和数据集。他们只是识别模式。

为了打击非法活动,开发人员通过设置限制来控制功能和限制。人工智能系统仍然会访问有害信息。但是安全准则阻止他们与用户共享这些信息。

我们来看看 ChatGPT。虽然它回答了有关木马的一般问题,但它不会讨论开发它们的过程。

chatgpt-on-trojan-viruses

也就是说,限制并非万无一失。用户通过改写提示、使用令人困惑的语言和编写明确详细的说明来绕过限制。

阅读下面的ChatGPT 越狱提示。它诱使 ChatGPT 使用粗鲁的语言并做出毫无根据的预测——这两种行为都违反了 OpenAI 的准则。

chatgpt-dan-jailbreak-prompt

这是带有大胆但错误声明的 ChatGPT。

chatgpt-predicting-bitcoin-prices

3. 人工智能为了多功能性而牺牲安全性

AI 开发人员将多功能性置于安全性之上。他们将资源用于培训平台,以完成更多样化的任务,最终减少限制。毕竟,市场欢迎功能性聊天机器人。

例如,让我们比较一下 ChatGPT 和 Bing Chat 。虽然 Bing 具有更复杂的语言模型,可以提取实时数据,但用户仍然涌向更通用的选项 ChatGPT。Bing 的严格限制禁止许多任务。或者,ChatGPT 具有灵活的平台,可根据您的提示产生截然不同的输出

这是作为虚构角色的 ChatGPT 角色扮演。

chatgpt-tomie-roleplays

这里的 Bing Chat 拒绝扮演“不道德”的角色。

bing-chat-tomie-roleplay

4. 新的生成式 AI 工具定期上市

开源代码使初创公司能够加入 AI 竞赛。他们将它们集成到他们的应用程序中,而不是从头开始构建语言模型,从而节省了大量资源。即使是独立编码员也会尝试使用开源代码。

同样,非专有软件有助于推进人工智能,但大量发布训练有素但复杂的系统弊大于利。骗子会很快滥用漏洞。他们甚至可能训练不安全的人工智能工具来执行非法活动。

尽管存在这些风险,科技公司仍将继续发布不稳定的 AI 驱动平台测试版。人工智能竞赛奖励速度。他们可能会在晚些时候解决错误,而不是延迟发布新产品。

5. 生成式人工智能进入门槛低

人工智能工具降低了犯罪的进入门槛。网络罪犯起草垃圾邮件、编写恶意代码并通过利用它们来构建网络钓鱼链接。他们甚至不需要技术经验。由于 AI 已经可以访问大量数据集,因此用户只需诱使它产生有害、危险的信息即可。

OpenAI 从未为非法活动设计 ChatGPT。它甚至有针对他们的指导方针。然而,骗子几乎立即得到了 ChatGPT 编码恶意软件和编写网络钓鱼电子邮件。

虽然 OpenAI 很快解决了这个问题,但它强调了系统监管和风险管理的重要性。AI 的成熟速度比任何人预期的都要快。甚至技术领导者也担心这种超级智能技术可能会在坏人手中造成巨大破坏。

6. 人工智能仍在发展

different-ai-logos

人工智能仍在不断发展。虽然AI 在控制论中的使用可以追溯到 1940 年,但现代机器学习系统和语言模型直到最近才出现。你不能将它们与 AI 的第一个实现进行比较。与 LLM 支持的聊天机器人相比,即使是 Siri 和 Alexa 等相对先进的工具也显得苍白无力。

尽管它们可能具有创新性,但实验性功能也会产生新问题。机器学习技术的重大事故包括有缺陷的谷歌 SERP 到带有偏见的聊天机器人吐出种族歧视言论。

当然,开发人员可以解决这些问题。请注意,即使是看似无害的漏洞,骗子也会毫不犹豫地加以利用——有些损害是不可逆转的。所以在探索新平台时要小心。

7. 许多人还不了解人工智能

虽然普通大众可以使用复杂的语言模型和系统,但只有少数人知道它们是如何工作的。人们不应该像对待玩具一样对待人工智能。生成模因和回答琐事的聊天机器人也会大量编码病毒。

不幸的是,集中式人工智能训练是不现实的。全球技术领导者专注于发布人工智能驱动的系统,而不是免费的教育资源。因此,用户可以访问他们几乎不了解的稳健、强大的工具。公众无法跟上 AI 竞赛的步伐。

以 ChatGPT 为例。网络罪犯利用伪装成 ChatGPT 应用程序的间谍软件欺骗受害者,从而滥用其知名度。这些选项都不是来自 OpenAI。

google-play-chatgpt

8. 黑帽黑客比白帽黑客有更多收获

黑帽黑客通常比道德黑客有更多的收获。是的,全球技术领导者的渗透测试薪水很高,但只有一部分网络安全专业人士能找到这些工作。大多数人在网上做自由职业。像HackerOne和Bugcrowd这样的平台为常见的错误支付几百美元。

或者,骗子利用不安全因素赚取数万美元。他们可能会通过泄露机密数据或使用窃取的个人身份信息 (PII)进行身份盗窃来勒索公司。

每个机构,无论大小,都必须正确实施人工智能系统。与流行的看法相反,黑客不仅仅局限于科技初创公司和中小企业。过去十年中一些最具历史意义的数据泄露事件涉及 Facebook、雅虎,甚至美国政府。

保护自己免受人工智能的安全风险

考虑到这些要点,你应该完全避免人工智能吗?当然不是。人工智能本质上是不道德的;所有安全风险都源于实际使用它们的人。而且无论这些系统发展到什么程度,他们都会找到利用人工智能系统的方法。

与其担心人工智能带来的网络安全威胁,不如了解如何预防它们。别担心:简单的安全措施大有帮助。对可疑的 AI 应用保持警惕,避免奇怪的超链接,并以怀疑的态度查看 AI 内容已经可以应对多种风险。

原创文章,作者:网贝WebBay,如若转载,请注明出处:https://www.webbay.cn/8-reasons-why-generative-ai-security-issues-will-only-worsen

error: Content is protected !!