黑客盯上了大模型

国内的相关数据显示,80%以上的网络安全公司都在将大模型技术集成到网络安全产品中,30%的公司已经开始做大模型安全的研究,也出现了一些安全创业的浪潮。

▍黑客盯上大模型

在张亚勤看来,人工智能特别是大模型在带来新机遇的同时,本身存在很多安全风险,这促使信息安全的范畴需要扩大,包括AI本身的安全风险,模型的参数数据、模型对人类的攻击性,不可解释性、黑箱等,以及可控性、可信性、边界等问题。

本文来自微信公众号:财联社AI daily (ID:gh_f7653dea6e99),作者:黄心怡,原文标题:《黑客盯上了大模型!》

ChatGPT的发布,在带动新一轮人工智能浪潮的同时,也驱动了网络攻击和网络犯罪的升级。

“过去,黑客生产一个攻击病毒需要数月时间,现在通过大模型工具可能几分钟就能生成,大大提高了攻击的效率。同时大模型对于编程语言的理解也非常强,攻击者可利用大模型迅速发现软件的漏洞。还有一波急功近利的黑客,利用AI的算法在视频中做人脸的深度伪造,产生了新一波网络诈骗犯罪的涌现。”亚信安全高级副总裁陈奋在接受《科创板日报》采访时表示。

同时,攻击者的攻击目标从传统的资产盯上了AI算力基础设施和大模型。“年初美国一个数千台服务器的算力集群被攻破,黑客拿去挖比特币。AI算力基础设施就是高价值的GPU集群,这无疑具有巨大的诱惑力,甚至大模型本身也有可能被利用。过去短短一年时间,针对大模型的攻击手段已经涌现出10种不同的类型。”陈奋称。

目前,国内外厂商都针对大模型领域推出了安全产品。微软在5月份正式商用了Security Copilot,声称在未来要投入千亿美金在人工智能上。谷歌去年发布了网络安全专有大模型,已经应用到云安全能力中心中。网络安全巨头Paloalto、CROWDSTRIKE均在其安全运营平台集成了大模型的安全运营能力。

国内的相关数据显示,80%以上的网络安全公司都在将大模型技术集成到网络安全产品中,30%的公司已经开始做大模型安全的研究,也出现了一些安全创业的浪潮。

针对AI技术发展带来的安全风险,中国工程院院士、清华大学智能产业研究院院长张亚勤则建议,从事前沿大模型的企业或机构,要把10-30%的投资投到相关研究或产品的开发。

▍黑客盯上大模型

在张亚勤看来,人工智能特别是大模型在带来新机遇的同时,本身存在很多安全风险,这促使信息安全的范畴需要扩大,包括AI本身的安全风险,模型的参数数据、模型对人类的攻击性,不可解释性、黑箱等,以及可控性、可信性、边界等问题。

陈奋向《科创板日报》记者介绍,去年已经发现了针对大模型的海绵样本攻击。大致原理是通过向大模型发布特殊的样本,让算力消耗急剧上升。原来几秒钟能做出响应的需求,被攻击后需要大量的时间计算。哪怕停止攻击以后,同样的一个请求,大模型也需60秒以上才能返回,即原来的20倍以上。

“如果未来的核心应用是大模型驱动的AI原生应用,基本上等于瘫痪了。这只是一个相对基础的攻击事例,可以看到针对大模型攻击很快会到来。”

谈到AI对安全产业的影响,陈奋认为,大模型技术、GPT技术必然带来网络安全产品技术范式的革新。网络安全的攻防从原来人和人之间的对抗,升级到AI和AI之间的对抗。只有AI驱动的网络安全防护检测技术才能识别AI驱动的黑客攻击技术。最典型的案例是深度伪造,人眼可能都看不出来的人脸替换,只有通过AI技术才能识别出来。

同时,大模型技术将推动网络安全产品全面革新,从检测到产品体验、安全运营,带来网络安全产品设计范式全面的变化。这意味着安全厂商如果不及时转型,将丧失未来的竞争力。

此外,保护的对象也发生了变化。对于企业而言,如果未来其核心应用是通过大模型驱动的,那么保护企业的资产就从传统的资产演进为保护企业的AI中心。在个人的家庭安全方面,也从原来个人的家庭终端演进为保护家庭的AI中心。

“从传统个人的桌面、手机,演化到智能家居、智能汽车,甚至未来每个家庭可能都有一个人工智能。一旦AI走进千家万户,私人所有的数据人工智能都会知道。如果AI被黑客所控制,那是非常可怕的。个人的隐私、数据,可能就被黑客窃取走了。”陈奋称。

▍安全厂商纷纷入局大模型

自大模型热潮以来,国内已有多家安全厂商纷纷推出了安全大模型。例如亚信安全推出了网络安全自研大模型信立方,奇安信推出了Q-GPT和大模型卫士、深信服有安全GPT2.0,启明星辰等厂商也都推出了相关产品。

陈奋认为,大模型时代的安全问题可分为两大类,一是Security For AI,主要聚焦在保护算力安全的基础设施,以及保护大模型的安全;二是AI For Security,主要聚焦在网络安全行业的垂直大模型的研发,以及在此之上做网络安全的智能体以及安全应用。

《科创板日报》记者了解到,除了深度微调开源大模型,亚信安全也与业内的大模型公司比如与智谱AI合作;在算力生态上,与星云算力等算力公司进行合作;在科研生态上,与清华大学合作建立了联合实验室。

“如果自己构建算力中心,代价很大。所以我们选择跟算力公司合作,租用其算力节点,按需获得想要的算力。他们则会直接买我们算力云的安全解决方案。我们既拿到了想要的算力,又能够提供我们的安全服务。”陈奋表示。

对于大模型的开源和闭源路线之争,陈奋介绍,“我们自己也微调了很多开源大模型,确实能达到一定的效果。有些场合上,闭源的大模型效果应该是最好的。在行业场景上,闭源大模型带来的通用能力会比开源得更好,所以我们坚持闭源和开源相结合路线。”

▍至少10%的大模型研发经费要投入至安全风险

在AI所带来的安全风险方面,张亚勤介绍,“近一到两年来个人花了很多时间在做相关的事情”,包括专门成立一个20人左右的“人工智能发展与治理专题研讨会”——参与人员包括三位“图灵奖”获得者和两位深度学习领域的开创者,每过一段时间就一起研讨AI的发展和风险治理。

“我们认为,AI技术发展带来的安全和风险不仅是政策制定的问题,也不单纯是科学、技术、产品问题,需要做政策治理的人员和做科研的一起合作,将AI发展和治理融合起来,才有健康的发展。”张亚勤说。

为此,张亚勤提出了5个建议:

一是要对AI大模型分级管理,万亿甚至更多参数的前沿大模型的风险相对较高,应加强监管。对于一般的模型就不需要太多的治理,现在技术和政策法规已经可以了,最高级别需要治理。

二是对AI生成的内容要有清晰标识,比如对AI生成的数字人,要像“广告”标识一样有醒目的标注,让人知道这是AI生成的。

三是要有实体映射系统。张亚勤判断,未来会有很多无人车、很多机器人,十年之后人形机器人可能比人类要多很多倍。而AI智能体、机器人、无人车等,应明确其作为“从属物”映射到人或企业的主体,相关智能体出现问题,应追溯其主体责任。他提出,现在就应着手制定相关政策法规。

四是要加大对大模型风险安全的投入。他呼吁,政府或企业在开发AI大模型过程中,要拿出10%~30%的投入在安全风险的研究或产品开发。张亚勤说:“一开始就拿出30%比较难,可以先拿出10%做安全和风险的研究和创新产品。”

五是要设立具体的红线边界。他提出,AI技术有时没有边界,这也是大模型会产生幻觉的原因。因此人在使用大模型时,需要制定一些边界。比如智能数字人不能无限制地复制,大模型用于金融、军事、无人车等核心系统设施时要设立清晰红线等。

“这不仅仅是一个企业的事,不仅仅是国家的事,需要全球的企业和政府精诚合作,面对风险、面对存在的问题去解决。”张亚勤最后提到。

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2024年5月30日
Next 2024年5月30日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日