如何应对ChatGPT对我国AI发展的挑战?

类ChatGPT的技术原理和可能带来的法律及伦理风险

ChatGPT的技术原理是依靠深度学习和自然语言处理(NLP)技术而形成的新一代生成式人工智能聊天机器人,它实际上属于人工智能生成内容(Artificial。

AI大模型历史机遇和我国监管现状

虽然生成式人工智能给我国数据安全带来隐患,也给监管带来了巨大挑战,但不容置疑的是,以ChatGPT为例的AI大模型将会是人类发展的重大历史机遇,也是我国不容错过的历史机遇。

自去年11月Open AI的对话式人工智能(ChatGPT3.5)公开发布后,人工智能的话题热度未减,且随着ChatGPT的不断迭代,其强大的功能再次震惊世界。人们对AI的快速发展是既期待又忧虑。今年九月,年届百岁的美国前国务卿基辛格博士访华并在第五届外滩金融峰会外滩全体大会发表讲话。

基辛格认为,人工智能技术的发展必须得到有效的管控,并且中国应该在人工智能领域变得更加开放和透明,让世界了解中国在开展哪些研究,以此增强其他国家对中国的了解。他还表示,美国政府会支持这方面的合作,而且现在已经在某些方面做出了行动。

本文作者的看法与基辛格博士的呼吁一致,认为与气候、公共卫生和核不扩散等议题不同,人工智能将会是中美下一个合作的基础。本文通过分析ChatGPT的技术原理以及潜在法律和伦理风险,来讨论生成式人工智能对我国人工智能监管带来的风险和挑战。作者指出,AI产业发展是我国不容错过的历史机遇,但要注意当前我国AI产业存在监管过度、发展不足、容易陷入“泛安全化陷阱”和与世界AI时代“脱钩”等问题。

类ChatGPT的技术原理和可能带来的法律及伦理风险

ChatGPT的技术原理是依靠深度学习和自然语言处理(NLP)技术而形成的新一代生成式人工智能聊天机器人,它实际上属于人工智能生成内容(Artificial Intelligence Generated Content,简称AIGC)的一种新型商业化应用程序。

而AIGC的技术原理是通过机器学习和NLP等人工智能方法,将大量的文本数据转化为可以通过机器学习并进行训练的数学模型,然后使用这些模型来生成文本内容。也就是说,在使用AIGC技术生成文本时,需要先向模型提供大量的文本数据作为训练集。随着训练的进行和数据的增加,模型的预测能力也将逐渐提高。

从AIGC的生成内容来看,不仅包括常见的文本、图像、音频、视频和代码等,还包括基于大数据训练模型优化生成的策略、剧情、训练数据等具有内在逻辑的内容。其中,文本生成是AIGC最广泛的应用场景。类ChatGPT应用在各个领域的广泛使用,基于AIGC的技术特点和工作原理,因此,对其使用的监管和处理相关数据的合规性变得尤为重要。

AIGC涉及法律与伦理风险。一是数据安全风险。例如,企业和个人使用ChatGPT提问时,可能需要将大量数据上传到云端进行处理,存在数据泄露的风险。再者,ChatGPT在提供服务时,需要获取用户的输入数据,可能涉及用户的个人隐私和敏感信息。

二是伦理道德风险,包括著作权侵犯,歧视性回答等。例如,在教育领域,很多学生或是学者利用ChatGPT完成作业或是写论文。

三是存在误导和虚假信息的风险。随着深度合成技术和机器学习的快速发展,生成式人工智能技术被用于伪造信息,包括音频和视频内容的合成和篡改。同时,由于ChatGPT的生成能力和技术的限制,可能被滥用为传播谣言、虚假新闻等不实信息的工具。

四是通过向类ChatGPT应用输入特定的内容,诱导其输出本不应该出现的违法或恶意内容。例如,通过AIGC输出一些煽动性的文本、图像、音频和视频,被用来组织一些非法或是危及公众和国家安全的网络活动。

对我国数据安全和AI监管带来的问题和风险

第一,个人数据和隐私安全。在人们依靠AI技术等应用程序提供便利性的同时,其收集到的个人数据的数量和私密性呈指数型增长。而这些数据很容易被一些恶意行为体所利用,从而对个人实施监视、操纵和勒索等。例如,通过ChatGPT生成的虚假信息与用户进行交流,获取敏感个人信息,进行身份盗窃或网络钓鱼、网络诈骗,对个人财产和人身安全造成威胁。

第二,经济破坏和投资操纵。利用ChatGPT生成的内容,可以进行虚假的市场预测和投资建议,误导投资者作出错误决策,进而操纵金融市场。例如,通过ChatGPT发布大量看涨或看跌的虚假预测,促使投资者进行错误的交易,导致经济混乱和金融损失。

第三,技术依赖与数据掌控。若中国企业和机构在ChatGPT的应用中过度依赖外部技术提供商,可能导致数据掌控权被他国政府或公司所控制。同时,物联网等技术的发展使得我国很多基础系统互联互通,如果一个行业或是基础系统对外技术依赖过高或是关键数据被外部掌控,一旦发生风险,将波及其他行业。

第四,信息操纵与谣言传播。通过操纵ChatGPT的内容输入和输出,可能对中国的信息环境进行干扰和操纵,影响我国社会稳定和国家安全。具体来说,可能有以下两种情况。

一是虚假舆论传播,恶意利用AI生成的内容,进行大规模传播虚假舆论,制造社会恐慌或引发群体事件。例如,利用ChatGPT在社交媒体上自动发布大量虚假新闻、不实评论,操纵公众舆论倾向,导致社会不稳定。

二是政治操纵,通过操纵生成式AI应用的输出,可以有针对性地捏造信息或传播政治谣言,煽动仇恨、制造分裂,影响政治稳定和社会和谐。例如,在重大政治事件期间,通过ChatGPT生成的大量假新闻和谣言,扭曲事实真相,破坏社会共识,实现自身的政治目的。

AI大模型历史机遇和我国监管现状

虽然生成式人工智能给我国数据安全带来隐患,也给监管带来了巨大挑战,但不容置疑的是,以ChatGPT为例的AI大模型将会是人类发展的重大历史机遇,也是我国不容错过的历史机遇。AI大模型会是未来AI技术的第一赛道,也会是中美和国际竞争的核心。

我国的AI大模型相较美国起步较晚,一方面是算法上我国的技术开发还需要时间,另一方面是算力上我国的关键芯片仍然达不到美国的技术水平。也就是说,算法和算力两个方面都制约了我国AI大模型的发展,而这些都是发展AI大模型的核心技术。

我国及时出台了监管举措,这是非常有必要的。但是,也要注意监管现状很可能导致我国AI技术发展受限,导致我国AI产业与世界AI时代“脱钩”。

在互联网和数据安全方面,我国陆续出台了《网络安全法》《数据安全法》《个人信息保护法》等相关法律法规。针对AIGC,今年4月11日,国家互联网信息办公室发布关于《生成式人工智能服务管理办法(征求意见稿)》(简称《管理办法》),在这之前,网信办还分别公布了《互联网信息服务算法推荐管理规定》(2022年1月)、《互联网信息服务深度合成管理规定》(2023年1月),以及《数据出境安全评估办法》(2022年7月)

这些法律法规为我国人工智能和算法等相关产业、行业的发展,以及个人数据隐私保护等提供了法律保障和监管依据,但同时存在很多值得注意的地方。

人工智能作为新兴的产业方向,一些原有的监管模式可能会造成强监管,成为我国AI产业发展的最大障碍,进而与世界AI时代“脱钩”。例如,当前法规对生成式AI服务提供者提出了很高的合规义务要求,且监管的适用范围极广。

这将在两个方面产生负面影响:一方面,对内来说,我国AI监管没有给国内企业提供足够的创新和发展空间;另一方面,对外来说,加强监管带来的保守化和封闭化的趋势将使我国与美国在AI技术方面的差距越来越大。

例如,上述《管理办法》中第二条规定:研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。这也从侧面解释了ChatGPT为什么没有对中国大陆地区提供服务,其原因之一很可能是避免中国法律的监管。同时,这也表明了我国未来在AI领域很可能会出现类似互联网时代的内部或者外部“防火墙”。这种趋势可能不利于我国AI行业跟上世界AI时代发展的步伐。

因此,如何顺应产业发展、平衡好行业发展和必要监管之间的关系、AI监管如何在“对症下药”的同时给发展留下空间,是亟须解决的问题。

如何更好地发展AI产业

第一,安全概念的扩展需适可而止,警惕陷入“泛安全化陷阱”。许多专家和学者已经注意到并提出了当前我国容易陷入“泛安全化陷阱”这一问题[1]。这一现象指的是过度强调安全问题,将各种非传统安全威胁也纳入安全范畴,导致资源和精力分散,影响国家发展的全面性和可持续性。

在网络安全领域,将涉及数据、信息、网络等所有问题普遍安全化的做法已经导致网络安全和数据安全丧失了其应有的清晰度和适用性。也就是说,出于安全的考虑,对于“相对不安全”的过度警惕已经演变成对“绝对安全”的追求。这种将网络安全的相关问题普遍安全化和绝对安全化的做法容易使得我们陷入“泛安全化陷阱”。

对于网络和与之相关的AI监管我们需要知道在什么方面去监管,以及监管到何种程度。这就要求我们对于网络安全和数据安全的边界有更加清晰的界定,不能将安全议程泛化,进而对我国的政治、经济、外交和社会等议程的资源造成挤压。

如果对安全配置过多的资源,超过了其应有的需求,就会挤压发展所需要的资源,进而造成资源的错配和浪费,阻碍其他领域的发展和我国的整体发展。监管可以设置安全底线,在保障基本安全的前提下,我们需要给AI技术提供足够的发展空间。在技术创新和治理监管的平衡问题上,“先创造再监管”是当前我国AI技术发展的可行路径。

第二,平衡好安全和发展的基础和关键是平衡好安全和开放的关系。诸多实践证明,高质量发展只能在高水平开放的条件下进行。只有主动开放才能在国际竞争与合作中掌握主动权,避免被孤立。之所以在美国产生了OpenAI的ChatGPT,恰恰是因为其“Open的AI”,开放的人工智能。也就是说,美国互联网和AI发展的源动力是开放。开放才是发展的基础和前提,没有开放的互联网和开放的AI,我国的AI产业只会走向封闭,和世界互联网“脱钩”。

数据作为互联网的产物,而互联网是美国的产物,这就决定了美国掌握了全世界的数据。以ChatGPT为例,美国的数据集是开放的,是世界级的。实践证明,技术的发展需要包容和开放的环境,而我国当前最需要的是加大在规则、标准和管理方面的开放,避免走向保守化和封闭化。

第三,构建现代和灵活的监管体制以提高监管的科学性和适应性。所谓现代和灵活的监管体制是强调平衡好监管和技术、产业发展的关系。具体来说,可以从以下三点着手。

首先是通过责任共享以分散风险。公共监管部门与企业等私营部门、民间团体和个人代表等协商,重新调整各利益攸关方的责任,继续落实责任共享制以达到分散风险的目的。也就是说,政府监管部门、行业风险管理服务机构、生成式AI服务提供者和终端用户应该共同承担保护数据安全的责任。分级分类划分责任并进行分级分类监管,以保证即使某一层级出现安全风险,也不会造成不可控后果。

其次是关注人工智能新兴的监管工具,加强技术审查与风险评估。例如,可以灵活运用算法风险分级、算法影响评估、算法审计、算法认证等管理方法和监管工具,对生成式AI应用提供者进行技术审查,评估其数据安全风险,并建立相应的风险管理措施。

最后是在制定新的监管法律法规时,监管机构和受监管实体应该进行协商。例如,在《生成式人工智能服务管理办法(征求意见稿)》,征求意见的时间段内,允许企业向监管部门和立法机构提交相关行业实践和建议,举办政府部门和行业代表圆桌会议,相互磋商,以推动和促进法案有效和平稳落地。

第四,加强技术独立性决定话语权。事实证明,规则的制定者一直都是技术的垄断者。如果我国想要参与网络和AI领域的规则制定,避免主动和被动的落后,那就需要加强技术上的独立性和话语权。具体来说可以从以下两点着手:

其一是加大资源投入和调整激励机制,以鼓励自主研发与本土创新。加大网络安全和AI领域的研发投入,鼓励本土企业和研究机构加强自主研发,减少对外部技术依赖,以提高对数据的掌控权。包括但不限于鼓励监管机构通过税率优惠政策等措施来激励企业和各类组织机构在网络安全和AI方面的投资。

其二是重视网络人才队伍建设,打造一批跨领域、多元化的高科技网络人才队伍。网络安全人才是既懂得网络安全专业技术,又懂得网络安全合规风险管理的复合型人才。

第五,加强国际合作,参与国际规则制定。从中美关系的发展形势来看,气候、公共卫生和核不扩散等议题已经难以成为中美对话的基础,而AI可以成为下一个合作基础。对于我国而言,AI更是我国和欧盟等其他国家合作的基础,以避免美国对我国的全面“脱钩”和孤立。

欧盟在互联网和人工智能相关规则制定和立法方面一直走在世界前列,我国应该和欧盟创办一个类似于美国—欧盟贸易和技术委员会(TTC)的论坛,共同探讨AI相关领域的数字安全和监管,还应该积极参与国际合作,推动全球范围内的AIGC监管和数据安全标准的制定与实施,进而避免我国AI产业发展与世界AI时代“脱钩”。

注释:[1]张超、吴白乙:《“泛安全化陷阱”及其跨越》,《国际展望》2022年第2期,第26-27页。

本文来自微信公众号:大湾区评论 (ID:GBA_Review),作者:魏媛媛(香港中文大学(深圳)前海国际事务研究院研究员)

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2023年11月1日 14:32
下一篇 2023年11月1日 14:43

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日