GPT-5引发的隐私危机:警惕AI技术带

图片来源@视觉中国

文|王吉伟

有图有真相的时代,彻底一去不复返。

荷兰的一个AI绘图玩家,用几张“特朗普被捕”照片生动演绎了什么叫作AI生万物。那些清晰到毛孔可见的照片,告诉我们没有图片是AI不能生成的。

有了这些图片的启发,很快马斯克就摆起了地摊,爱因斯坦也站在了印度街头。

这些图片的背后是没有绘画功底的玩家,玩家的背后则是正在颠覆设计界的生成式AI绘图工具Midjouney。

整个图片生成的过程都与绘画没有任何关系,生成的图片却比各种人工绘图更加真实。整个创作图片的游戏规则,都被基于AI大模型的生成式AI改变了。

新的游戏规则不仅改变了创作过程,也改变了许多企业的设计业务流程。现在,许多游戏公司都砍掉了原画团队,留下设计师们面对随时被裁员的恐惧。他们一边瑟瑟发抖地害怕被裁掉,一边废寝忘食地学习AI绘图技术,以期在将来能够更好地适应新的游戏规则。

企业也感受到了游戏规则改变所带来的恐惧。他们不仅使用Midjourney、Stable Diffusion等绘图工具,还积极引入名声更响亮的ChatGPT。

使用新的语言风格和表达方式来重新组织原文,使其更加通顺和易于理解:ChatGPT的出现所带来的效率提升和成本下降是显然的,但让企业感到恐惧的,不仅仅是因为它发现了数据安全漏洞,更因为一些员工在使用ChatGPT时泄露了敏感数据,这给企业带来了巨大的风险和损失。

这些数据,都已经上传到ChatGPT的服务器,并且有很大可能被用于模型训练。

三星公司正在为此头痛不已。他们已经拥有三次敏感数据泄露的先进经验。这些泄露事件使得公司不得不花费大量的时间和金钱来修复数据泄露的后果。除此之外,公司还面临着声誉上的损失和形象上的重塑。而最近,“用ChatGPT学习先进芯片制造技术”已经成为了一个梗,被用来表述使用ChatGPT所付出的代价。尽管ChatGPT能够进行自然语言处理和生成,但它并不能完全替代人类工程师的专业知识和经验。因此,使用ChatGPT进行芯片制造的学习过程中,可能会涉及到一些不可预测的问题和风险,导致效率低下和错误率增加。尽管三星公司已经经历了多次数据泄露事件,但他们仍然坚持在使用ChatGPT进行芯片制造的学习过程中。然而,这种学习方式并不能完全保证安全性和效率,因此公司需要更加谨慎地考虑和评估这种学习方式的可行性和风险性,以避免在未来再次发生类似的事件。

三星公司的前车之鉴,让许多公司开始重视数据安全,尤其是人工智能语言模型ChatGPT。这一趋势引起了对数据敏感的金融机构的迅速跟进,美国、日本等多地的多家金融机构已经禁用了ChatGPT。这一行动引发了连锁反应,影响了多个国家。意大利和德国等也在禁止和调查ChatGPT,甚至在全球范围内引起了对这一问题的讨论和关注。

安全风险方面,ChatGPT所带来的风险主要集中在与用户交互后,敏感信息泄露方面。与用户交互越多,泄露数据的可能性也就越大,因此组织需要更加谨慎地保护其敏感信息。想要生成更符合需求的内容,需要更多的信息,这给组织带来了更大的挑战。更高效率与更大风险的矛盾,成为了广大组织为之挠头的问题。

从自动化角度来看,生成式AI如ChatGPT等具有更加直接和颠覆业务自动化的优势。然而,近期由于ChatGPT存在大量封号、安全漏洞、数据泄露以及被各国封禁等问题,给引入ChatGPT的组织带来了很大的不稳定性,甚至可能影响企业正常运营。

可见,在流程自动化已经成为企业标配的当下,安全稳定的自动化真的太重要了。

出现这么多问题,是不是意味着ChatGPT以后就不能使用了?又该如何实现安全稳定的自动化?本文,王吉伟频道就跟大家聊聊这些。

ChatGPT负面消息不断

3月底,网上流传了一份似是而非的针对GPT-5研发的请愿信。

尊敬的读者,最近,未来生命研究所(Future of Life Institute)公布了一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。该研究所的研究人员在广泛的研究中发现,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险。这封信是对未来生命研究所的研究和观点的总结,也是对于当前AI技术发展的警示。我们需要认真考虑人工智能对社会和人类的潜在影响,并采取必要的措施来确保其发展和应用不会带来不可逆转的风险。在未来,我们需要更加深入地研究人工智能系统的安全性和可控性,并确保其发展和应用符合人类的利益和价值观。我们需要加强对人工智能的监管和管理,确保其发展和应用符合社会和人类的需求和期望。作为AI领域的专家和研究者,未来生命研究所呼吁我们一起努力,确保人工智能的发展和应用符合人类的利益和价值观,为人类的未来创造更加美好的前景。

这封信引起了科技界广泛的关注和签名,除了特斯拉和谷歌工程研究员辛顿,还有苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)等人也参与了签名。

这封信引起了公众的广泛关注,因为它似乎是一个似是而非的故事。有人质疑这封信的真实性,指责它是为了签名造假、误导公众以及推动AI炒作。更有消息传出,这封信是由AI生成的,目的是劝阻AI研发的请愿信。这样的请愿信似乎有些讽刺。

或许为了给此事推波助澜,还有人在设置一定条件后,询问ChatGPT想对人类做的第一件事情是什么,得到的答案是:毁灭人类。

当然,这个问题也很有可能是由AI生成的。特朗普和马斯克出现在各地街头的图片告诉我们,AI时代,大家围观的再也不可能是真相,因为用AI造假的成本比学习P图技术低太多。

但不管真假与否,似乎是“请愿信”起了作用,美国相关部门还是召开了专项会议。

据美联社报道,美国总统拜登于当地时间4月4日在白宫与科技顾问举行会议,讨论人工智能给人类、社会和国家安全带来的“风险和机遇”。会议上,拜登重点讨论了保护权利和安全的重要性,以确保负责任的创新和适当的保障措施,并呼吁国会通过两党隐私法以保护孩子,以限制科技公司收集所有人的个人数据。

在这次会议上,OpenAI的激进商业化推进得到了高层的重视。以ChatGPT为代表的生成式AI的野蛮发展也引起了人们的关注。这预示着,各种监管、整顿和改进也将落到这些AI企业的头上,以维护市场的稳定和可持续发展。

所以,不只是国内在整顿ChatGPT等生成式AI爆发后引起的各种乱象,各国都在数据安全层面发布了不同程度的法规政策。

3月31日,意大利个人数据保护局宣布,即日起暂时禁止使用聊天机器人ChatGPT,并表示已对ChatGPT背后的OpenAI公司展开调查。

意大利封禁ChatGPT所援引的法律工具是欧盟《通用数据保护条例》(GDPR),除了大型互联网公司,GDPR也能拿来监管新出现的人工智能公司。需要说明的是,欧洲的隐私监管机构往往独立于政府,在隐私保护上权力很大。

欧洲对于数据安全有很高的敏感性,对于涉及到的相关技术及产品如果有很大的争议,一些国家便会快速跟进。

法国和爱尔兰的隐私监管机构已经与意大利的同行联系,以了解更多关于禁令的依据。西班牙的监管机构也表示,不排除未来会对ChatGPT进行调查。

德国政府发言人曾对媒体表示,没有必要禁止ChatGPT,但很快德国联邦数据部门就表示可能会效仿意大利,出于对数据安全保护的考量而选择禁止ChatGPT。

相信有三星半导体数据泄露的前车之鉴,有奔驰等大型企业的德国不可能对此视而不见。

一些国家尚未公布相应的法规政策,但企业已经开始谨慎对待ChatGPT。生成式AI,尤其是ChatGPT所带来的数据安全等问题正在引起他们的担忧,甚至已到了禁用ChatGPT的地步。

危害比预想的大

3月23日,ChatGPT首次遭遇了重大个人数据泄露。

不少推特网友爆料,在ChatGPT网页左侧的聊天记录栏中出现了他人的聊天记录内容,一些用户甚至可以看到活跃用户的姓名、电子邮件地址、支付地址、信用卡号等信息。

即便OpenAI很快就修复了漏洞,并在第二天发布了声明向用户和整个ChatGPT社区致歉,但这个事件也让很多人开始担心隐私泄露。尤其是那些把ChatGPT当作情感陪护的用户,不知道对ChatGPT倾诉了多少隐私,怕是目前仍在瑟瑟发抖。

这起事件让用户更加意识到,OpenAI的安全系数并不是非常高。用户与OpenAI服务器进行越多的交流,发送到服务器上的隐私数据也就越多,这些数据可能会被拿去用于训练AI模型。虽然一些人可能会容忍这种行为,但如果某一天ChatGPT被黑客入侵,他们的隐私数据也可能会被盗走,后果将不堪设想。

同样在为数据泄露发愁的,还有三星公司。

三星因使用 ChatGPT 造成数据泄露的事情,现在已经成为了典型案例。为了应对这一事件,三星从 3 月 11 日起向其半导体部门的员工授予 ChatGPT 的使用权限,并允许员工向 ChatGPT 提问各种问题以提高工作效率。然而,其他部门仍然被禁止使用 ChatGPT。

三星公司的机密数据泄露事件不断发生,在短短一周内就发生了三起。这些事件涉及使用ChatGPT来优化测试序列以识别芯片中的错误、将公司有关硬件的会议记录转换成演示文稿、以及修复专有程序的源代码错误。

每个事件,都涉及了不少企业经营的敏感数据。

三星员工与ChatGPT交互的问题都要上传到OpenAI的服务器,由于ChatGPT保留了用户的输入数据来进一步训练自己,这意味着三星的这些商业机密实际上现在掌握在了OpenAI手中。

网友调侃,三星再发生几次数据泄露事件,大家就可以用ChatGPT学习制造高端芯片了。

ChatGPT的出现确实能够显著地提高员工的工作效率,但是这也意味着 ChatGPT可能会对员工造成商业损失。因此,企业在使用 ChatGPT之前,一定要制定使用规范,并对员工进行充分的提醒和培训,以确保员工不会在使用 ChatGPT的过程中泄露商业机密。

目前三星部门仍在使用ChatGPT,并开发出内部AI工具将能够输入的prompts限制在 1024。只是,被限制的ChatGPT又能发挥多少效能?

对于是否继续使用这样一个“杀敌一千可能自伤一万”的超级AI工具,三星应该已经心有定计。该公司已经再三声明若未来再发生类似事件,将禁止使用ChatGPT。

生成式AI躲不开的安全问题

严重警告或者禁止使用ChatGPT的大型企业,已经不止一家。

亚马逊律师曾警告员工,不要与ChatGPT分享任何亚马逊的机密信息包括正在编写的代码,因为这可能会将其用于训练未来的模型。

在金融领域,美国银行、花旗集团、德意志银行、高盛集团、富国银行、摩根大通和Verizon等多家机构,均已经禁止员工使用ChatGPT处理工作任务。

日本的软银、富士通、瑞穗金融集团、三菱日联银行、三井住友银行等,也限制了ChatGPT的商业用途。

终究是搞金融的企业对数据更加敏感,在可能的损失与高效率之间,集体选择了前者。

目前的很多事件已经对外昭示,ChatGPT给企业带来的风险比想象中的高很多。

除了个人隐私和企业敏感数据泄露,上线不到5个月的ChatGPT,已经成功让全球很多用户已经对它产生了很大的依赖。

一些人已经对ChatGPT产生了依赖症,导致他们无法在没有ChatGPT的情况下进行工作,并且全球用户的叫苦不迭。此外,由于ChatGPT崩溃24小时期间 Plus用户疯涨,对OpeanAI算力造成了压力,以至暂停了Plus会员升级与充值服务1天。

虽然这种依赖已成为巨大的市场,但它也带来了巨大的风险。随着越来越多的数据上传到OpenAI服务器,相关数据可能会泄露企业的各种数据与隐私。例如,让ChatGPT进行代码修复、表格生成、PPT制作等操作时,相关数据可能会被用于指导企业的业务决策,这可能会导致企业的隐私泄露,甚至遭受商业欺诈。因此,企业需要谨慎对待数据隐私,并采取必要的措施来保护它们。

人们可能会陷入AI的依赖中,失去创造性思维,这是AI的优势,也是其存在的局限性。

一直有传闻OpenAI的GPT-5没有快速发布,是因为他们还在对它的快速进化做更多的限制性功能设置,就连OpenAI的CEO都在担心它可能会产生自我意识。

最近有消息透露 GPT-5 将在 12 月完成训练,这使得一些组织感到担忧,认为 OpenAI 的激进做法可能会导致 AI 的发展过快,留给人类的时间真的不多了。因此,一些组织要求 GPT-4 推迟 GPT-4 商业版的发布,以确保人类能够跟上并管控 AI。这是有道理的,因为 AI 的发展可能会像一头脱缰的野兽,变得难以控制。我们需要留给人类一些时间,能够跟上并管控 AI,否则它将变得不可控制。

关于AI的未来发展的人文与伦理,我会在另一篇文章中跟大家探讨,这里就不展开叙述。

生成式AI的数据泄露再度引起了人们对隐私计算和数据安全的探讨。目前而言,解决隐私泄露的方法有两个:一是加强数据安全保护防患于未然,二是通过合成数据从根本上解决数据隐私问题。

其中合成数据算是一个新的思路,它是由计算机人工生产的数据,来替代现实世界中采集的真实数据,以保证真实数据的安全,不存在法律约束的敏感内容和个人用户的隐私。

目前广大厂商已经在布局这一领域,合成数据数量也正在以指数级的速度向上增长。Gartner数据显示,2030年合成数据将远超真实数据体量,成为AI数据的主力军。

但即便合成数据发展再快,却解决不了眼下ChatGPT所带来的安全问题。所以,稳定且安全的智能自动化就显得更加重要。

稳定安全自动化的重要性

人工智能的最大优势在于其带来的自动化。借助AI技术,企业可以更加彻底地实现自动化,处理更多的数据并协助运营决策。这给大家留下了深刻的印象,因为许多业务可以自动化运行,带来可观的效率与成本节省。

企业刚需是自动化,而AI则可以在不同阶段更好地服务自动化。在两者技术的发展进程中,AI技术每实现一定突破,都可以大幅提升自动化在稳定性、适应性、易用性、安全性等各方面的能力,从而为企业带来更大的价值。

RPA与AI技术的融合是一个典型,现在所有RPA产品都已经演变成为深度融合AI技术的智能自动化或者超自动化,在更多业务场景的流程自动化中扮演着越发重要的角色。

所有AI技术,都会通过直接或者间接的方式为组织经营提供不同程度的自动化。现在而言,以ChatGPT、Midjourney等为代表的基于大模型的AI应用,对企业最大的影响也是通过自动化生成各种内容和应用快速变革一些应用场景的业务流程,直接替代一些复杂流程,或者让流程自动化变得更加简单和纯粹。

同时生成式AI与智能自动化相互协同,也让企业打造的人机交互自动化层的运行效率更高。

生成式AI所带来的企业运营变革是巨大的,但潜在的安全因素也是目前其所遇到的最大挑战。

挑战数据泄露的企业可能会十分忌惮,但王吉伟频道认为,将这种风险放到业务流程之中,并不是说企业多么担心数据泄露,而是由于这种风险所导致的不稳定自动化,让人们开始重新评估引入生成式AI技术的必要性。

这里所说的稳定自动化,不只是软件系统的稳定运行,还包括数据安全、环境影响、政治因素、地域限制、代理应用等各种可能影响稳定运行的因素。

新技术的引入和应用需要考虑各种风险,如果不加控制,就会出现各种问题。最近,一个创业公司因为引入了ChatGPT技术,而大刀阔斧地进行裁员。然而,ChatGPT技术大面积封号,使得公司无法正常运转,不得不重新开始招聘。

在这一波封号潮中,很多正规公司的账号都难以幸免,或多或少会影响企业的经营。

通过自动化系统控制生成式AI

相对于ChatGPT在数据泄露等方面的不稳定,目前正在流行的基于RPA、低代码、流程挖掘、NLP、OCR、DPI、ChatGPT等的智能自动化和超自动化解决方案就稳定的多。这些解决方案都采用了现代化的技术,能够对流程进行深入分析和建模,从而保证数据的安全和完整性。此外,这些解决方案还能够进行实时监测和预警,避免数据泄露等问题的发生。

生成式AI之前,智能自动化已经实现了对话式流程创建,通过关键词指令触发去创建流程。现在很多RPA产品都已经集成了GPT,主要应用是通过自然语言交互生成各种流程创建和执行各种命令。

用生成式AI驱动部署在本地或者云服务上的智能自动化执行业务操作,比如让RPA执行表格创建等,远比直接用ChatGPT在云端生成相关内容再返回要安全得多。

生成式AI是应用数据泄露风险的解决方案之一,但企业也可以像三星一样开发内部AI工具,对交互内容进行一定的限制,从而提高安全系数。

人为因素在数据泄露方面占据了很高的比重,尤其是在生成式AI的应用中。生成式AI需要足够的数据才能生成符合需求的内容,因此数据泄露的风险也随之增加。有人甚至会给AI喂十几本书,这样就需要提供足够的数据。数据越多,泄露风险也就越大。因此,对操作人员的行为规范和一定的监管可能比限制技术的发展更加重要。

王吉伟频道认为,现阶段如RPA集成ChatGPT这样,基于已有自动化系统和相应的技术限制并间接使用生成式AI,对于稳定的自动化有着一定的必要性。三星SDS早已集成了GPT,如果推广使用的是RPA+GPT的解决方案,相当于在员工与ChatGPT之间加入了一个中间隔离层,数据泄露问题可能也要小得多。

在企业数据安全方面,许多企业服务领域的厂商都会引入相应的安全标准及认证,通过外部审查和内部自查等方式来完善自身和所提供的服务的安全体系。大型厂商以及融资到C轮以后的创业公司也会引入相应的安全规范,以确保客户数据的安全。

以RPA厂商而言,像来也科技、弘玑Cyclone等已在安全方面会引入SOC 2、ISO 27001等多项安全相关的认证。

智能自动化生成式AI解决方案,是建立在认证企业遵守相关规范的基础上的。这个方案可以让自动化更加稳定,提高生产效率和产品质量。

所以从这个角度而言,“软件系统+生成式AI+数据安全”的自动化解决方案,或许更容易被广大企业所接受。

后记:技术应用适当取舍

软件或解决方案的全生命周期问题,需要考虑企业用户的需求,为用户提供全方位的考虑。如果想要应用生成式AI技术,那么需要解决用户的所有顾虑。

相信过不了多久,OpenAI或者微软也将会解决这个问题,生态商家们也会推出完善的解决方案。不然,ChatGPT在领域的落地与应用将是一个大问题。

除直接调用API外,OpenAI还可以与广大企业合作进行模型部署与微调业务。大型企业可以在本地或自有云系统上部署自己的模型,从而避免数据安全隐患的影响。否则,大部分企业可能会望ChatGPT而生叹。

所以相对ChatGPT,百度文心一言帮助企业构建自己的模型和应用的模式,将会更受广大组织的欢迎。

事实上,这个世界的安全问题并不是一个简单的问题。无论使用什么样的技术、工具或人员,都存在一定的风险。但是,在考虑价值或利益之后,我们必须学会做出取舍。

这样想的话,是不是就简单多了。

人工智能和机器学习技术的快速发展引发了许多争议,其中一些争议是关于人工智能和机器学习技术的安全性和隐私问题。 一些人认为,人工智能和机器学习技术可能会导致个人隐私和数据泄露,因此需要采取措施来保护这些数据。他们指出,人工智能和机器学习算法本质上是基于数据的,如果这些数据被泄露或滥用,就会导致算法的不稳定性和错误,这可能会对个人隐私和数据安全造成严重威胁。 然而,其他人认为,人工智能和机器学习技术的安全性和隐私问题可以通过适当的监管和安全措施来解决。他们指出,人工智能和机器学习技术需要大量的数据和计算资源,因此需要采取一些措施来确保这些数据和算法不会被滥用或泄露。 人工智能和机器学习技术的安全性和隐私问题是一个复杂的问题,需要综合考虑技术本身、数据、监管和安全措施等多个方面。无论如何,人工智能和机器学习技术的发展需要确保其使用是安全和负责任的,以促进社会和经济的发展。

Leave a Reply