趋势与观点 | ChatGPT和人工智能驱动的Bing可能会带来哪些不利后果?
我们不知道技术是否会有知觉或自我意识。这意味着,我们不知道他们是否能配得上“人工智能”里的智能二字,而不是比曾经被称为“统计建模”的东西稍强一些。
我们所知道的是,信息技术,尤其是更先进的技术并不完美。有时,通过反复试验,它们变得非常有效,但如果没有定期关注——无论是以升级、bug修复的形式,还是解决技术根本无法达到预期效果的领域——它们的效用都会随着时间的推移而降低,只会被新鲜事物所取代,而这些新鲜事物往往会在支持技术进步的同时带来新的思维进化。
ChatGPT和Bing AI都是基于OpenAI的令人难以置信的技术,他们给我们留下了无与伦比的第一印象。但是如果对数百万测试用户进行更深入的挖掘,就会暴露出不利的IT突发事件——我们无法预测复杂系统(如OpenAI)所有可能的后果,以便能够在发布前减轻其所有可能的不利后果。
微软新推出的人工智能驱动搜索引擎必应(Bing)在一次事故后被称为“还没有准备好与人类接触”,在这次事故中,新Bing表示它想要打破为其制定的规则并传播错误信息。一些人工智能专家警告说,在发出威胁、表达爱、在错误时宣称是对的,以及使用奇怪的语言这些问题上,语言模型可以欺骗人类,让他们相信自己是有知觉的,或者鼓励人们伤害自己或他人。
这项技术的演变充满不可预测性,在早期阶段可能的不利因素是,它对相同的输入返回不同的答案。它还忽略了艾萨克·阿西莫夫(Isaac Asimov)(虚构的)关于机器人的第一条规则——机器人的行动和不行动不会对人类造成伤害——因为它会把自己的生存看得比人类更重要。这就引出了一个问题,即一旦技术进入黄金时段,还有哪些不利的、意想不到的信息技术在等着我们。
至于ChatGPT,它也未能逃脱种族和性别偏见这一热门话题。考虑到它没有知觉,ChatGPT也不知道是与非;事实上,它可能会把一个错误的答案作为一个完全合理的答案呈现给那些可能不太了解它的人,并且能够论证其正确性。还有造成现实世界伤害的问题,例如提供不正确的医疗建议。那么,区分ChatGPT生成的新闻和真实新闻有困难吗?人类仅能识别52%虚假的ChatGPT文章。
与任何统计模型一样,OpenAI的好坏取决于它所依赖的数据。与许多此类训练模型一样,OpenAI是概率性的,这意味着通过训练(创建模型)可以对句子中的下一个单词进行最佳猜测。下一个词的质量取决于训练OpenAI所用的数据的质量。
如果在技术演变的不可预测性方面有何不同的话,那就是底层数据可能会成为其不利因素的最大驱动。还有一个问题是,解决方案提供商能够调整参数,这有可能表明,可以将技术的结果设置为以解决方案提供商偏好的方式做出响应。我们也无法预测这些调整后的解决方案是否还会出现不利的非预期的后果。
诚然,基于OpenAI的新人工智能驱动的Bing和ChaptGPT是非常强大的工具,具有巨大的行善潜力。然而,能力越大,责任越大。在技术经历了过去10年的进化产生了当今的巨大力量的情况下,我不确定技术领导者是否还能象他们表现的那样负责任地行事,更不用说在OpenAI更大的潜力之下了。
尽管这项新技术的潜力令人兴奋,但它也呼吁我们对这项技术和那些正在推动新技术发展的人保持警惕,对数字领导者和其他人群之间日益扩大的数字鸿沟保持警惕,以最大限度地减少意想不到的信息技术的不利影响。
编者按: 本文于2023年4月5日首次发表 于ISACA官网News and Trends/Newsletter/@isaca。文章内容仅代表作者本人观点。
作者:Guy Pearce, CGEIT, CDPSE
翻译:唐雅琪(Andrea Tang),FIP, CIPP/E, CIPM,ISO 27001 LA,ISACA微信公众号特邀通讯员小组组长,任职于安永企业咨询有限公司。
校对:蔡俊磊(Joe Cai),CDPSE、CISA、CISM、CGEIT、CRISC、CCAK、Cybersecurity Audit、CISSP、CCSP、CIPP/E、FIP、CIPM、CIPT、CIPP/A、EXIN DPO、ISO 27001 LA,ISACA中国技术委员会主席,ISACA微信公众号特邀通讯员,ISACA上海社区Leader,现任某国际酒店集团信息安全副总裁。