请问饿了吗马上消费靠谱吗是如何解决人工智能可信问题的?

马上消费CTO蒋宁。今年,ChatGPT的火热再次掀起了全球对人工智能(AI)的高度关注,目前,各行各业都在探索,生成式人工智能到底能给行业带来哪些颠覆,金融机构是这方面的先行者。7月12日,在2023新京报贝壳财经夏季峰会的“AI如何助力金融行业服务实体经济”的圆桌论坛上,马上消费CTO蒋宁表示,生成式AI的先进之处在于其迁移学习能力、泛化能力较强,但目前金融机构大多使用的是工业级判别模型,即一定要给出结果,而不像GPT一样,它给你的回答可以是错误的,但经过训练,模型准确性会逐渐提升。所以,未来对大模型探索的主要思路应该是,将生成式模型的泛化能力、迁移学习能力与判别模型进行有效结合,才能解决金融机构的实际问题。同时蒋宁透露,马上消费将会在近期发布金融大模型,结合了持续学习、组合式AI等能力,将在组合决策上作出实践。组合式AI能力才能解决金融机构实际问题公开资料显示,马上消费成立于2015年,是一家经监管批准,持有消费金融牌照的科技驱动型金融公司。据蒋宁介绍,目前,马上消费已有3000多名员工,其中,超过2000名都是人工智能和大数据专业的科技人员,8年来,公司累计申请专利已达1300多件,资产管理规模已过千亿元。其实,过去几年,AI在金融领域的应用并不少见,但如今的生成式AI依然掀起了金融领域的高度关注,蒋宁认为,生成式AI的先进之处在于其迁移学习能力、泛化能力较强,但目前金融机构大多使用的是工业级判别模型,即一定要给出结果,而不像GPT一样,它给你的回答可以是错误的,但经过训练,模型准确性会逐渐提升。所以,未来对大模型探索的主要思路应该是,将生成式模型的泛化能力、迁移学习能力与判别模型进行有效结合,才能解决金融机构的实际问题。在这一大思路下,组合式AI能力应该给金融机构带来哪些改变?蒋宁提出了三个方面,一是金融机构如何基于新型数字化技术,深入洞察消费者,并提供个性化体验;二是提升传统金融的运营效率,如营销、获客等;三是做合规安全的决策智能。以用户洞察为例,蒋宁认为,未来的用户画像应该要实现每秒钟上亿的画像,且画像是自动化、动态化、贯穿全生命周期的,更智能、精细、准确、及时、深入的洞察用户可以自动优化营销、风险等标签。又以提升传统金融运营效率为例,蒋宁表示:“今天我们接到许多电话,能听出是机器人打的,这其实很影响消费者的体验,我相信在不久的将来,每个人都能接到个性化的营销电话,就像真人打的一样,可以与客户进行非常个性化的聊天,这就是通过语音技术、交互技术的深化,大大提升传统金融服务的效率。”金融机构应用生成式AI的风险主要是可信与安全不过,对于严监管的金融机构而言,使用生成式AI的风险仍值得高度关注。在蒋宁看来,金融机构使用生成式AI面临的风险和挑战主要是可信及安全。可信即如何保证AI决策在任何情况下都结果可信。蒋宁以马上消费举例,“我们有几十万张表,将近上百万的变量,2000多个模型,且有风险、营销、决策等不同应用场景,在这其中,数据有倾斜、变量有漂移、模型有衰减,在如此庞大的系统下,如何保证结果稳定,不出现如变量计算错误、新逻辑改变、模型突然衰减等情况,让结果可预期、可控,这是我们持续探索的。”安全则属于对抗学习领域,即一种算法的基本逻辑势必会被另一种算法找到,比如,金融领域中人脸识别的对抗样本就至少有20、30种,在这种情况下,如何保证AI模型的安全?蒋宁表示,公司能做到多模块、多算法的组合,且不断研究对抗学习,能够保证在突发、恶意的情况下,结果依然安全,这是单一算法难以实现的。未来AI如何更与时俱进值得探索面向未来,蒋宁认为生成式AI有算法、算力、数据、规范四方面值得关注和探索。在算法方面,他表示,以往人工智能最大的问题是没有动态适应性,即人工智能会随着环境的变化而减弱能力。大模型有动态的适应性,但是中国没有看到很多这种大模型,如果没有持续的生态的参与者反馈数据让这个模型越来越成熟,那么一次性的模型都是挑战。未来,人工智能如何更适应环境变化,更能与时俱进,持续学习,是需要探索的。在数据方面,蒋宁表示,如果希望大模型更有效,一定需要全社会的参与和共同反馈,持续强化开放生态,实现金融领域的群体智能,但目前受合规、隐私保护及技术等方面限制,难以做到行业金融数据的归集,所以,单个机构的模型难以形成行业共享。在算力方面,蒋宁称,大模型给算力的基础架构带来了较大冲击,也让金融机构面临着芯片、技术架构的选择,在这方面仍有较大探讨空间。在监管治理方面,蒋宁认为,金融机构的大部分决策都非常严谨,而目前大模型最广泛应用于助手领域,而无法作出决策,这并不符合金融机构的需求。因此,我们提出要打造组合式AI,帮助金融机构做出稳定的、抗干扰的决策。“后续,马上消费也会发布大模型,结合了持续学习、组合式AI等能力,将在组合决策上作出实践。”蒋宁说。面对生成式AI带来的风险和挑战,蒋宁表示,马上消费的人工智能将在三个领域、三个能力上加大布局,三大领域包括数据决策智能,多模态语言、文字、视频的AI能力以及实时的人机协作;三大能力则包括持续学习能力,这是大模型最核心的生命力,其次是组合式AI能力,将工业届的判别式模型与生成式模型有效结合,才能真正解决金融运营过程中的具体问题,第三个能力,即大模型能在合规、安全、鲁棒性能力上均有较大提升。新京报贝壳财经记者 潘亦纯 编辑 王进雨 校对 陈荻雁
打开网易新闻 查看更多图片
当前迅速爆火的ChatGPT似乎让人们看到,人工智能距离进入每个人的日常生活已近在咫尺。但不可忽视的是,人工智能的大规模应用同时隐含着巨大的风险。ChatGPT在其月活用户数快速突破一亿之时,人们对其数据安全问题、知识产权保护问题、虚假信息传播问题的疑虑也被快速放大。在人工智能快速发展的今天,亟需保障其对人类的“可信赖”。在全球范围来看,可信AI已引起高度重视。二十国集团领导人大会明确提出“促进公共和私人对人工智能研发的投资力度,以促进可信赖的人工智能(trustworthyartificial intelligence)创新;创建一个策略环境,为部署值得信赖的人工智能系统开辟道路。”美国政府也已公布《促进政府使用可信人工智能》的行政命令,指导联邦机构使用人工智能,促进公众更加信任政府使用的人工智能技术。另外,欧盟发布的《人工智能白皮书》提出人工智能“可信生态系统”,旨在加强对人工智能的强制监管。可见,随着人工智能的产业化发展,可信人工智能已成为业界焦点。金融业可信AI的特征金融业人工智能的可信特征,经过行业的不断研究与沉淀,已逐渐在公平性、隐私保护、安全性、透明性、责任可追溯等方面达成共识。金融业可信人工智能要承接科技伦理的要求,将以人为本作为其根本。不同的是,科技伦理从宏观层面做出指引,而可信人工智能则深入到金融机构内部对人工智能的管理、研发、运营等环节,提升金融消费者和整个行业对人工智能的信任程度。尽管不同的机构或个人可能对可信特征有不同侧重,但从行业维度来看,金融业已开始围绕这些可信特征进行理论研究和技术创新,解决金融业人工智能的可信问题。AI可信问题带来金融风险人工智能在金融领域应用的广度和深度在不断拓展,已成为金融的重要支撑。人工智能的可信问题已逐渐成为金融风险的重要来源,体现在以下一些方面。公平性缺失导致业务决策偏见。人工智能决策结果会受到训练数据的影响,如果训练数据中存在偏见歧视,算法会固化这种歧视,导致依托人工智能算法生成的决策形成偏见。例如在营销场景下,某些智能推荐算法存在的偏见,可导致部分群体不能公平地获得金融服务机会。数据滥用导致隐私泄露。当前金融业务活动中会涉及大量个人信息,比如利用个人信息构建风控模型、在身份认证中采集个人生物特征,这些活动使得个人隐私数据泄露和滥用的可能性大增,加重了人们对金融安全风险的担忧。算法模型安全性低导致业务风险。以深度学习为代表的人工智能技术存在脆弱和易受攻击的缺点,使得依靠人工智能支撑的金融业务难以得到足够的信任。例如已在金融领域大量使用的人脸识别系统,受到众多利用3D面具和合成照片等手段实施的欺骗攻击,且部分攻击可突破系统防御,给金融业务安全带来了巨大隐患。黑箱特性导致业务的不透明。人工智能采用的深度神经网络具有高度复杂性和不确定性,很多情况下对人类来说是一个黑箱,人类无法直观地了解人工智能的决策过程。这种特性导致科技的不透明性增加,考虑金融业务较高的安全合规要求,我们对于人工智能与金融业的深度融合产生了疑虑。责任主体难以界定。人工智能的决策受多种因素影响,若利用人工智能系统做出的金融决策和判断出现侵权、违法行为,从现行法律上看,难以将人工智能作为责任主体。人工智能的行为到底是由所有方还是研发方担责,责任主体难以界定。因此,为降低金融风险,须进行人工智能的可信治理,通过建立可信赖人工智能,打造消费者满意和信任的金融服务。马上消费如何打造可信AI马上消费致力于将可信人工智能理念贯穿人工智能系统全生命周期,在设计、研发、应用人工智能系统的过程中,将可信的理念根植于关键环节。我们针对上述人工智能可信问题带来的金融风险,综合利用技术手段、管理方法保障系统可信。公平性方面,马上消费重点关注人工智能训练数据集,构建完整异构数据,将数据歧视和偏见最小化。并研究公平决策量化算法对数据集进行评估,减轻决策偏差和潜在歧视。隐私泄露防范方面,通过建立数据治理体系来避免数据的滥用,并使用隐私计算技术训练人工智能模型。马上消费已建立多方安全计算平台,可在用户数据不出库的条件下进行人工智能模型的训练,保障隐私数据安全。为保障算法模型的安全性,马上消费着力提升人工智能模型防御对抗攻击与中毒攻击的能力。对抗攻击是通过针对性设计特定的输入样本使得人工智能系统决策出错,中毒攻击则是通过向训练数据中注入特定数据使得训练得到的模型推理判断出现失真。为防御这些攻击,马上消费研究采用异常数据检测方法来检出并清除训练数据中的恶意数据,减轻中毒攻击带来的干扰,并通过建立对抗样本进行针对性训练来抵抗对抗攻击。为保障人工智能系统透明性,重点研究人工智能的复现能力。目前业界已有一些研究方向,如通过建立可视化机制尝试评估和解释模型的中间状态,或通过影响函数分析训练数据对于人工智能模型的影响。马上消费探索建立可解释模型,模型通过对复杂的黑盒模型进行局部近似来研究黑盒模型的可解释性。另外,马上消费致力于树立可信的企业价值理念。发展可信人工智能不仅是建设可信的人工智能系统,更要把可信理念融入金融机构的血脉,树立以消费者为中心的价值观,为客户提供可靠、透明、包容的科技服务。我们在鼓励创新和实践可信人工智能的同时,落实可信人工智能管理制度,明确责任部门和人员、工作方法和流程,打造更加可信的金融机构。可信人工智能已经加速在金融行业的落地。虽然可信人工智能的特征包括了很多方面,但随着相关理论研究与技术创新的不断深入,可信理念将更深层次地与科技结合,确保金融业健康发展。版权声明:以上内容为《经济观察报》社原创作品,版权归《经济观察报》社所有。未经《经济观察报》社授权,严禁转载或镜像,否则将依法追究相关行为主体的法律责任。版权合作请致电:【010-60910566-1260】。特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。
  来源:银行家杂志  伴随Disco Diffusion、ChatGPT等生成式AI产品相继问世,AIGC正在掀起一场新的工业革命。近日,普华永道的分析师对外发布了关于生成式AI升级带来的11大安全趋势研判,呼吁全球关注人工智能安全风险带来的巨大挑战。  金融行业信息化建设起步早,已成为人工智能应用最佳的领域之一,然而,技术创新也带来了风险。马上消费金融股份有限公司(以下简称“马上消费”)作为科技驱动的金融机构,通过主动拥抱监管、建立消保委员会、严格数据管理、制定行业标准、加强技术人才培养与技术研发投入等方式,积极应对人工智能技术在消费金融领域的安全问题。  针对当前行业面临的人工智能安全风险挑战,马上消费人工智能研究院院长陆全从人工智能在金融行业应用的现状以及挑战两个方面分享对策与建议。  技术是把双刃剑,效益与风险并存  金融行业因客户群、数据库庞大等特性,在客服、投顾、风控等场景中的人工智能技术应用成熟度处于领先地位。马上消费通过对大型数据集的学习分析,提供快速响应互动、个性化投资推荐等客户服务,提供异常数据检测、用户行为分析等机构决策支撑。与此同时,在这些应用场景中,也存在着三大安全风险。  数据滥用造成的隐私泄露、金融欺诈风险。为保障金融服务质量,需要采集大量数据处理分析,对数据的采集存在扩大化问题,过度采集用户的行为、偏好等隐私数据。  模型偏差造成的贷款歧视、交易公平风险。人工智能技术应用在信贷领域,可快速、低成本地对潜在借款人进行准确的评估,与传统的信用评分体系相比,人工智能信用评分更加复杂。模型会对大量用户数据进行处理,建立多数人适用的评估规则,但存在认知和数据偏差导致对特定人群的信用偏见,产生贷款等服务歧视。  攻击破坏造成的财产损失、业务停滞风险。金融行业相较于其他行业,对系统稳定和数据的依赖性更强,但由于人工智能技术的局限性存在脆弱易受攻击的特点,面对攻击造成的财产、大量数据丢失的损失不可估量,技术不稳定性对自身业务造成致命影响,可能直接导致业务停滞。  技术攻防对抗,创新升级新挑战  人工智能在实践和应用中面临着诸多挑战,由于AI模型、数据、系统的不成熟性造成的欺诈和安全问题不容忽视。人工智能技术正在开展针对自身的攻防安全技术研究,促使技术应用向可信、可靠、安全方向发展。  针对人脸识别攻击,多模态融合防护。金融行业对身份认证的基础需求加快人脸识别的应用,不法分子通过图片、3D打印等物理方式攻击突破人脸识别系统进行资金盗取诈骗。多模态生物识别技术相较于单一生物特征,通过设计融合算法,综合人脸几何特征、声纹、虹膜等多种特征,弥补某些生物特征容易被伪造的弱点,提升识别精确度,形成对人脸识别攻击的技术防御。  马上消费在多模态人脸识别应用中还加入了光电体积描记术识别、光场相机活体识别等活体检测技术,持续进行防伪技术攻关,为客户人身财产安全筑造坚实的防护屏障。  面对数据污染攻击,增强优化防护。数据污染攻击通过投入污染数据,改变模型反馈机制,将恶意文件标记为善意的,让系统做出错误的行为。在金融行业中,攻击验证环节的反馈,破解认证系统稳定性,可实施非法转账等诈骗行为。行业一般使用数据增强、稳健优化、模型迁移等方式来提高模型稳定性,马上消费在此基础上增设了异常检测机制,对用户访问进行识别,不匹配预期模型和数据集的项目进行异常数据测试,通过删减调整以减轻异常数据对模型的干扰。  对于模型窃取攻击,多模型加密防护。模型窃取攻击以模型重建和影子模型的形式获取模型参数窃取重要商业决策模型,通常会造成用户身份信息、交易数据、企业商业秘密等敏感信息泄露。马上消费通过将机器学习模型与加密技术结合起来,利用差分隐私技术、多方安全计算技术等实现在加密条件下保护训练过程数据的隐私性。同时,将数据分区训练多个模型,根据多个模型的结果去做决策,提升模型窃取难度,抗恶意用户访问。  目前的人工智能安全技术是在特定的攻击情况中针对性解决一些安全问题,实际人工智能安全风险没有根本的技术解决方法。所谓“道高一尺,魔高一丈”,人工智能安全将持续处于一种攻防不断对抗的状态,因此相应的技术必须不断更新升级,技术创新会不断带来新挑战。  行业挑战任重道远,合力推动技术向善  人工智能的安全风险取决于技术发展及其安全可控的程度,安全保障需要社会全体的共同参与,为人工智能发展应用建立安全边界、做好自我监管是未来长期要面临的挑战。  2022年3月,马上消费牵头成立行业首个AIF联盟,坚持对金融黑产“零”容忍态度,凝聚同业合力,一同打击金融黑产;在体制建设上,将消保纳入顶层设计,实现100%产品和服务标准化消保评审体系,定期专项监督,做到消保全流程管控,使客户满意度持续提升。  依托科技研发创新,参与超30项金融科技标准编制工作,涉及研发运营一体化能力成熟度、开发平台通用能力要求等,获得28项人工智能与交易安全领域备案认证,在标准及认证方面表现优秀,引领消金行业规范化发展。  未来,行业应对人工智能安全风险的挑战依然任重道远,各金融机构、科技企业仍需高度重视、积极迎接挑战,提升人工智能技术研发能力,从数据治理、强化监管、规范制定方面降低风险,提供优质高效的金融服务,推动金融服务向智能安全可信方向发展。海量资讯、精准解读,尽在新浪财经APP责任编辑:宋源珺 相关专题:
中国金融创新成果巡展专题报道专题VIP课程推荐加载中...APP专享直播1/10热门推荐
收起
产品入口: 新浪财经APP-股票-免费问股

我要回帖

更多关于 饿了吗马上消费靠谱吗 的文章

 

随机推荐