欢迎访问中企信办信用工作办公室,今天是2024年12月22日,星期日

信用评分技术在北美市场的应用

在美国,有很多机构可以提供信用评分的相关服务,比如专业的信用评估公司和征信机构。美国个人消费信用评估公司开发的费埃哲(FICO)征信评分是一种个人信用评级法,已经得到社会广泛接受,他们还为美国三大征信机构开发了三种不同的得分。例如,益百利(Experian)公司针对新成立公司、个人消费者和公司贷款都有专门的信用评分模型。而银行、保险、信用卡公司等也都利用专业机构或者自己开发的信用评分系统对客户的信用状况进行分析,为贷款或产品销售决策提供参考。美国的第一资本公司在信用卡行业中闻名遐迩,他们通过基于技术的模型向客户推荐合适的信用卡,也需要利用客户的信息对其信用状况进行评估。


一、信用评分的应用


在应用层面,信用评分应用表现出两大特点,分别为通用的评分方法和专业机构特有的消费者评分。


以费埃哲评分为代表的征信评分方法被许多信贷机构使用。通用的评分方法对一般性问题和信贷机构具有良好的效果。以费埃哲评分为例,该评分基于个人信用记录开发了科学、客观和有效的评估指标和评估方法,对于消费信贷的风险可以准确地估计。


另一方面,银行等专业机构大量建立了自身的消费者评分。一般来说,内部研发的消费者信用评分技术可能不需要通用技术那么严格的流程要求,因为这带来效率的同时可能也会造成一些疏漏之处,且人事变动可能会影响到模型开发的进程。总体来说,信贷机构内部建立的消费者评分仍然更具针对性。


在北美很多银行,信用评分技术应用于信贷业务的整个生命周期。在客户预筛选期,银行需要开发风险预筛选评分模型,排除一些高信用风险的客户,瞄准目标客户群。在客户审批阶段,需要建立申请欺诈模型和申请评分模型,通过对消费信贷申请人的资信状况进行评估,预测其未来严重拖欠或坏账概率,排除在申请阶段可能有欺诈行为和信用评分低的客户。在账户管理期内,行为评分模型可以帮助银行根据信用卡账户历史上所表现出来的各种行为特征,预测账户未来一定时间内发生严重拖欠的风险,而早期预警模型对客户信用水平的恶化有敏锐的、前瞻性的发现功能,帮助银行发现更需提防的客户,及早做催款准备。拨备预测基于对客户未来违约概率和金额的预测,对银行所需的拨备准备金进行预估,这对提高银行对不良贷款的消化能力有重要意义。


由于零售银行业具有单笔金额小、业务数量大、客户群体特征复杂,客户需求具有多元性的特征,银行的审批流程也面临着信息不对称、人工审批成本高且准确性低、贷后管理繁杂的挑战,国外先进银行已经实现了四化来应对这些问题:数据化——全面使用内外部数据;模型化——应用各种模型进行贷前、贷中、贷后的管理;自动化——依靠系统自动进行贷款审批、贷后管理;系统化——完善的信息系统支持数据化、模型化和自动化。
二、信用评分的技术方法


在技术层面,以决策树和神经网络为代表的新方法被广泛实验,同统计回归法一起成为主流技术。传统的信用评分法包括收入评分法、归因评分法、倾向评分法等,算法方面常用线性回归及逻辑(logistic)回归法。数据挖掘技术通常会在模型结果的可解释性和预测准确性上进行取舍,传统的信用评分模型倾向于模型的可解释性,即使牺牲一点的准确性保证模型的可解释和稳定性,都可以进行应用甚至达到监管要求。传统的信用评分技术一定会结合算法与业务进行应用。其中,传统方法选用的算法基本是被证明的,而对应不同的业务应用信用评分也不断被优化。例如,通常风险模型都是通过放款成功的贷款作为模型建立的样本数据,因为这些样本有还款及违约信息。但真实业务场景下,可能存在大量被拒绝的客户,这些客户没有在建模样本中,但未来评分要应用于全体客户,这样通过已有客户构建的评分对全体人群进行风险预测就可能存在偏差。此时,就需要对已有的评分模型进行校准,所用的技术通常被称作推断拒绝。上述只是信用评分技术的某个应用点,在解决不同业务问题上,经验丰富的模型专家都会有对应的解决方案以达到通过模型技术辅助信贷金融业务。


信用模型也不止用于判别用户违约的可能,同时也会作为一个基础工具应用于风险定价、组合限额、绩效考核等。


目前,随着海量数据在信用评分领域的出现,样本中的变量数目出现爆炸性的增长,传统统计方法很难有效地挖掘数据中蕴藏的信息,传统方法与新方法相比往往会相形见绌。美国互联网金融公司(ZestFinance)利用数以千计的变量建立起大规模决策树,而传统的方法很难处理如此多的变量。同时,在模型应用层面,传统方法其模型有效期可能是2年甚至更长,在信贷产品政策随着市场环境不断变化的业务场景下,模型明显无法及时有效地在整个信贷决策中进行应用。这也是信用模型很难进行大规模应用的困扰之一。目前,随着数据挖掘及机器学习技术的成熟应用,很多新的方法也应用到信用风险模型的开发之中。我们重点介绍几种新方法在整个信用风险决策中的应用方法。


(一)特征变量构造


特征变量指观测到的与借款人信用质量的一些相关性高的变量,我们可以根据借款人的特征变量构造出一个得分来衡量其信用风险水平,并将他们归入不同等级。特征变量应对借款人的信用风险水平有较强的区分能力,如果按照连续型变量将账户分为多组,要分析其好坏优势比是否呈现单调性及不同取值区间中是否有明显差异,以上两个条件满足时,则认为变量满足特征变量的要求。而对于分类型变量,好坏优势比不需要满足单调性,但值的高低对比应该比较合理,如下图所示就是较好的分类型特征变量。RFM模型就是典型的特征变量法,RRecency)表示客户最近一次借款的时间,FFrequency)表示客户使用信用的频率,而MMonetory)表示客户最近一段时间内借款的金额。特征变量权重的选择可以使用层次分析法,也可以结合专家意见来确定。
(二)用户细分技术


用户细分技术是一种基础性的分析工具,用于细分的变量包括人口统计学变量,如年龄、性别、收入、职位、受教育程度等,也可以选择客户行为变量,如RFM模型。目前,用户细分技术中也加入了一些统计及数据挖掘算法,如聚类算法、决策树及关联规则挖掘,这些算法可以更充分地利用客户信息。细分分析中主要考虑的因素包括细分人群的风险特征有明显差异,每个细分有足够的坏样本,细分人群具有稳定性,每个细分上有充足的候选变量可以建模,细分后对模型的整体分辨能力有所提高以及其他业务考量。


(三)新的模型算法


1. 枚举(Boosting)算法


在实际中,构造一个高精度的估计比较困难,而产生多个粗糙估计却相对容易很多,而枚举算法的基本思想就是使用多个粗糙估计去构造出一个高精度的估计。这种思想起源于莱斯利瓦利安特(Leslie Valiant)提出的PACProbably Approximately Correct——学习模型。他和科恩斯(Kearns)定义了弱学习和强学习,略优于随机猜测(即准确率略高于1/2)的学习算法称为弱学习算法;而识别准确率很高并能在多项式时间内完成的学习算法称为强学习算法。瓦利安特和科恩斯提出了如果能够找到将弱学习方法提升为强学习方法的途径,那么就无需寻找更高效的强学习方法。基于这种想法,学者们先后开发出枚举算法和改进之后的适应性枚举(Adaptive Boosting, AdaBoost)、适应性枚举M1AdaBoost.M1)、适应性枚举M2AdaBoost.M2)等。


枚举算法是一种框架算法,通过对样本集的操作得到一系列样本子集,然后用弱学习算法在样本子集上训练得到基分类器,然后将这些基分类器放到枚举框架下,将他们进行加权融合,产生一个最后的结果分类器。这个过程中,产生的单个基分类器或许不具备很高的精度,但联合后却具有很高的识别率。另外,每次产生的基分类器既可以基于同一种算法,也可以基于不同的算法。


2.随机森林(Random Forest


随机森林算法由多个决策树组成,将它们综合利用进行分类。因为随机森林中决策树的产生采用了随机方法,因此也叫做随机决策树。


随机森林的构造过程如下:第一,假设有n个样本,从其中有放回地生成n个样本,用这些样本训练一个决策树;第二,当每个样本有M个特征时,在决策树的每个节点需要分裂,可以从全部特征中随机选择其中的m个特征(m远小于M)来考虑作为分裂变量,选择的策略可以是信息增益、Gini系数等,按照这种方法分裂每个节点至无法再分裂围着,需要注意这个过程中并没有进行剪枝;第三,按照以上两个步骤,可以生成大量决策树,这样就可以构成随机森林。


随机森林所需的人为控制的参数很少,只有森林中决策树的数量,另一个是选取的特征数m。由于随机森林中每棵树的训练样本及特征都是随机选择的,有了随机性的保证就可以避免过拟合的现象。


三、信用评分的数据


在数据方面,信用评分跳出了传统的借款者贷款信息。银行卡与信用卡交易数据,水电通讯缴费信息乃至消费者网上行为数据等都已被广泛用于信用评分建模。


在美国,征信数据主要有两个来源:一为消费者的信贷交易数据,既包括消费者向信贷机构提出信用贷款申请时收集的数据,也包括信贷机构主动要求征信机构对消费者的信息进行分析检查;二为公共记录数据,是由政府机构掌握,且对公众开放的政府数据或记录,包括公安、法院、人事、工商、税务等许多政府或准政府机构的记录。公共记录数据在国外的定义清晰,管理严格,但在国内还是空白。


随着大数据技术的发展,对于消费者网上行为数据的收集和分析都变得极为方便。美国互联网金融公司(ZestFinance)在大数据浪潮的背景下成为了信用评分领域的弄潮儿。该公司由谷歌前首席信息官道格斯梅尔创立,旨在为被迫使用高费用发薪日贷款(payday loan)的消费者提供更实惠的选择。在该网站上,用户可以选择借款金额和期限,网站上就会清楚地给出每周需要偿还的金额,方便消费者据此做出调整。该公司的模型具体分为大概四到五步。第一步是去挖掘数以千计的不同的变量;第二步会寻找这些变量之间的一些关联性。接着,在关联性的基础上将这些变量重新绑定成一些比较大的变量,然后将这些大的变量放入不同的分立的数据模型来进行处理。每一个分立的数据模型给出一个分立的结论,再把这些分立的结论绑定,最终整合成一个自有的信用分数。所以这个信用分数是基于大量的海量数据、大量的社交网络的数据、大量的非结构化数据的一个处理。一方面它依赖结构化的数据,但是另一方面它导入了大量的非结构化的数据。可以说,它利用谷歌式的思维对信用评分的传统数据和方法进行了颠覆性的改变。

来源:《中国征信》杂志

关联链接

mqu.cn site.nuo.cn