7月19日,美国Meta(原Facebook)公司发布了最新的人工智能(AI)大型语言模型Llama 2系列,包括70亿、130亿和700亿三种参数版本,模型信息和原始代码全部开源,并支持免费可商用,而且还包含针对会话聊天场景微调的Llama 2-Chat模型版本。相较于今年2月发布的Llama 1,这次推出的Llama 2训练所用的语言符号量翻了一倍至2万亿。Meta表示,在包括推理、编码、精通性和知识测试等多个外部基准评分测评中,Llama 2表现优于所有开源的Chat模型。同时,Meta还宣布与微软、高通公司合作,Llama 2将部署在微软云服务Azure上,将能在高通芯片上运行,打破市场上英伟达、AMD处理器对AI算力市场的垄断。
进步迅速
Llama 2的推出,堪称人工智能大模型格局再次发生巨变。早在2022年11月,美国初创公司OpenAI推出了基于GPT-3.5的通用聊天机器人ChatGPT,将生成式AI技术直接推向了公众的视野中,掀起了全球对生成式AI的讨论热潮。这款运用人工智能驱动的高级自然语言处理工具仅上线5天,用户数就突破100万,两个月后,月活跃用户数突破了1亿,成为有史以来用户数增长最快的消费级应用。今年3月15日,OpenAI又发布了多模态预训练大模型GPT-4,它使用了全新架构Prometheus,这是一个分布式、并行、异步、自适应的系统,可以在多个设备上同时运行多个模型,并且能够动态地调整资源分配和计算优先级。GPT-4比以往任何语言模型都更加强大和智能,可以说,之前的热度还来不及冷却,就被人工智能的迭代升级速度追上了,市场普遍认为生成式AI将开启人工智能的新纪元,并且给诸多行业带来无限可能。但这些大型语言模型一直没有开源,因此Llama 2可以免费开源商用立刻引起了市场的广泛关注,因为这意味着很多行业可以在此基础上构建自己的智能生态,而无须为底层的大型语言模型付费。
生成式AI指一种可以学习复杂数据结构和规律,并用这些规律来生成新数据或解决问题的算法,它是具有创造新内容和解决问题的AI技术,如生成对抗网络(GANs)或强化学习算法,与传统机器学习算法相比,生成式AI有更强大的创造能力。虽然AI早在20世纪五六十年代就已经出现,但最近的进步确实提高了这项技术的能力,这可能会对很多行业的经营规则产生影响,保险业也不能免受其潜在的变革影响。事实上,近年来保险行业已经在很多环节探索了AI的应用,包括客户服务、风险评估、欺诈检测等。生成式AI对保险业的潜在影响是深远的。若充分利用其优势特点,可以为保险公司在产品设计、营销、运营和客服等多个领域提供深度技术赋能,其与行业的深度融合并不是单一由自动化的方式替代人力,而是将可能在保险业的底层经营逻辑中产生突破性进展。同时,人工智能的应用也将使保险业面临很多从未有过的挑战,保险公司必须在人工智能的潜力与数据准确性、道德和人类专业知识之间寻找平衡点。
促进行业深耕
无论是从满足保险的理论基础,即大数定律的角度,还是从扩大市场覆盖率的角度,建立良好口碑、吸引更多客户都是重要的,这就涉及两个和客户有沟通的环节,营销和理赔。
在营销环节,无论是个险,还是银保以及互联网保险,传统模式下,潜在客户接触到的信息都较为单一。一方面,由于代理人和银行柜员很难在短时间内了解不同客户之间的差异,在面对不同潜在客户时往往都是采用千篇一律的话术,互联网保险也只有为数不多的固定选项;另一方面,当前大多数保险产品大都比较固定,即便消费者提出自己的需求,代理人能够搭配出适当产品组合的空间也较为有限,而且也存在因代理人水平不一而对客户需求匹配不到位的情况。因此,很多时候并不是消费者缺乏保险需求,而是其保险需求并未得到适当的解读,因而也就无法得到激发,仅仅简单由性别、年龄等客观条件给出产品推荐,远远达不到与需求匹配的程度。生成式AI真正独特的地方是,它们是经过预先训练的,这意味着它们有较高的专业能力对服务对象产生即时回应,而不需要大量的开发工作。利用生成式AI技术,保险公司可以构建智能化保险产品推荐机器人,通过自然语言交互,分析客户的需求、偏好、风险承受能力等信息,从而理解个人需求特征,创建更精细和个性化的保险产品,生成个性化的、满足客户需求的保险方案。
在理赔环节,通过机器学习和数据分析技术,接入了生成式AI的系统可以根据保险条款、索赔信息和历史数据等因素,自动计算理赔金额,从而提高理赔效率和准确性。当处理复杂的理赔时,生成式AI还能基于深度学习模型生成更高效的理赔流程,或者根据高级策略生成新的解决争议和问题的方式,减轻人工的工作负担并提升客户满意度。
降低道德风险
保险业中的道德风险是一个重要概念,它指的是投保人购买保险后,由于风险已经转移的原因,可能会改变其行为,以增加保险公司赔偿的可能性或金额。这种情况通常是由于保单持有者对风险的担心减少,以及对可能获得的保险赔偿的期待。例如,健康保险可能会导致保险持有人更加倾向于采取不必要的医疗服务,因为他们知道保险公司会为这部分费用进行赔付。又如,汽车保险的存在可能会使人们在驾车过程中没有那么小心翼翼,因为他们知道,即使发生意外,损失可以由保险公司来承担。这种情况会带来两方面的问题。一方面,这可能增加保险公司的风险负担和赔偿数量,超出之前的精算预期;另一方面,在某些情况下,保单持有者可能会故意制造风险事故以获取保险赔偿,例如当事故损失本来较小时,放任事故发展使得损失扩大,甚至故意引发事故以获取保险赔偿,这不仅是违法行为,也会对社会经济造成极大的伤害。
欺诈是道德风险的一种典型表现,传统情况下保险公司需要在很大程度上依赖市场情报和专业人士的技能进行判断,需要投入大量时间和资源来检测欺诈行为。生成式AI可以在欺诈检测中发挥重要作用,通过创建近似真实的欺诈案例,可以用于模拟不同种类的欺诈活动,帮助保险公司提前预防和了解可能遭遇的欺诈威胁,从而减少损失。机器学习方法还可以用来解释刚刚报告的索赔类型、应该如何处理以及需要什么水平的专业知识。此外,通过让模型学习大量过往欺诈案例,生成式AI将具有较高的检测能力,如果识别出索赔可能是欺诈性的,将对该案件进行自动标记,以便理赔人员优先对这些案件进行进一步调查。例如,英国Aioi Nissay Dowa保险公司就开发了一个可以不断进化提升的元学习系统,元学习是一种机器学习方法,通过训练模型在多个任务上学习,使其能够更快地适应新任务。这一系统可以检测机会主义和有组织的欺诈。据公司介绍,自从该系统推出以来,欺诈检出率提高了一倍多,提示率从2%提高到18%,同时,理赔人员处理的貌似欺诈但并非欺诈的案件数下降较多,索赔处理成本也有所削减。该系统使得公司可以更快地处理索赔,并更有效地处理真实索赔。索赔处理人员的主动性还得到增强,因为该系统给出的结果更为可信,他们希望自己的欺诈甄别工作也能作为素材来供给模型学习,为模型的不断改进作出贡献。人类和人工智能之间的这种合作,通过帮助降低反欺诈成本,为保险业和消费者带来益处。
助力风险减量 提升风险评估
保险不仅具有损失补偿的功能,还可通过与个体风险密切相关的精算定价,激励保单持有人主动降低风险。这相当于一种间接的风险减量效果,人工智能的应用还有助于直接的风险减量。例如,目前有保险公司为投保的重载货车配备驾驶辅助设备(ADAS)和驾驶员监测设备(DMS),其中,ADAS利用计算机视觉技术,识别车辆前方及周围的道路因素,针对行驶过程中潜在的碰撞危险场景,及时向驾驶员发出预警;DMS可准确识别驾驶员多种疲劳或分神状态,及时发出预警提醒。这些人工智能技术的应用有助于驾驶员提升安全意识、规范驾驶行为。
风险因素的识别与评估是产品定价的关键基础,大型语言模型是自然语言处理中的新算法,是深度学习领域的进步,其令人兴奋的是,它们很“大”,这使其具有巨大的信息存储能力,因此可以做出广泛的预测。保险公司可通过自然语言处理来完善其定价模型,从而能够分析大量数据,并识别那些可能意味着潜在风险的模式。例如,对于健康险这类风险不仅涉及被保险人,还涉及医疗服务的复杂产品,传统精算方法的挑战很大,而生成式AI可以综合分析大量的健康险相关数据,包括历史赔付数据、人口统计和医疗资料等,从中识别出潜在的风险因素,有助于更好地理解不同客户的风险特征,提升风险评估的准确性。
面临的挑战
生成式AI将为保险业的发展提供强大的动力,可以预见,未来这种赋能将改变保险业的许多方面。然而,我们也需要意识到,生成式AI的应用也会面临风险和挑战。例如,AI算法可能存在欠缺公平性和透明性的问题,容易引发数据隐私和道德问题。因此,保险公司在使用生成式AI时,也需要构建及时有效的风险控制机制,包括严谨的数据管理流程、透明的算法审查机制以及健全的伦理标准。
首先,应用生成式AI会带来一定的数据风险。目前帮助保险公司根据其掌握越来越丰富的数据进行处理、分析和决策的关键工具之一是机器学习,保险公司可以通过使用机器学习工具来显著提高效率和生产力。然而,由于生成式AI是经过预先训练的模型,训练工具就需要向其提供数据,这并非易事。一方面,可供使用的数据量不一定能够满足要求,向模型提供商传递敏感数据也会增加信息安全风险。人工智能快速收集和处理大量非结构化数据的能力最大的潜力在于承保,而这也正是保险业对个人数据使用的担忧所在,是政府和监管机构所关注的问题。此前三星公司就曾表示,仅使用ChatGPT半个月左右的时间,就发生了三起信息泄露,并且其中还包括一些核心数据。不过Llama2的发布则有可能凭借免费开源和私有化部署解决这些问题。另一方面,无论是大型语言模型还是任何其他类型的模型,都必须有非常好的数据来训练这些模型,而保险业许多可用的数据都是分类数据和低质量、高噪声的混合数据,包含多个特征子集,这些数据可能不利于模型训练。
其次,生成式AI的输出具有一定的不一致性。当我们向大型语言模型提问时,它们可能会给出不同的回答,因为模型可能在试图达成某种目标时调整了不同节点上的权重,从而得出了不同的答案。另据美国《财富》杂志网站7月20日报道,斯坦福大学的一项研究对比了广受关注的聊天机器人ChatGPT在数月内完成4项“差异化”任务——解数学题、回答敏感问题、编写软件代码、视觉推理时的表现,发现这项技术执行某些任务的能力存在巨大波动——即“漂移”,因为他们观察到其在6月执行某些任务的表现比3月的时候变得更糟。研究人员观察了GPT-4解答数学题的能力,发现在3月时GPT-4能够在97.6%的答题时间里正确识别出数字17077为质数,但是仅仅3个月后,其答题的正确率却骤降至极低的2.4%。与此同时,GPT-3.5的表现轨迹则几乎相反,其在3月时回答同一问题的正确率仅为7.4%,而在6月时的回答大多是正确的,答题正确率达86.8%。当研究人员要求这两个版本编写代码和接受视觉推理测试时(即要求该技术预测某个图案中的下一个形象),出现了类似的差异化结果。因此,当我们在对大型语言模式进行调整,以改善其在某些任务中的表现时,这样做实际上可能会有许多意想不到的后果,它们或许会影响这个模型在处理其他任务时的表现。在人工智能模型如何回答问题方面,存在各式各样耐人寻味的相互依赖,它们可能在一定程度上导致我们所观察到的这些每况愈下的现象。
再次,生成式AI的应用可能会带来一定合规风险。机器学习模型是一种“黑盒”解决方案,其内部工作原理对最终用户来说是不可见的,这使得一些人工智能模型的输出缺乏透明度和可解释性,如果我们过于信任人工智能则可能会事与愿违,数据和算法都可能造成这种情况。生成式AI就像是一种服务,它非常自信、勤勉地解释了一些它实际上不知道的东西,并且看似很有道理,但它只能和他们接受过培训的数据一样好,人工智能如果从被污染的数据池中获取了信息,它就可能被错误的事实和数字影响,正如人工智能可以用于善,也可以用于恶。当前,算法决策替代人工决策已成为趋势,而算法可能存在偏差,破坏保险的公平性。如何确保算法的透明性和公平性,防止算法歧视,是保险业面临的一个挑战。目前大多数人工智能模型尚缺乏“情商”,存在误解客户信息或者输出偏见结论的风险,这可能导致错误的回复,并导致客户投诉增加,从而引发道德、法律和监管挑战,带来合规风险。因此,人工智能的应用不能完全取代人的经验,尤其是在欺诈和索赔方面,任何在人工智能方面的投资都必须有经验丰富的专业人士的支持。
最后,生成式AI带有一定技术伦理争议。前些年,说起“技术伦理的边界”这个话题,人们想到的或许还是基因编辑技术,而这两年,人工智能技术则被推到了风口浪尖。例如,具备一定“独创性”的人工智能生成内容是否属于著作权保护的范围?GPT-4发布时的安全文档就写道:GPT-4表现出一些特别令人担忧的能力,例如制订和实施长期计划的能力,积累权力和资源的现象,以及表现出越来越“代理”的行为。这种“代理”暂时并不意味着自我意识的产生,但它所引发的风险已经足够令人警惕。
总的来说,人工智能革命是无法回避的,这不仅是一次技术革新,更是一次深度的业务和管理变革。在享受生成式AI带来的便利和效率提升的同时,我们也必须认识到其中潜藏的风险,通过科学的风险管理,实现保险业健康可持续发展。
——转载自《中国银行保险报》
刘新立
理学博士,副教授,博士生导师,现任北京大学经济学院风险管理与保险学系副主任,北京大学中国保险与社会保障研究中心副主任。全国风险管理标准化技术委员会委员专家组成员。主持国家社科基金、教育部哲学社会科学基金等项目,参与国家自然科学基金项目等十余项。在Natural Hazards, 《金融研究》《保险研究》等国内外学术刊物发表论文多篇,出版专著六部,译著一部。曾获北京大学第十届人文社会科学研究优秀成果奖。
供稿 | 风险管理与保险学系
美编 | 雨田
责编 | 度量、雨禾、初夏