耶耶耶耶耶 发表于 2024-9-12 04:33:09

AIGC重塑金融:AI大模型驱动的金融厘革与实践,2024年最新阿内里试二面

自我介绍一下,小编13年上海交大结业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数HarmonyOS鸿蒙开发工程师,想要提升技能,每每是本身探索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。本身不成体系的自学结果低效又漫长,而且极易碰到天花板技术故步自封!
因此收集整理了一份《2024年HarmonyOS鸿蒙开发全套学习资料》,初志也很简单,就是希望能够资助到想自学提升又不知道该从何学起的朋侪,同时减轻大家的负担。
https://i-blog.csdnimg.cn/blog_migrate/a28cf6f40cced8535d5d1d31d327d934.png
https://i-blog.csdnimg.cn/blog_migrate/1e210328c1ebf43f08d3b6c5f5c13b48.png
https://i-blog.csdnimg.cn/blog_migrate/4dcd3fbc66701bfc23e5fb0d04378460.png
https://i-blog.csdnimg.cn/blog_migrate/76df912b538d6c0f1f609a383a9b551a.png
https://i-blog.csdnimg.cn/blog_migrate/81456688082fd6f0b33ac90392add869.png
既有得当小白学习的零基础资料,也有得当3年以上履历的小同伴深入学习提升的进阶课程,基本涵盖了95%以上HarmonyOS鸿蒙开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点内里都包含大厂面经、学习条记、源码课本、实战项目、讲解视频,并且会一连更新
如果你觉得这些内容对你有资助,可以添加VX:vip204888 (备注鸿蒙获取)
https://i-blog.csdnimg.cn/blog_migrate/f665294b1bc680ceb9a13d964761cd42.png
一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感爱好的新人,都接待扫码到场我们的的圈子(技术交换、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
   第三,数据私见和倾向性。大模型的训练数据大概存在性别、种族等方面的私见。如果这些私见被应用到金融决策中,大概导致模型在决策和预测中产生不公平或歧视性的结果,进而误导用户,致使用户做堕落误的决策。
    第四,可信度与伦理问题。ChatGPT 等生成式大模型以问答形态存在于社会层面,但其复兴每每存在不可信或者无法判定其正确性的问题,有时看似答复流通,但却在一本正经地胡说八道,有时甚至会对现有社会伦理产生冲击。具体而言,存在传播有害意识形态、传播私见和仇恨、影响政治正确、粉碎教诲公平、影响国际社会公平、加剧呆板取代人类的进程、形成信息茧 房拦阻正确价值观形成等问题。
    第五,组织本领的挑战。金融行业可以通过应用大模型来替代人力去执行机械的重复性工作。但是,金融机构面临如何厘清人和呆板之间的协同互助关系的问题:一方面,如何更好地为人赋能,提升人使用 AI 工具的本领;另一方面,如何不停调解和优化人与数字员工的职能边界。
2. 大模型期间的 AI 风险

应对大模型技术的风险和挑战,引导科技健康有序发展,需要当局、平台、学术界、行业和公众共同努力。通过美满法规、促进跨学科互助、提高透明度和加强隐私掩护、加强道德评估和促进公众到场等,推动人工智能健康发展。而金融机构更要注意风险管理的前瞻性,加强内外部环境剧烈变化 下的风险管理。


[*]一是全面加强数据隐私和安全管理,如采取加密、脱敏等技术本领,严 防客户和机构敏感信息泄漏。在数据收集过程中利用差分隐私等技术举行隐 私掩护;对于训练数据举行数据加密;在模型训练过程中使用安全多方盘算、 同态加密及联邦学习等技术举行数据隐私和安全掩护;创建数据隐私评估和 掩护模型、机制,实验安全认证,并且掩护下游应用的隐私;严格遵守《中 华人民共和国个人信息掩护法》等干系法律法规,落实数据安全掩护责任。
[*]二是加强模型的安全性,包括举行对抗样本检测和提升模型的鲁棒性,以应对大概的攻击和诓骗行为;让不同的模型适用于不同国家的法律条款,以及针对各种对抗攻击举行防御性训练。对于对用于大语言模型开发的数据 举行人工标注的,开发主体应当制定清晰、具体、可操作的标注规则,对标注人员举行必要的培训,抽样核验标注内容的正确性。保障和规范 AI 的训练过程,及时发现问题,及时止损并调解模型参数。避免因源数据本身存在争议、泉源不可信或素材违法或侵权,而生成虚伪、歧视或不公平的结果。
[*]三是创建监测和评估机制,定期评估大模型体系的性能、准确性和公平性,并及时发现与解决潜伏的风险和问题。
[*]四是提高算法的可表明性和透明度,使用可视化技术和交互式界面来展示算法的决策过程。创建审查和评估机制来消除算法黑盒问题,促进负责任的 AI 的开发、部署和应用,提高生成式 AI 的安全性、可表明性和可问责性,以更好地防备风险。
大模型已来,要在不确定性中寻找确定性。正如加州大学伯克利分校教授 Jacob Steinhardt 所言:“呆板学习的步伐太快了,模型的本领提升每每比预期更快,但其安全属性的希望却比预期要慢,我们需要从现在开始构建未来十年的呆板学习体系的发展图景,防范大模型期间的 AI 风险。同时,我们要认真思考 AI 与人类的关系,以实现人机互助和共生发展,而不是简单地用 AI 取代人类。”
03 AIGC 技术的科林格里奇逆境

当我们惊奇于呆板人越来越“聪明”之时,也不可忽视人工智能给人类社会带来的道德危机和合规风险。英国技术哲学家大卫·科林格里奇在《技 术的社会控制》(1980)一书中指出:一项技术如果因为担心不良后果而过早 实验控制,那么该技术很大概就难以爆发;反之,如果控制过晚,已经成为整个经济和社会布局的一部分,就大概走向失控,再来解决不良问题就会变得昂贵、困难和耗时间,甚至难以或不能改变。这种技术控制的两难逆境就是所谓的科林格里奇逆境(Collingridge’s Dilemma)。{资料泉源:方兴东,顾烨烨 . ChatGPT 的管理挑战与对策研究—智能传播的“科林格里奇逆境”与 突破路径 . 传媒观察,2023(3):25-35.}
以 ChatGPT 为代表的 AIGC 技术的管理问题,就是一个我们本日迫切需要解决的科林格里奇逆境。ChatGPT 横空出世,旋即让生成式 AI 的应用规则制定和监管问题成为环球关注的焦点。美国联邦商业委员会(FTC)主席称, 生成式 AI 将是“高度粉碎性的”,FTC 将在该领域举行严格执法。在数据隐私合规领域,意大利数据掩护监管机构(GPDP)打响了国别监管的“第一 枪”—GPDP 于 2023 年 3 月 31 日宣布全面禁用 ChatGPT,并禁止 OpenAI 处理惩罚意大利用户数据。
监管的连锁反应正在环球范围内发酵。2023 年以来,多国数据掩护监管 机构宣布对 ChatGPT 开展观察。4 月 3 日,德国表示也在考虑禁用 ChatGPT。法国、爱尔兰也纷纷采取措施,包括但不限于与意大利研讨执法干系事项, 西班牙则要求欧盟数据掩护委员会(EDPB)评估 ChatGPT 隐私干系问题。4 月 4 日,韩国个人信息掩护委员会委员长表示正在观察 ChatGPT 的韩国用户 数据泄漏情况。同日,加拿大宣布就数据安全问题观察 OpenAI。4 月 13 日, EDPB 决定启动 ChatGPT 特设工作组。
4 月 11 日,中国国家互联网信息办公室正式发布《生成式人工智能服务 管理办法(征求意见稿)》,这也是我国初次针对生成式 AI 产业发布规范性政 策。而 7 月,经修订的《生成式人工智能服务管理暂行办法》正式发布,并 于 8 月 15 日正式实验。
与其他新技术一样,AIGC 的发展也陪伴着风险,短时间内就带来了虚伪新闻、数据安全、隐私风险、学术剽窃、算法安全等一系列问题。新机遇,也是新挑战,当旧的管理范式落伍,管理进入深水区后,更加考验监管的张弛之道。把握发展规律和节奏,环球各国需要协同制定相应的监管政策,带领 AIGC 走出科林格里奇逆境。
1. 负责任的 AI:欧美实践与启示

作为环球数字管理制度建设的风向标,欧美正试图在 AI 管理环球规则的 制定上掌握自动权与主导权。比如,美国当局于 2022 年 10 月发布《人工智能 权利法案蓝图:让自动化体系为美国人民服务》,就应对大数据和人工智能技 术对于美国政治生态的负面影响,提出了人工智能技术应当遵循的五大原则:
● 创建安全且有用的体系原则(Safe and Effective Systems);
● 避免大数据算法歧视原则(Algorithmic Discrimination Protections);
● 掩护数据隐私原则(Data Privacy);
● 通知息争释原则(Notice and Explanation);
● 保留人工评估和选择原则(Human Alternatives, Consideration and Fallback)。
美国更加侧重于利用人工智能体系的发展在环球经济中保持竞争地 位,并满足国家安全需求。2023 年 5 月 16 日,OpenAI 首创人兼 CEO Sam Altman 出席了美国国会召开的主题为“AI 监管:人工智能的规则”的听证会。他在听证会上提出了一个包含 3 个要点的计划:
1)成立一个新的当局机构,负责审批大型 AI 模型,并对不符合当局标 准的公司举行处理惩罚,包括吊销它们的 AI“执照”。
2)为 AI 模型创建一套安全尺度,用于评估其风险。AI 大模型必须通过 某些安全测试,例如它们是否能够“自我复制”或是“出逃(摆脱人类控制)”。
3)要求独立专家对模型在各个指标上的表现举行独立审核。
面对 AIGC 对现有监管体系的巨大冲击,欧洲在监管思路上与美国有鲜明的差异。欧盟在数据掩护和隐私上较为保守,计划更新即将出台的全面人工智能法规—《人工智能法案》,对生成式 AI 生成图像和文本的智能模型制定限定性规则。同时,欧洲数据掩护委员会(EDPB)发出质疑,称 ChatGPT 作为商业产品,利用网络信息自我迭代,应不属于公道使用范畴, 且采用用户个人数据到场模型训练,不符合欧盟颁布的《通用数据掩护条例 (GDPR)》。
保守的监管模式固然有用地解决了信息泄漏的问题,但也在很大程度上限定了 ChatGPT 的发展;“鼓励型监管”有利于 AI 技术的进一步研发,但是很大概存在监管力度小、结果不尽如人意的问题。由此可看出,生成式 AI 的监管困难并不在于“监管”,而在于如何让 AI 在有用监管下依然能迸发出创新活力。
2. 中国的规则与管理策略思考

技术的进步每每是一把双刃剑,我们在看到 AIGC 对社会生产力带来的 巨大推动之外,也需未雨绸缪,充分关注其对社会的多元影响。通用大模型 存在鲁棒性不敷、可表明性低、算法私见等技术风险,以及大概存在数据滥 用、侵犯个人隐私、私见歧视、寡头把持、监管失能等方面的经济、社会、 政治风险。中共中央政治局集会指出:“要器重通用人工智能发展,营造创新 生态,器重防范风险。”AIGC 环球管理秩序、规则与规范的建设还远远滞后, 因此,亟须从人工智能体系生命周期管理的角度,制定加强隐私掩护、信息 安全、可追溯和可问责的环球管理方案。{资料泉源:《AIGC 冲击下的国际技术政治厘革》,叶淑兰,中国社会科学网。}
(1)鼓励创新发展,构建规范管理体系
在中国,2023 年 7 月 13 日中央 7 部委联合发布《生成式人工智能服务管理暂行办法》(简称《办法》),这是环球首部 AIGC 领域的监管法规。除了这部专门的监管法规外,我国在科技发展、网络安全、个人信息掩护、互联网信息等多个方面已发布多项法律、行政法规等规范性文件,包括《中华人民共和国个人信息掩护法》《中华人民共和国数据安全法》《互联网信息服务算法保举管理规定》《新一代人工智能伦理规范》,构成了人工智能领域多层级、多角度的规范管理体系。
《办法》统筹了生成式人工智能的发展与安全问题,为我国 AIGC 产业发展提供重要遵循。首先,与 2023 年 4 月发布的征求意见稿相比,《办法》有较大的思路调解,明确了提供和使用生成式人工智能服务的总体要求,内容涵盖技术发展与管理、服务规范、监督检查和法律责任等方面。
其次,《办法》与现有规范一脉相承,一连了此前的监管本领,提出国家坚持发展和安全并重、促进创新和依法管理相结合的原则,采取有用措施鼓励生成式人工智能创新发展,对生成式人工智能服务实验包容审慎和分类分级监管,反映了国家对生成式人工智能更加包容的心态和鼓励发展的态度。
(2)有序开放数据,促进算力资源协同共享
人工智能需要 GPU 算力、网络及存储等硬件基础设施的全方位支持。《办法》指出,鼓励生成式 AI 算法、框架、芯片及配套软件平台等基础技术的自主创新,鼓励平等互利开展国际交换与互助,到场生成式 AI 干系国际规则制定。
“大模型期间,得数据者得天下。”大模型训练对于训练数据的数量、质量、布局都有着非常高的要求,而目前产业界在举行模型训练时面临高质量训练数据资源稀缺的问题。训练数据成为影响大模型性能的重要因素之一。《办法》提出:“促进算力资源协同共享,提升算力资源利用效能。推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。”
目前,北京、深圳等地已出台不少关于公共数据开放利用的条例,这对于利用公共数据投喂人工智能、发挥数据红利迈出了重要的探索步伐。不过,公共数据的开放范围、质量仍然存在较多阻力,未来需推动有序开放,亟待分类分级,探索更加契合公共数据价值利用的规律和规则。科技企业应重点关注《办法》中的内容审核任务、训练数据合规处理惩罚任务、对用户的掩护及监督任务、存案任务。
(3)明确责任和任务,平衡创新与安全
生成式人工智能在社会厘革中具有重要作用,但它大概存在的数据违法 收集、知识产权侵权、生成虚伪信息等问题同样不容忽视。《办法》积极回应生成式人工智能带来的社会问题,明确提供和使用生成式人工智能服务的法律底线。它将生成式人工智能服务提供者明确纳入了网络平台责任的规制范围内。要求不得生成违法内容、防止歧视、尊重知识产权和他人合法权益、 提高生成内容的准确性和可靠性。明确提供者的任务与责任、界定不同环节的要求更有利于低落生成式人工智能的安全风险,提高制度的可落地性。
生成式人工智能的监管是一个复杂的环球性问题,需要监管机构和企业共同努力,制定出更加科学、公道、可行的监管政策和规范。预计未来,中国生成式人工智能有望形成敏捷美满的监管模式,促进 AIGC 可一连创新发展。


[*]1)创建健全敏捷监管机制。监管机构大概会出台更多的法规和规范,强调在对 AI 应用举行分级分类的基础上,不停创新监管工具箱,采取分散式、差异化监管,对 AIGC 的研发和应用举行动态敏捷监管,不停平衡创新和安全之间的关系。
[*]2)企业将更加注意自我监管和合规意识。企业将更加器重 AIGC 的伦理和安全问题,制定具体的规章制度,对 AIGC 算法的设计、开发、测试、应用等环节举行全面监管,确保其符合干系法律法规和道德尺度。同时,企业将更加注意员工的教诲和培训,以资助员工加强合规意识和提高技能水平, 准确明白并遵守干系规定。
[*]3)形成多方到场的协同管理机制。在 AIGC 管理方面,当局、企业、学术界、社会组织及公众将更加积极地到场,创建多方到场的协同管理机制,制定更具共识的规则和准则,共同推动 AIGC 技术的发展和应用。
[*]4)创建 AI 伦理风险管理机制。组建伦理委员会,构建 AI 伦理风险管理机制,包括设立伦理委员会、制定清晰的伦理准则和政策,并确保其在技术的各个阶段(预设计、设计开发、部署以及测试和评估)贯穿始终,以应对潜伏的伦理风险,打造可信的 AIGC 应用生态。
04 金融机构使用 AIGC 技术的 4 条大概路径

金融行业具有信息、数据、知识麋集型的特性,使 AIGC 自然可以在很多方面提升金融服务的效率。ChatGPT 强盛的自然语言处理惩罚和生成本领,为金融行业带来了更高效、更准确的信息处理惩罚和决策分析本领,同时为金融机构提供了更好的客户服务和风险管理本领,它在金融领域有着广泛的应用潜力,包括客户服务和支持、财政咨询、诓骗检测和风险管理、自动化交易和投资以及信用评估和贷款审批。
1. 环球金融机构踊跃试水 AIGC

ChatGPT 的大火,让金融行业开始重新审视 AIGC 的价值所在。“当我们思考亲情时,却发现它是一种超越生物学的‘利他’行为。”这句颇具哲思的话来自招商银行信用卡公众号利用 ChatGPT 撰写的营销文章,引发了金融机 构对 AIGC 的踊跃试水。{ 资料泉源:招商银行武汉分行,《 ChatGPT 首秀金融界,招行亲情信用卡诠释“人生逆旅, 亲情无价”》。}
AI 已赋能外洋金融机构的前中后台,为 AIGC 应用升级筑基。前台业务中,AIGC 已被外洋金融机构应用于智能营销、智能客服、智能投顾等领域,摩根大通、摩根士丹利、美国支付巨头 Stripe、高盛等都已纷纷入局 AIGC ;中后台业务中,当前外洋金融机构主要基于自身主营业务需要布局 AI 应用。AIGC 一方面有望强化现有的 AI 应用,另一方面有望提升公司的策划效率。此外,金融机构或也有望发挥专业细分领域的上风打造金融类语言模型。
自 2023 年 2 月以来,江苏银行、招商银行信用卡中心等机构陆续披露AIGC 在业务中的具体运用。此外,百信银行、中国邮储银行、泰康保险、广发证券、鹏华基金等机构也宣布接入号称中国版 ChatGPT 的百度“文心一言”。一些机构声称本身将集成“文心一言”的技术本领,推进智能对话技术 在金融场景的应用。
2. 金融机构使用AIGC 大模型的难点

固然机构对新技术普遍秉持积极态度,但在合规压力巨大的金融行业,是否能完全复制 AIGC 应用在其他领域的效能,还有待商榷和验证。
首先,从组建 AIGC 模型到实际应用,大致需要以下几个步骤:数据采集和洗濯、模型训练、模型测试和评估、部署和应用。目前,大模型并不完善,需要不停迭代和优化,才能取得更好的结果。相比较而言,金融领域的 AIGC 应用大概会更加复杂,对数据质量的要求更高,对数据的安全性和合规性等要求更为严格,令不少机构望而却步。
大模型技术研发训练本钱仍较高,包括算力消耗、模型训练、训练语料与数据标注等,都是制约银行试水的因素。训练通用大模型是“烧钱”的游戏,从零开始训练一个大模型,所需的本钱和时间是大多数企业无法蒙受的。以 ChatGPT 为例,大模型训练一次的本钱为 200 万~1 200 万美元。AIGC 大模型研发需要深厚的人工智能技术沉淀、海量训练数据、一连优化的算法模型与美满的生态体系等,且这项新技术从研发到商业化应用,需较长的时间与高额的资金投入。目前的大模型输出结果仍不够可靠,存在事实性错误, 距离“可使用”还有肯定差距。
3. 金融机构使用 AIGC 技术的 4 条大概路径

技术的发展通常是波浪式进步、螺旋式上升的,面临问题和挑战总是不可避免的。但是,AIGC 技术已是期间局势,大模型将对金融行业的智能化水平和数字化程度产生深刻影响。身处期间洪流,金融机构已大致勾勒出使用 AIGC 技术的 4 条大概路径,如下图所示。
https://i-blog.csdnimg.cn/blog_migrate/090d681eb026407d4bcbabea976f8bd8.png
图 :金融机构使用 AIGC 技术的 4 条大概路径
其一,基于大模型的通用本领,叠加金融客服领域的数据和专业服务履历举行模型预训练。通过模型压缩、小样本训练等方式进一步低落应用本钱。对于大多数金融机构而言,自建大模型并不现实。调用通用大模型叠加金融客服领域的数据,可以使模型更加符合金融行业的特点和要求,提高模型在金融领域的适应性和准确性。在数据合规层面,充分器重数据质量问题,从数字化改造的源头举行尺度化建设,对数据举行洗濯和筛选,设置严格的评估指标和方法。部署模式以专用、自主可控的私有化部署,满足数据保密性和数据所有权的要求。
例如,经过垂直领域定向训练后,客服呆板人既能与用户举行多轮对话,让运营智能客服更简单,又能提出具体可行的解决方案,提升复杂问题解决率、人机交互感知和意图明白程度,完成流程自主构建、知识生成等。
其二,在降本增效、场景厘革和产品升级维度举行。AIGC 应用场景与产品类型不停丰富,率先从智能客服、智能营销场景切入,渐渐拓展应用范围。比如在优化内容生产创意与效率层面,传统获客以互联网营销模式为主,结合 AIGC 技术在自动化生成营销物料的同时,实现千人千面的个性化营销。可探索在投研、研发编程、授信审核及流程管理等方面提高效率,镌汰基础人员投入。在通用基础本领中引入高级认知本领,整合碎片知识与多样化需求,形成创新的产品化模型与业务解决方案。
其三,数字人买通线上、线下服务场景。虚拟员工和真人员工相辅相成,数字人或将成为银行服务用户的新形态,革新传统银行的人机交互模式。在 AIGC 技术的驱动下,通过构建更有趣的 3D 数字空间、打造线上与线下更好玩的内容互动社区、营造更温暖的金融体验,为用户提供全新的沉浸式数字金融服务。
其四,订阅式付费定制模型。类似 SaaS 付费模式,金融机构选择采购软 件 / 解决方案,按照服务调用次数付费,按照内容生成数量付费。大模型服务提供商按需定制大模型本领,金融机构按需支付相应的服务费。金融机构的本钱压力将大幅减轻,支出和收入的比例将得到更好的控制和匹配。
未来,哪些金融机构大概会在 AIGC 的浪潮中胜出?总的来说,拥有数据储备上风的金融机构,或者能构建差异化 AIGC 服务本领、流量场景丰富、已创建较为美满的 IT 体系和 AI 生态、叠加科技和金融专长的机构平台有望脱颖而出。

延伸阅读
https://i-blog.csdnimg.cn/blog_migrate/127ea7c8b0ea951864a4ad4a6d6657e5.png
《AIGC重塑金融:AI大模型驱动的金融厘革与实践》 林建明 著 阿里达摩院院长张建锋作序保举 萨摩耶云科技集团董事长林建明撰写 金融业大模型实践指南 为金融业实现数字化和智能化加速 限时5折中
页: [1]
查看完整版本: AIGC重塑金融:AI大模型驱动的金融厘革与实践,2024年最新阿内里试二面