最新公告:

中华视窗是诚信为本,市场在变,我们的诚信永远不变...

中华视窗

咨询热线

400-123-4657

公司动态

当前位置: 首页 > 新闻动态 > 公司动态

各大互联网公司架构演进之路「包含腾讯、阿里、美团、百度、新浪等知名公司」

添加时间:2024-02-09

/

最近整理了各大互联网公司的架构演进相关介绍,让我们来一起看一看各大互联网公司在成长过程中遇到过哪些问题,又是如何解决问题的。希望对你有帮助!

建议收藏保存,也欢迎点赞并转发哟!

1. 支付宝和蚂蚁花呗的技术架构及实践

一次成功的大促准备不光是针对活动本身对系统和架构做的优化措施,比如:流量控制,缓存策略,依赖管控,性能优化……更是与长时间的技术积累和打磨分不开。下面我将简单介绍支付宝的整体架构,让大家有个初步认识,然后会以本次在大促中大放异彩的“蚂蚁花呗”为例,大致介绍一个新业务是如何从头开始准备大促的。

2. 苏宁安全架构演进及实践

苏宁安全架构是伴随苏宁易购一起成长的,经历了从无到有到逐步完善的过程,期间不管是在技术上还是在管理上,都遇到了非常多的难题,但一旦闭环安全体系完善起来后,安全事件发现、处理效率会得到极大提升。

3. 余额宝技术架构及演进

余额宝开启了划时代的意义,开启了全民理财时代。本文围绕在互联网金融过程中碰到技术架构问题与业界展开分享及交流。

4. 淘宝数据魔方技术架构解析

淘宝网拥有国内最具商业价值的海量数据。截至当前,每天有超过 30 亿的店铺、商品浏览记录,10 亿在线商品数,上千万的成交、收藏和评价数据。如何从这些数据中挖掘出真正的商业价值,进而帮助淘宝、商家进行企业的数据化运营,帮助消费者进行理性的购物决策,是淘宝数据平台与产品部的使命。

为此,我们进行了一系列数据产品的研发,比如为大家所熟知的量子统计、数据魔方和淘宝指数等。尽管从业务层面来讲,数据产品的研发难度并不高;但在 “海量”的限定下,数据产品的计算、存储和检索难度陡然上升。本文将以数据魔方为例,向大家介绍淘宝在海量数据产品技术架构方面的探索。

5. 淘宝技术发展历程和架构经验分享

从 2008 年到现在,淘宝的业务都在以指数级方式高速增长,整个技术平台也在随之高速增长。从一个简单的 BS 结构网站,逐渐走向现在的企业级分布式互联网技术平台,我们走过了 7 年的时间。在这 7 年里,我们碰到过哪些主要的问题?尝试了哪些解决问题的方法?最后出现了哪些产品?这些产品解决了哪些问题?而这些产品的主要设计思路是什么呢?就请大家来听听,一个亲历者的讲述吧~6. 淘宝架构演进背后——零售业务中台架构设计探讨及实践传统零售企业如何应对新经济模式下的IT系统建设?消费形态的升级,购物习惯的改变,服务体验的提升,移动互联的普及,无不影响着IT系统的建设。

本次分享主要内容包括如何应用阿里中台的思路来建设企业自身的IT系统。

7. 阿里游戏高可用架构设计实践

今天演讲的题目是《阿里游戏高可用的架构设计实践》,演讲题目比较长,也很常见,估计大家听了没什么印象,我从整个演讲的内容中提炼出一句话,相信更加容易记住:把运维的锅让研发去背!也就是说,高可用的系统是设计出来的,不是靠运维保障出来的!

今天演讲的内容没有云计算,也没有大数据这些高大上的东西,但是无论是什么业务、什么行业,其实都可以借鉴,也可以比较容易落地实施。8. 阿里 B2B 技术架构演进详解阿里 B2B 事业部 CTO 李纯公开讲解阿里 B2B 的技术演进。李纯通过对传统供应链管理体系、阿里 B2B 的演变、互联网+供应链+大数据 3 个角度展开解析。

9. 阿里如何实现秒级百万 TPS?搜索离线大数据平台架构解读

搜索离线数据处理是一个典型的海量数据批次/实时计算结合的场景,阿里搜索中台团队立足内部技术结合开源大数据存储和计算系统,针对自身业务和技术特点构建了搜索离线平台,提供复杂业务场景下单日批次处理千亿级数据,秒级实时百万 TPS 吞吐的计算能力。

10. 首次公开!菜鸟弹性调度系统的架构设计

菜鸟方舟(ark)是面向菜鸟所有研发的资源管理和运维平台,负责对菜鸟的基础设施资源进行管控,以支撑日常和大促的资源需求。弹性调度是菜鸟方舟的一个重要组成部分,也是方舟的一个重要的功能特性。

通过弹性调度,能够使应用在业务压力上升时及时扩充资源,而在业务压力下降时对资源进行释放,从而实现在保证稳定性的前提下尽可能地提升资源使用效率。在未来引入离线任务进行混部,或者细粒度资源计价方式后,这种模式将会大幅度降低菜鸟整体 IT 成本。今天,我们来细细聊聊菜鸟方舟弹性调度系统背后的技术,希望对你有所启发。

11. 秒杀系统架构分析与实战

伴随着电商的蓬勃发展,抢购和秒杀活动作为营销的重要手段,也对电商系统提出了越来越高的要求。当双十一已经从一个简单的噱头演变为可以让全民熬夜万众秒杀的头条事件时,电商系统所面对的高并发压力绝不亚于春节的微信红包系统。

今天,我们就从实战的角度,对电商的抢购秒杀系统做一次深入彻底的解析。

12. 王者荣耀游戏服务器架构演进(完整版)

游戏服务器端,是一个会长期运行的程序,并且它还要服务于多个不定时,不定点的网络请求。所以这类软件的特点是要非常关注稳定性和性能。这类程序如果需要多个协作来提高承载能力,则还要关注部署和扩容的便利性;同时,还需要考虑如何实现某种程度容灾需求。

本文将以王者荣耀为例讲解游戏服务器架构的演进。

13. 京东峰值系统设计

有别于社交网络、搜索和游戏等网站,电商网站的用户流量具有操作性强、随时令变化等特点。在欧美国家,Black 和 Cyber 标志着节假日消费的高峰。影响电商流量峰值的主要因素是抢购、促销和恶意攻击,尤其是京东 618 店庆和双 11 等大规模的促销活动。高流量、高并发情况下,如何保证整个系统的可靠性和稳定性,是众多电商企业研发团队都在思考的问题。

14. 京东咚咚架构演进

咚咚是什么?咚咚之于京东相当于旺旺之于淘宝,它们都是服务于买家和卖家的沟通。自从京东开始为第三方卖家提供入驻平台服务后,咚咚也就随之诞生了。

本文将讲解咚咚的整个架构演进过程。

15. 京东 B2B 业务架构演变

京东 B2B 业务的定位是让各类型的企业都可以在京东的 B 平台上进行采购、建立采购关系。

本文将讲解京东 B2B 业务的整个架构演进过程。

16. 京东虚拟业务多维订单系统架构设计

京米平台隶属虚拟平台下基础平台组研发的公共基础服务平台,上承复杂非标品商品模型,下接海量个性化订单数据,为虚拟平台内外设计的所有非标准结构商品提供结构个性化定制、发布、促销、虚拟资产支付、结算、退款及订单汇聚、流动、统计、展示等丰富解决方案,大大降低了电商行业非标准商品的业务开发复杂度。

17. 有赞搜索系统的架构演进

有赞搜索平台是一个面向公司内部各项搜索应用以及部分 NoSQL 存储应用的 PaaS 产品,帮助应用合理高效的支持检索和多维过滤功能,有赞搜索平台目前支持了大大小小一百多个检索业务,服务于近百亿数据。

本文从架构上介绍了有赞搜索系统演进产生的背景以及希望解决的问题。

18. 数据蜂巢架构演进之路

各业务系统为使用 mysql 的业务数据,重复开发出多套数据同步工具,一方面难以管理,另外部分工具性能也偏差。需要一个统一为 mysql 数据提供同步服务的平台。该平台需支持离线同步,实时订阅,实时同步三大基本功能。

19. 京东到家库存系统架构设计

目前,京东到家库存系统经历两年多的线上考验与技术迭代,现服务着万级商家十万级店铺的规模,需求的变更与技术演进,我们是如何做到系统的稳定性与高可用呢?20. 一张图看完京东基础架构演进之路前段时间看完了《京东基础架构演进之路》这本书,这本书是京东基础架构部的工程师的智慧和经验的结晶。虽然不到 200页,薄薄的一本书,但却是干货满满,不仅把京东基础架构演进的历史娓娓道来,还讲了技术选型的思路,技术的架构设计思路 。

我用 8 个小时的时间读完了全书,并把整本书的内容(主要是第1~5章)画成了思维导图,对书里的内容做了一些提炼和总结。分享出来, 希望对大家有参考价值。

21. 大促系统全流量压测及稳定性保证——京东交易架构分享

本文介绍京东交易系统如何应对高压的实践。

22. 京东 618 实践:一元抢宝系统的数据库架构优化

本文介绍了京东一元抢宝系统的数据库架构优化方案。

23. 京东上千页面搭建基石——CMS前后端分离演进史

本文介绍了京东 CMS 前后端分离演进史。24. 京东物流系统架构演进中的最佳实践青龙系统发展到今天,已经包含了分拣中心,运输路由,终端,对外拓展,运营支持等五十余个核心子系统,构建了完善的电商物流体系。25. 京东话费充值系统架构演进实践关于系统架构升级资料,网上有很多,各有优缺点,没有不适合的方案,只有不适合的业务场景。本文从实践的角度谈下京东的话费充值系统架构升级的过程,希望能给读者带来一些启发和帮助。

26. 京东到家订单中心 演进历程

本文介绍了京东到家订单中心 从 MySQL 到 演进历程。

27. 新浪微博平台架构

本文介绍了亿级用户下的新浪微博平台架构。28. 微博深度学习平台架构和实践随着人工神经网络算法的成熟、GPU 计算能力的提升,深度学习在众多领域都取得了重大突破。

本文介绍了微博引入深度学习和搭建深度学习平台的经验,特别是机器学习工作流、控制中心、深度学习模型训练集群、模型在线预测服务等核心部分的设计、架构经验。微博深度学习平台极大地提升了深度学习开发效率和业务迭代速度,提高了深度学习模型效果和业务效果。29. 新浪微博用户兴趣建模系统架构本文介绍了新浪微博用户兴趣建模系统架构。30. 新浪微博推荐系统架构的演进微博(Weibo)是一种通过关注机制分享简短实时信息的广播式社交网络平台。微博用户通过关注来订阅内容,在这种场景下,推荐系统可以很好地和订阅分发体系进行融合,相互促进。微博两个核心基础点:一是用户关系构建,二是内容传播,微博推荐一直致力于优化这两点,促进微博发展。31. 新浪微博应对弹性扩容的架构演进在 2016 年,微博完成了利用 构建混合云架构,本文将分享安全、网络、资源管理、调度管理、跨云服务发现等方面的一些实践经验。

32. 微博众筹的架构设计

互联网金融已经影响生活方方面面,我们可以拿着手机,不用银行卡、不用现金来体验新时代的衣食住行。互联网金融现在已经成为互联网巨头争相布局的一个领域,BAT、微博、小米都已经在发力金融。

本文将以微博众筹架构为例来讲讲金融架构的设计。

33. 当当网系统分级与海量信息动态发布实践

当当网自成立以来,内部技术体系的发展已经有 15 年左右的历史了。系统架构也经历了从高度集成的软件向分布式、低耦合、SOA 化系统的演进过程,形成全面支持网上零售业各种业态模式的系统架构,每天支撑着千万级的 PV 访问,承载了超过 100 亿元人民币的年营业额。

34. 架构这十年

2003 年是 元年,成立的目标是连接你个人人脉以获得更好的的工作机会。上线第一周才有 2700 个会员注册,时光飞梭,的产品、会员数量、服务器负载都极大的增长了。

今天, 全球用户已经超过 3.5亿。我们每秒有数十万个页面被访问,移动端流量已占到 50% 以上 ( )。所有这些请求都从后台获取数据,而我们的后台系统可以处理每秒上百万次查询。

问题来了:所有这些是怎么做到的呢?

35. 4 亿用户的 数据产品设计原则和架构实现

动态网络结构图_网络动图制作软件_互联网公司动态图

本文整理自 Sr. 李海鹏于 北京的演讲:《创造数据产品驱动商业价值》。作为现任 资深经理,李海鹏带领团队开发的数据产品,对营收的高速增长做出了巨大的贡献。在这次演讲中,李海鹏分享了 如何从数据中挖掘价值的一些案例。同时也探讨了 是如何把商业、数据和开发相结合,通过数据产品的形式来驱动商业价值的。

36. 从 0 到 100——知乎架构变迁史

也许很多人还不知道,知乎在规模上是仅次于百度贴吧和豆瓣的中文互联网最大的UGC(用户生成内容)社区。知乎创业三年来,从 0 开始,到现在已经有了 100 多台服务器。目前知乎的注册用户超过了 1100 万,每个月有超过8000 万人使用;网站每个月的PV超过 2.2 亿,差不多每秒钟的动态请求超过 2500。

37. 豆瓣的基础架构

豆瓣整个基础架构可以粗略的分为在线和离线两大块。在线的部分和大部分网站类似:前面用 LVS 做 HA,用 Nginx 做反向代理,形成负载均衡的一 层;应用层主要是做运算,将运算结果返回给前面的用户,DAE 平台是这两年建起来的,现在大部分豆瓣的应用基本都跑在 DAE 上面了;应用后面的基础服务也 跟其他网站差不多,MySQL、、Redis、,不一样的是 NoSQL 的选择—— ,这是我们在几年前开源的KV数据库,也是国内比较早开源的KV数据库。

38. 小米网抢购系统开发实践

本文将介绍小米抢购系统的一些实践经验。

39. 小米抢购限流峰值系统「大秒」架构解密

本文主要介绍小米最新版「大秒」系统架构。

40. 海尔电商峰值系统架构设计最佳实践

本文重点介绍了海尔电商平台的架构方案,也用不少篇幅阐述面临的场景和挑战,以及在架构方案决策过程中的关注点。其实作为一个优秀的电商平台,提供极致的用户体验、让技术最大化地创造价值,才是架构的终极目标。

41. 唯品会峰值系统架构演变

在唯品会,用户来得越早,越能买到又便宜又好的东西,所以在大促一开始会涌入大量用户,形成系统流量峰值。唯品会数据平台与应用部门研发工程师姚仁捷在本文总结了唯品会 419 时日志平台遇到的问题和解决方案,同时根据实践经验,整理了在面对峰值前要做的准备。

42. 1 号店电商峰值与流式计算

1 号店结合自己的业务需求,在力求降低成本的前提下,最终采纳 Storm 计算框架来实现自己的分布式流计算平台。本文中详细阐释了这一过程中的最佳技术实践。

43. 蘑菇街电商交易平台服务架构及改造优化历程

本文分享蘑菇街电商交易系统架构。44. 蘑菇街交易平台 数据库架构演进历程本文分享蘑菇街电商交易系统数据库架构。

45. 麦包包峰值架构实践

本文将结合麦包包的履单流程面对流量暴增问题时,需要研究的流程节点分析、执行效率优化、入口隔离和异步化、固定流控和弹性架构等方面进行讨论。

46. 苏宁易购:商品详情系统架构设计

商品详情系统是一个展示商品基本信息、参数等详情的系统,是商品购买的入口。它是电商平台中访问量最大的系统之一,苏宁易购大促期间 PV 量和 UV 量很大,这么大的访问量对系统的并发能力要求高。在业务上它与周边系统的关系是高耦合。依赖商品详情系统的的系统特别多,比如:促销系统、推荐系统、大聚惠、等众多营销系统、还有主数据系统、购物车、收藏夹等,业务复杂度高对系统设计提出更多的要求。

47. 苏宁易购亿万级商品评价系统的架构演进之路和实现细节

苏宁易购评价系统跟随着易购商城的业务发展,经历了从 系统拆分再到系统全面重构的整个历程。如何满足系统流量的日益增长,在提升系统性能和满足稳定性和可扩展性的要求的同时,向目标系统架构一步步平滑靠近,成为系统面临的最大挑战。

48. 携程的技术演进之路

携程在多年的发展中不断进行架构优化,逐步采用分布式架构,解耦业务和架构,提高可扩展性,现在已逐步进化到大量采用开源技术的 Java+.Net (.Net主要是为了兼容历史业务)混合技术栈。

49. 从技术细节看美团的架构

本文给大家介绍美团的技术架构,架构是如何演变的。第二部分讲一讲美团的业务架构,在业务方面如何做一些业务流程的优化。最后第三部分介绍 O2O 技术,如何实现线上和线下都用技术来做优化贯通的。

50. 美团云的网络架构演进之路

作为领先的 O2O 电商云和大数据解决方案提供商,美团云在 2015 年入选了“ 年度技术创新案例”。而今天我们要分享的,则是美团云的网络架构从最初到现在,是如何一路演进而来的,在这个过程中,又产生了有哪些产品和哪些思考。

51. 美团 DB 数据同步到数据仓库的架构与实践

本文主要从 实时采集和离线处理 还原业务数据两个方面,来介绍如何实现 DB 数据准确、高效地进入数仓。

52. 美团即时物流的分布式系统架构设计

本文主要介绍在美团即时物流分布式系统架构逐层演变的进展中,遇到的技术障碍和挑战,还有我们的解决思路。

53. 美团配送系统架构演进实践

美团配送自成立以来,业务经历了多次跨越式的发展。业务的飞速增长,对系统的整体架构和基础设施提出了越来越高的要求,同时也不断驱动着技术团队深刻理解业务、准确定位领域模型、高效支撑系统扩展。

如何在业务高速增长、可用性越来越高的背景下实现系统架构的快速有效升级?如何保证复杂业务下的研发效率与质量?本文将为大家介绍美团配送的一些思考与实践。

54. 美团外卖 平台化架构演进实践

美团外卖自 2013 年创建以来,业务一直高速发展。目前美团外卖日完成订单量已突破 1800 万,成为美团点评最重要的业务之一。美团外卖的用户端入口,从单一的外卖独立 App,拓展为外卖、美团、点评等多个 App入口。美团外卖所承载的业务,也从单一的餐饮业务,发展到餐饮、超市、生鲜、果蔬、药品、鲜花、蛋糕、跑腿等十多个大品类业务。业务的快速发展对客户端架构不断提出新的挑战。

本文将介绍美团外卖 平台化架构演进过程。

55. 途牛订单的服务化演进

本文主要给大家分享下途牛的订单系统服务化演进。

56. 途牛抢票系统架构演进

本文来自中生代技术群的分享,将以途牛订单系统的服务化演进为大家分享系统服务化实战经验。

57. — 电竞大数据系统架构演进

本文将介绍 的架构演进中的设计思路及其涉及的相关技术,包括大数据流处理方案、结构化存储转非结构化存储方案和数据 API 服务设计等。

58. 架构要点分享

目前, 已经使用了大约 5000 个 AWS EC2 实例,其中大约 1500个实例用于部署其应用程序中面向 Web 的部分,其余的 3500 个实例用于各种分析和机器学习算法。而且,随着 的发展,相比于业务处理所需的计算能力,分析和机器学习的计算能力需求增长更快。

59. 一路打怪升级,360 推荐系统架构演进

推荐系统的核心排序算法已经从传统的 LR、GBDT 等模型进化到了 Deep&Wide、、PNN 等若干深度模型和传统模型相结合的阶段。

如何结合各个业务数据的特点,设计合适的深度推荐算法,同时设计合理的架构保证深度学习算法的稳定运行,成为企业在推动基于深度学习的推荐系统落地的难点。

60. 360 数据处理平台的架构演进及优化实践

Titan 2.0 大数据处理平台是 360 大数据中心提供的数据集成平台,基于第三代计算引擎,提供批流合一的数据集成、数据同步,数据计算,数据分析等功能或服务,帮助用户和业务快速构建数据体系。本次要分享的是 360 大数据中心数据处理平台 Titan 的架构演进,以及一些具体的实践过程。

61. 12306 核心模型设计思路和架构设计

本文的重点不是在如何解决高并发的问题,而是希望从业务角度去分析,12306 的理想模型应该是怎么样的。网上目前谈 12306 的文章貌似都是千篇一律的只谈技术,不谈业务分析和如何建模的。所以我想写一下自己的设计和大家交流学习。

62. ACFUN 的视频架构演化实践

AcFun 成立 8 年多来,视频架构发生了巨大的变化。本文将介绍 Acfun 的视频架构演化之路,解密弹幕视频实时叠加技术。

63. 涂鸦科技:支撑从零暴增数十亿数据的背后,竟无专职运维!

分享了涂鸦科技云上架构设计和借助阿里云实现轻运维高可用性监控的实战经验,同时也介绍了网络安全、权限控制等特定场景下如何利用阿里云产品解决特定的问题题。

64. 宜人贷系统架构——高并发下的进化之路

本次分享以宜人贷的系统迭代发展过程为主,着重介绍系统发展过程中遇到的实际问题和解决的办法,并重点介绍宜人贷理财系统的高并发解决方案。

65. 荔枝架构实践与演进历程

简单理解,荔枝 APP 上有很多主播,主播和用户之间可以通过声音互动。目前,荔枝 APP 月均活跃用户达到好几千万,月均活跃主播达到好几百万,全球注册用户和音频节目数量都已过亿。

那么,对于有着大用户量的社交 APP 来说,荔枝 APP 的背后架构该如何设计?一个时间轴可以概括整个架构的演进过程。66. 去哪儿网支付系统架构演进全历程本文将为你详细讲述去哪儿网的支付系统架构演进的全历程,这中间的设计思路是怎样的,踩过怎样的坑,做过哪些可供参考的改进,各种经验分享都在这个实战案例里!67. 饿了么:业务井喷时,订单系统架构这样演进本文主要介绍饿了么订单系统架构演进过程。68. 美图数据统计分析平台架构演进美图拥有十亿级用户,每天有数千万用户在使用美图的各个产品,从而积累了大量的用户数据。随着 App 的不断迭代与用户的快速膨胀,产品、运营、市场等越来越依赖于数据来优化产品功能、跟踪运营效果,分析用户行为等,随之而来的有越来越多的数据统计、分析等需求,那么如何应对和满足不断膨胀的数据统计与分析需求?业务的不断发展又怎么推进架构实现的改造?

本文将介绍大数据业务与技术的碰撞产物之一:美图大数据统计分析平台的架构演进,希望通过这次分享能给大家带来一些解决数据业务与架构方面的思考。 69. 中国民生银行天眼日志平台架构演进的平凡之路随着中国民生银行的 IT 业务系统的迅速发展,主机、设备、系统、应用软件数量不断增多,业务资源访问、操作量不断增加,对于应用整体系统智能分析与处理的要求不断提高, 急需建立包含所有应用、系统、存储、设备的统一的日志集中管理平台。本文分享了中国民生银行大数据基础产品团队如何基于 ELK 技术栈构建自己的天眼日志平台以及平台架构优化、升级和演进的过程。70. 网站的架构演进 在国内是个 404 网站,需要翻墙得见,这是有用的废话,先铺垫一下。

从全球网站来看,它仅次于母公司 ,全球排名位列第2。每天超过 5 亿以上视频播放量,平均每个用户点击 10-15 个视频。

就是这样一个巨大型网站,却只有很少的人在维护网站,保证其可用性和可伸缩性。

是什么原因呢?肯定不是 舍不得花钱建团队,也不能只靠人品,但也不能靠寂寞。

那么到底是什么呢?接下来我们就来了解 的基础技术架构。71. 百度万人协同规模下的代码管理架构演进互联网研发,唯快不破。为了提升公司整体研发效率,百度引入了业界的优秀工程实践,设计开发了一整套研发工具链。主要包括项目管理平台、代码开发协作平台和持续交付平台,分别针对需求、开发和交付场景,提供工具、流程和数据支持。72. 微店大数据开发平台架构演进本文跟大家分享微店大数据平台诞生的背景以及含有的功能特性和架构设计。73. 点融支付系统架构的演进本文将分享点融支付系统架构的演进过程。74. 付钱拉的 API 架构演进付钱拉是一个金融云开放平台,对外提供的不是产品,而是经过互联网化包装的金融服务,所以要求金融系统对一致性和性能都有严苛的要求,再考虑海量数据和高并发等特点,通过结合付钱拉的 API 架构演变历程,总结 API 设计的一些典型方法、普遍规则以及经常遇见的坑。

联系我们

电话:400-123-4657

传真:+86-123-4567

地址:浙江 温州市 温州大道欧江大厦26188号

邮箱:admin@nxdls.net

电话:400-123-4657 传真:+86-123-4567 地址:浙江 温州市 温州大道欧江大厦26188号
版权所有:Copyright © 2002-2024 中华视窗 版权所有 非商用版本 ICP备案编号:粤IP**********    网站地图