您好,欢迎来到吉趣旅游网。
搜索
您的当前位置:首页一种基于大数据技术的数据库审计方法[发明专利]

一种基于大数据技术的数据库审计方法[发明专利]

来源:吉趣旅游网
(19)中华人民共和国国家知识产权局

(12)发明专利申请

(10)申请公布号 CN 111046022 A(43)申请公布日 2020.04.21

(21)申请号 201911228793.1(22)申请日 2019.12.04

(71)申请人 山西云时代技术有限公司

地址 030000 山西省太原市学府园区长治

路345号(72)发明人 石永红 崔伟 

(74)专利代理机构 太原晋科知识产权代理事务

所(特殊普通合伙) 14110

代理人 任林芳(51)Int.Cl.

G06F 16/21(2019.01)G06F 16/215(2019.01)G06F 9/54(2006.01)G06F 11/30(2006.01)

权利要求书1页 说明书7页 附图1页

CN 111046022 A(54)发明名称

一种基于大数据技术的数据库审计方法(57)摘要

本发明涉及一种基于大数据技术的数据库审计方法,包括步骤:数据采集:采用消息队列技术对所有类型的数据库进行统一采集,在保证用户数据隐私性及完整性的前提下,进行海量数据库日志收集;数据预处理:对采集的海量数据库日志数据进行预处理;其中,预处理的方式至少包括归一化和数据清洗;数据分析:对预处理后的海量数据库日志数据按照时效性进行分类,分为周期性实时数据和定期离线数据;并按照数据类型进行统计计算,快速反馈统计结果;数据挖掘:根据对周期性实时数据和定期离线数据的统计结果及数据关联性,进行数据挖掘预测,完成数据库审计。通过本发明,能够解决海量数据场景下的数据库全面审计需求,为数据库审计提供强大的安全工具。

CN 111046022 A

权 利 要 求 书

1/1页

1.一种基于大数据技术的数据库审计方法,其特征在于,包括:数据采集:采用消息队列技术对所有类型的数据库进行统一采集,在保证用户数据隐私性及完整性的前提下,进行海量数据库日志收集;

数据预处理:对采集的海量数据库日志数据进行预处理;其中,预处理的方式至少包括归一化和数据清洗;

数据分析:对预处理后的海量数据库日志数据按照时效性进行分类,分为周期性实时数据和定期离线数据;并按照数据类型进行统计计算,快速反馈统计结果;

数据挖掘:根据对周期性实时数据和定期离线数据的统计结果及数据关联性,进行数据挖掘预测,完成数据库审计。

2.根据权利要求1所述的基于大数据技术的数据库审计方法,其特征在于,数据采集采用的消息队列技术至少包括kafka消息队列技术和RabbitMQ消息队列技术。

3.根据权利要求1所述的基于大数据技术的数据库审计方法,其特征在于,在对海量数据库日志数据进行预处理时,基于大数据的云审计采用基于流式计算的技术架构。

4.根据权利要求3所述的基于大数据技术的数据库审计方法,其特征在于,基于流式计算的技术架构采用Spark数据处理框架。

5.根据权利要求1所述的基于大数据技术的数据库审计方法,其特征在于,在数据分析的步骤中,利用大数据集群并行分布式计算框架,结合复杂事件处理流程进行编制的有向无环图作为实时规则分析引擎,并行运行多种预设规则,检测周期性实时数中是否存在异常事件。

6.根据权利要求1所述的基于大数据技术的数据库审计方法,其特征在于, 在进行数据分析的步骤之前,对待分析的数据库数据进行选取的方式为数据分类机制和优先级预设;其中,通过数据分类机制将数据库数据分类为设备状态数据、监控数据、正常操作数据和非常操作数据,在通过优先级预设设定各类数据库数据处理的优先级,将不同类别的数据按优先级设定的重要程度列入优先级队列中,进行依次处理。

7.根据权利要求1所述的基于大数据技术的数据库审计方法,其特征在于,在进行数据挖掘时,对预处理的数据库日志数据采用分布式全文搜索引擎技术。

2

CN 111046022 A

说 明 书

一种基于大数据技术的数据库审计方法

1/7页

技术领域

[0001]本发明涉及数据审计技术领域,更具体地说,涉及一种基于大数据技术的数据库审计方法。

背景技术

[0002]数据库中存储着大多数现代机构依赖的信息,从商品交易到人力资源记录、核心机密、敏感数据都存储在数据库中。数据库的重要性和其拥有的价值对攻击者有很大的吸引力,因此其受到蓄意攻击的可能性增加,此时数据库亟需一个完备的审计系统。对数据库进行审计就是对用户在数据库中的操作情况进行监控和记录的一种数据库功能。审计功能启动后,可以审查用户的相关活动。例如:数据被非授权用户删除、用户越权操作、权限管理不正确、用户获得不应有的系统权限等。通常,试图超越自身安全权限的用户(或非授权用户)可以被检测出来,在造成损失之前就对他们采取措施;或者在数据被篡改之后,数据库管理员可以利用审计跟踪的信息,重现导致数据库被篡改的一系列事件,找出非法篡改数据的人、时间和内容等。

[0003]数据库是信息系统的核心和基础,其中存储着大多数机构赖以生存的重要信息,保护数据库安全的重要性越来越被人们关注。目前,传统的数据库审计设备可以实时记录网络上的数据库活动,并提供对审计日志的事件后分析功能和报表功能。但这是远远不够的,当数据库攻击事件发生后,我们应该知道系统是怎样遭到攻击的,怎样才能恢复数据,如何能使数据库在受到攻击时有所察觉,如何有效利用攻击者留下的证据等。数据库云审计就是在这样的需求下被提出的。随着大数据技术的快速发展,对于实现全面化的数据库云审计起到了积极的促进作用。大数据技术对数据库审计工作带来的影响包括数据采集、数据分析、数据检索、数据存储方式的转变,全面化的数据库审计模式的建立,审计成果和相关证据的二次应用等。

发明内容

[0004]本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种基于大数据技术的数据库审计方法。

[0005]本发明解决其技术问题所采用的技术方案是:构造一种基于大数据技术的数据库审计方法,包括步骤:

数据采集:采用消息队列技术对所有类型的数据库进行统一采集,在保证用户数据隐私性及完整性的前提下,进行海量数据库日志收集;

数据预处理:对采集的海量数据库日志数据进行预处理;其中,预处理的方式至少包括归一化和数据清洗;

数据分析:对预处理后的海量数据库日志数据按照时效性进行分类,分为周期性实时数据和定期离线数据;并按照数据类型进行统计计算,快速反馈统计结果;

数据挖掘:根据对周期性实时数据和定期离线数据的统计结果及数据关联性,进行数

3

CN 111046022 A

说 明 书

2/7页

据挖掘预测,完成数据库审计。

[0006]在本发明所述的基于大数据技术的数据库审计方法中,数据采集采用的消息队列技术至少包括kafka消息队列技术和RabbitMQ消息队列技术。[0007]在本发明所述的基于大数据技术的数据库审计方法中,在对海量数据库日志数据进行预处理时,基于大数据的云审计采用基于流式计算的技术架构。[0008]在本发明所述的基于大数据技术的数据库审计方法中,基于流式计算的技术架构采用Spark数据处理框架。

[0009]在本发明所述的基于大数据技术的数据库审计方法中,在数据分析的步骤中,利用大数据集群并行分布式计算框架,结合复杂事件处理流程进行编制的有向无环图作为实时规则分析引擎,并行运行多种预设规则,检测周期性实时数中是否存在异常事件。[0010]在本发明所述的基于大数据技术的数据库审计方法中,在进行数据分析的步骤之前,对待分析的数据库数据进行选取的方式为数据分类机制和优先级预设;其中,通过数据分类机制将数据库数据分类为设备状态数据、监控数据、正常操作数据和非常操作数据,在通过优先级预设设定各类数据库数据处理的优先级,将不同类别的数据按优先级设定的重要程度列入优先级队列中,进行依次处理。

[0011]在本发明所述的基于大数据技术的数据库审计方法中,在进行数据挖掘时,对预处理的数据库日志数据采用分布式全文搜索引擎技术。[0012]本发明的基于大数据技术的数据库审计方法,通过监视并记录对数据库服务器的各类操作行为,通过对网络数据的分析,实时地、智能地解析对数据库服务器的各种操作,并记入审计数据库中以便日后进行查询、分析、过滤,实现对目标数据库系统的用户操作的监控和审计。它可以监控和审计用户对数据库中的数据库表、视图、序列、包、存储过程、函数、库、索引、同义词、快照、触发器等的创建、修改和删除等,分析的内容可以精确到SQL操作语句一级。它还可以根据设置的规则,智能的判断出违规操作数据库的行为,并对违规行为进行记录、报警。它可以在根本不改变数据库系统的任何设置的情况下对数据库的操作实现跟踪记录、定位,实现数据库的在线监控,在不影响数据库系统自身性能的前提下,实现对数据库的在线监控和保护,及时地发现网络上针对数据库的违规操作行为并进行记录、报警和实时阻断,有效地弥补现有应用业务系统在数据库安全使用上的不足,为数据库系统的安全运行提供了有力保障。

附图说明

[0013]下面将结合附图及实施例对本发明作进一步说明,附图中:

图1是本发明提供的一种基于大数据技术的数据库审计方法的流程示意图。

具体实施方式

[0014]为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。[0015]如图1所示,图1是本发明提供的一种基于大数据技术的数据库审计方法该方法的步骤包括:

S110:数据采集:采用消息队列技术对所有类型的数据库进行统一采集,在保证用户数

4

CN 111046022 A

说 明 书

3/7页

据隐私性及完整性的前提下,进行海量数据库日志收集。[0016]数据采集是数据库审计工作的第一步。基于大数据的数据库云审计采集工作具有跨网域、跨平台、跨层级等特征,数据采集范围放大和数据获取方式多样就成了这一步的关键。

[0017]针对传统数据库数据采集,大数据云审计所涉及的数据库数据采集范围放大;传统的数据库审计主要采集被审计数据库的登陆和操作数据摘要,大数据背景下审计数据的采集范围被极大的放大,除传统数据采集范围外,结构化、半结构化、非结构化数据乃至平台自动抓取和自动生成的数据等都成为了数据库云审计的数据采集范围。[0018]针对传统数据库数据采集,大数据云审计所涉及的数据库数据获取方式多样。传统的日志采集主要基于被审计数据库的二进制日志解析以及审计代理后端的日志抓取。为了克服传统数据库审计的后端日志被动获取方式的弊端,大数据背景下的日志获取方式,可以在传统被动获取方式的基础上,借助爬虫等技术进行数据的主动获取,这样既可以弥补获取日志有时间滞后性的缺陷,又可以与传统获取方式下的日志进行对比,提高数据的准确性。

[0019]数据库云审计的主要特点和挑战是并发数高,数据量大。因此采集平台的接收性能也将面临较大挑战。基于大数据的数据库云审计平台采用消息队列技术对各种类型的数据库进行统一采集,并使用一定的压缩及加密算法,在保证用户数据隐私性及完整性的前提下,进行海量数据库日志收集。

[0020]在图1示出的本发明的基于大数据技术的数据库审计方法第一实施例中,数据采集采用的消息队列技术至少包括kafka消息队列技术和RabbitMQ消息队列技术。[0021]Kafka是一个分布式发布-订阅消息系统和一个强大的队列,可以处理大量的数据,并使您能够将消息从一个端点传递到另一个端点。Kafka适合离线和在线消息消费。Kafka消息保留在磁盘上,并在群集内复制以防止数据丢失。Kafka构建在ZooKeeper同步服务之上。它与Storm和Spark非常好地集成,用于实时流式数据分析。Kafka专为分布式高吞吐量系统而设计。与其他消息传递系统相比,Kafka具有更好的吞吐量,内置分区,复制和固有的容错能力,这使得它非常适合大规模消息处理应用程序。Kafka通常用于操作监控数据。这涉及聚合来自分布式应用程序的统计信息,以产生操作数据的集中馈送。Kafka可跨组织从多个服务收集日志,实现日志聚合,并使它们以标准格式提供给多个服务器。为了使得Kafka的吞吐率可以线性提高,物理上把Topic分成一个或多个Partition,每个Partition在物理上对应一个文件夹,该文件夹下存储这个Partition的所有消息和索引文件.每个分区都是有序的,不可变的记录序列,不断追加到结构化的提交日志中。分区中的记录每个分配一个连续的id号,称为offset(偏移量),用于唯一标识分区内的每条记录。每个分区在Kafka集群的若干服务中都有副本,这样这些持有副本的服务可以共同处理数据和请求,副本数量是可以配置的。副本使Kafka具备了容错能力。每个分区都由一个服务器作为“leader”,零或若干服务器作为“followers”,leader负责处理消息的读和写,followers则去复制leader.如果leaderdown了,followers中的一台则会自动成为leader。集群中的每个服务都会同时扮演两个角色:作为它所持有的一部分分区的leader,同时作为其他分区的followers,这样集群就会据有较好的负载均衡。[0022]S120:数据预处理:对采集的海量数据库日志数据进行预处理;其中,预处理的方

5

CN 111046022 A

说 明 书

4/7页

式至少包括归一化和数据清洗。

[0023]数据的类型多样化导致数据处理难度大增,数据库云审计必须解决数据不规范、不统一、不准确、不完整等数据质量问题。本发明中采用下述方式实现数据预处理:

1、建立行业数据标准。由于历史和现实的种种原因,不同领域、不同行业的数据标准千差万别,更有甚者同一领域、同一行业、不同时期的数据标准也有着较大的差异,使得数据处理异常困难。要实现基于大数据的数据库云审计全覆盖,就必须解决数据标准不统一的问题。因此,应通过统一规划,建立既满足各行业自身审计需求,又有利于跨行业数据关联的行业数据标准。[0024]2、建立数据转换机制。在行业数据标准建立之前形成的审计数据以及在行业数据标准不成熟的初期形成的审计数据都需要进行数据的清理和转换,这一工作量是巨大且复杂的,建立一套成熟实用的数据转换机制,是解决这一问题的必由之路。将被审计数据库通过这套数据转换机制自行进行审计数据的清理和转换,并向审计后端提供符合行业数据标准的审计数据。

[0025]在大数据环境下对采集到的海量数据进行有效分析,需要对各种数据进行分类,并按照一定的标准进行归一化,且对数据进行一些简单的清洗和预处理工作。[0026]S130:数据分析:对预处理后的海量数据库日志数据按照时效性进行分类,分为周期性实时数据和定期离线数据;并按照数据类型进行统计计算,快速反馈统计结果。[0027]数据库云审计认为交叉融合和智能挖掘是大数据分析的典型特点,全维化和智能化是基于大数据技术的数据云审计分析的本质。[0028]大数据的海量存储使得跨领域、跨行业、跨层级等的无边界审计全维化分析有了实现的基础。审计主体应充分利用大数据分析的优势,通过对与重点领域、重点行业、重要层级的审计对象的数据进行关联性全维化分析,以点带面,点面结合地完成审计数据分析工作。

[0029]基于大数据的云审计方法采用基于流式计算的技术架构,利用大数据集群并行分布式计算框架,同时结合复杂事件处理流程进行编制的有向无环图作为实时规则分析引擎,从而能够高效并行地运行多种规则,并能够实时检测异常事件。[0030]按照数据分析的实时性,分为实时数据分析和离线数据分析。大数据平台在数据预处理时使用的分布式计算框架就非常适合对海量数据进行实时的统计计算,并能够快速反馈统计结果。分布式计算框架利用严格且高效的事件处理流程保证运算时数据的准确性,并提供多种实时统计接口以使用。[0031]Spark是一个围绕速度、易用性和复杂分析构建的大数据处理框架。它为我们提供了一个全面、统一的框架用于管理各种有着不同性质(文本数据、图表数据等)的数据集和数据源(批量数据或实时的流数据)的大数据处理的需求。让开发者可以快速的用Java、Scala或Python编写程序。它本身自带了一个超过80个高阶操作符集合。而且还可以用它在shell中以交互式地查询数据。除了Map和Reduce操作之外,它还支持SQL查询,流数据,机器学习和图表数据处理。开发者可以在一个数据管道用例中单独使用某一能力或者将这些能力结合在一起使用。Spark通过在数据处理过程中成本更低的洗牌(Shuffle)方式,将MapReduce提升到一个更高的层次。利用内存数据存储和接近实时的处理能力,Spark比其他的大数据处理技术的性能要快很多倍。Spark还支持大数据查询的延迟计算,这可以帮助

6

CN 111046022 A

说 明 书

5/7页

优化大数据处理流程中的处理步骤。Spark还提供高级的API以提升开发者的生产力,除此之外还为大数据解决方案提供一致的体系架构模型。Spark将中间结果保存在内存中而不是将其写入磁盘,当需要多次处理同一数据集时,这一点特别实用。Spark的设计初衷就是既可以在内存中又可以在磁盘上工作的执行引擎。当内存中的数据不适用时,Spark操作符就会执行外部操作。Spark可以用于处理大于集群内存容量总和的数据集。Spark会尝试在内存中存储尽可能多的数据然后将其写入磁盘。它可以将某个数据集的一部分存入内存而剩余部分存入磁盘。开发者需要根据数据和用例评估对内存的需求。Spark的性能优势得益于这种内存中的数据存储。

[0032]SparkStreaming是核心SparkAPI的扩展,支持实时数据流的可扩展、高吞吐量、容错处理。数据可以从许多来源获取,如Kafka,Flume,Twitter,ZeroMQ或者TCPsockets,并且支持使用复杂的算法进行处理,这些算法用高级函数如map、reduce、join和window来表示。最后,处理后的数据可以存放在文件系统,数据库等,方便实时展现。在内部,它的工作方式如下。SparkStreaming接收实时输入数据流,并将数据分成批次(所以基于这个特性,严格的说SparkStream应该是准实时计算,而Storm则是实时计算),然后由Spark引擎进行处理,以批量生成最终结果流。SparkStreaming提供了一种称为离散化流DStream的高级抽象,它表示连续的数据流。DStreams可以从kafka、flume和驱动程序等来源的输入数据流中创建,也可以通过对其他DStreams应用高级操作来创建。在内部,DStream表示为一系列RDDs。离散化流DStream是SparkStream提供的基本抽象。它代表一个连续的数据流,或者是从源接收的输入数据流,或者是通过转换输入数据流产生的处理数据流。在内部,DStream由一系列连续的RDDs表示,这是Spark对不可变的分布式数据集的抽象。DStream中的每个RDD都包含某个时间间隔的数据。DStream上应用的任何操作都将转换为底层RDDs上的操作。这些基本的RDD变换是由Spark操作引擎计算的。DStream操作隐藏了大部分这些细节,并为开发人员提供了更高级别的API以方便使用。与RDDs类似,转换允许修改来自输入数据流的数据。DStreams支持普通SparkRDD上可用的许多转换。[0033]S140:数据挖掘:根据对周期性实时数据和定期离线数据的统计结果及数据关联性,进行数据挖掘预测,完成数据库审计。

[0034]审计分析方法创新是数据库云审计的现实需要。审计分析技术正从传统而简单地汇总和统计向利用各种大数据技术发展。数据挖掘技术、可视化分析技术、智能学习算法等大数据分析技术运用于数据库云审计。基于大数据的审计分析的深度和广度需要进一步提高。

[0035]数据挖掘是在没有明确假设的前提下去挖掘信息、发现知识,所以它所得到的信息具有未知、有效、实用三个特征。与传统统计及分析过程不同的是,大数据环境下的数据挖掘一般没有预先设定好的主题,主要是在现有数据上面进行基于各种算法的计算,从而起到预测的效果,并进一步实现一些高级别数据分析的需求。[0036]在进行数据挖掘时,对预处理的数据库日志数据采用分布式全文搜索引擎技术。Solr是Apache下的一个顶级开源项目,采用Java开发,它是基于Lucene的全文搜索引擎。Solr提供了比Lucene更为丰富的查询语言,同时实现了可配置、可扩展,并对索引、搜索性能进行了优化。Solr提供了层面搜索、命中醒目显示并且支持多种输出格式,包括XML/XSLT和JSON格式。它易于安装和配置,而且附带了一个基于HTTP的管理界面。Solr已经在众多大

7

CN 111046022 A

说 明 书

6/7页

型的网站中使用,较为成熟和稳定。Solr包装并扩展了Lucene,所以Solr的基本上沿用了Lucene的相关术语。更重要的是,Solr创建的索引与Lucene搜索引擎库完全兼容。通过对Solr进行适当的配置,某些情况下可能需要进行编码,Solr可以阅读和使用构建到其他Lucene应用程序中的索引。Solr实现全文检索的过程包括索引建立过程和索引搜索过程。索引建立流程为:solr客户端向solr的服务端发送post请求,请求内容是包含field信息的xml文档,通过该文档,实现对索引的维护。搜索过程为:solr客户端向服务端发送GET请求,solr返回一个xml文档。[0037]此外,对数据库进行云审计时,还包括对数据库数据的存储。[0038]大数据背景下,随着海量数据的采集与处理,数据的存储需求剧增,这也引发了一系列的问题,如存储空间有限、服务器接收处理数据过多等。[0039]解决上述问题的方法包括:

1、建设审计数据中心。为解决数据库云审计对数据的存储需求,应通过总体设计建设基于大数据存储管理技术的审计数据中心。该中心不但需要像其他海量存储系统一样,在系统层面具备可扩展性、强性能和低运营成本等特性,还需要在数据层面满足数据库云审计动态性、复杂性和不确定性等特征。[0040]2、建立数据分类机制。大量终端连接到服务器,同时向服务器上传海量数据,对服务器的数据处理和记录能力是极大的考验,为此可以引入数据分类机制并结合优先级处理一起使用。如可将设备状态数据、监控数据、正常操作数据和非常操作数据等各设为一类,将这些不同类别的数据按重要程度列入优先级队列中进行依次处理。[0041]分布式列数据库HBASE是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBASE技术可搭建起大规模结构化存储集群。HBASE的目标是存储并处理大型的数据。在表中它由行排序。表模式定义只能列族,也就是键值对。一个表有多个列族以及每一个列族可以有任意数量的列。后续列的值连续存储在磁盘上。表中的每个单元格值都具有时间戳。总之,在一个HBase,表是行的集合,行是列族的集合,列族是列的集合,列是键值对的集合。

[0042]HBASE中通过rowkey和columns确定的为一个存储单元称为cell。每个cell都保存着同一份数据的多个版本。版本通过时间戳来索引。时间戳的类型是64位整型。时间戳可以由HBASE(在数据写入时自动)赋值,此时时间戳是精确到毫秒的当前系统时间。时间戳也可以由客户显示赋值。如果应用程序要避免数据版本冲突,就必须自己生成具有唯一性的时间戳。每个cell中,不同版本的数据按照时间倒序排序,即最新的数据排在最前面。为了避免数据存在过多版本造成的管理(包括存储和索引)负担,HBASE提供了两种数据版本回收方式。一是保存数据的最后n个版本,而是保存最近一段时间内的版本(比如最近7天)。用户可以针对每个列族进行设置。

[0043]将索引数据与源数据存储在相同的Region里,索引数据定义为一个单独的列族,也是利用Coprocessor来生成并访问索引数据。对于表索引,源数据表与索引表的数据一致性很难保证,访问两张不同的表也会增加IO开销和远程调用的次数。对于列索引,单表的数据容量会急剧增加,对同一Region里的多个列族进行Split或Merge等操作时可能会造成数据丢失或不一致。

[0044]数据库是应用系统的核心,其安全性为人们所广泛重视。数据库审计作为数据库

8

CN 111046022 A

说 明 书

7/7页

安全手段的一个有力补充,在目前已经有相对成熟的产品,但均不足以支撑全面化的审计需求。要实现数据库云审计,必须充分考虑云的多租户,以及数据海量化,平台异构化等多种特性。随着近年来大数据行业应用的不断成熟,以大数据技术为基础,实现全面的数据库云审计,成为可行的途径。采用大数据技术,对内部和外部,多领域的数据进行汇总、整合和分析,并对处理后的数据信息,由“点”连成“线”,再由“线”织成“网”,从而服务于宏观分析,其所带来的一系列技术创新、应用创新,使得许多传统数据库审计设备难以处理的那些并发数高,数据量庞大、平台异构、数据分析不及时,存储检索困难等问题得以解决。基于大数据的数据库云审计能够实时记录网络上的数据库活动,对数据库操作进行细粒度审计的合规性管理,对数据库遭受到的风险行为进行告警,对攻击行为进行阻断。它通过对用户访问数据库行为的记录、分析和汇报,用来帮助用户事后生成合规报告、事故追根溯源,同时加强内外部数据库网络行为记录,提高数据资产安全性。[0045]上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

9

CN 111046022 A

说 明 书 附 图

1/1页

图1

10

因篇幅问题不能全部显示,请点此查看更多更全内容

Copyright © 2019- jqkq.cn 版权所有

违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务