数据安全-指北(更新中)


⓪数据安全定义

《中华人民共和国数据安全法》中第三条,给出了数据安全的定义,是指通过采取必要措施,确保数据处于有效保护和合法利用的状态,以及具备保障持续安全状态的能力。要保证数据处理的全过程安全,数据处理,包括数据的收集、存储、使用、加工、传输、提供、公开等。

信息安全或数据安全有对立的两方面含义:

  • 一是数据本身的安全,主要是指采用现代密码算法对数据进行主动保护,如数据保密、数据完整性、双向强身份认证等。
  • 二是数据防护的安全,主要是采用现代信息存储手段对数据进行主动防护,如通过磁盘阵列、数据备份、异地容灾等手段保证数据的安全。

①数据防泄漏(DLP)

DLP 简介

DLP即常说的数据泄露防护解决方案。其核心是能识别出数据中的内容并为之分类。这些数据可以电子邮件、文件、数据包、应用程序或者数据存储等形式存在。不论数据状态是仅被存储中,或者正在被使用的,亦或者在网络中传输,都能被检测。DLP还应支持根据既定的策略对敏感信息的检测和使用情况提供日志、标记、加密、权限控制和阻断等操作。

为什么需要DLP

计算机和互联网已成为日常办公、通信交流和协作互动的必备工具和途径。但是,信息系统在提高人们工作效率的同时,也对数据的存储安全及传输安全提出了更高要求。

  • 法律法规也更为严格。GDPR、HIPAA、中华人民共和国数据安全法等都要求企业保护数据资产,防止敏感信息泄漏。数据泄漏事件使企业承担法律风险。
  • 需要保护的数据更多。个人信息(帐号、电话、地址等)、知识产权(产品设计、研发图纸等)、商业机密(预算、规划、工资单等),任何数据的泄漏都会给企业带来不可估量的损失。
  • 数据不一定是黑客窃取的。由于内部员工有意或无意的行为导致的数据泄漏事件日益增多,比如邮件误发、U盘丢失、机密文件打印等等。
  • 传统安全方案无法提供合适数据泄漏防护。传统安全方案使用传统防火墙、入侵检测、存储加密系统等安全设备,通过限制数据访问或全网数据加密等防护手段提供被动、囚笼式的防护。不利于数据流动,无法控制权限内用户的泄密,也无法识别敏感信息进而实现对企业内数据的分类管控和审计。

DLP工作原理

识别出敏感信息,并根据预定义的规则保护这些数据是DLP的工作。

数据获取

识别信息的前提是获取到数据。DLP通常通过以下方式获取企业内网数据:

  • 扫描终端和服务器存储。

  • 监控网络协议链接,还原传输的文件。

  • 监控应用和驱动,提取传送和使用的数据。

数据识别

并不是所有数据都需要防护,包含敏感信息的数据才是DLP的防护对象。获取到数据后,DLP必须进行内容识别和检测以确定是否包含敏感信息,不论数据以邮件、PDF、Word还是任何形式存在。

内容识别和检测技术分为常规检测技术和高级检测技术。常规检测技术主要包括正则表达式检测、关键字检测、文档属性检测等。高级检测技术包括索引内容指纹匹配技术(IDM)、精确内容指纹匹配技术(EDM)、计算机视觉技术等。

此处简单介绍一下这三种高级检测技术。

  • 索引内容指纹匹配技术(IDM):将待检测的内容或文档,与Word文件、PPT文件、PDF文件、各种源程序文件等非结构化储存的样本文档进行匹配,获得相似度,并以此判断其是否源自样本文档库。该技术从样本文档中生成指纹特征库, 然后以同样的方法从待检测文档或内容中提取指纹;将得到的指纹与指纹库进行匹配,获得其相似度。

  • 精确内容指纹匹配技术(EDM):将待检测的文档或内容,与Excel、数据库表等结构化储存的数据源表格之间进行精确匹配,判断其是否摘录自数据源表格。客户在数据源表格中指定特定列,为其生成指纹特征库,以此检测目标内容(无论何种文件格式)是否存在与表格中特定列相匹配的数据。

  • 计算机视觉技术:将待检测的图像,提取其轮廓特征后,与储存的样本图像特征进行相似度匹配,并以此判断其是否源自样本图像库。利用图像处理技术提取图像的轮廓特征,并对特征进行矢量化编码;使用相似度匹配技术对特征库进行匹配。即使对图像进行缩放、部分裁剪、添加水印、改变明亮度,也能够很好的匹配。

数据控制

识别出敏感信息后,根据既定的策略,对承载这些信息的文件进行控制。控制行为包括但不限于:

  • 数据加密:对于敏感数据加密,即使数据不当流出,其中的敏感信息也不会泄露。

  • 权限识别和控制:数据和用户都有权限属性,只有权限相符合的用户才能访问对应的数据。且访问时数据会自动解密,不影响用户体验。

  • 非法行为阻断:对于非法外发、拷贝、打印等动作进行阻断或者通报告警。

  • 数据可视化呈现:全网敏感数据分布的可视化呈现。

  • 数据审计:对敏感信息的整个生命周期(生成、流转、使用、销毁等操作)做详细的日志和报表。

②用户和实体行为分析(UEBA)

UEBA(User and Entity Behavior Analytics,用户和实体行为分析)主要用于检测用户以及网络中实体(网络设备、进程、应用程序等)的异常行为,然后判断异常行为是否存在安全威胁,并及时向运维人员发出告警。

UEBA利用人工智能和机器学习算法来检测网络中的用户和实体的异常行为。首先,UEBA收集有关用户和实体活动的数据,通过分析数据来建立用户和实体的行为模式基线。然后,UEBA会持续监控用户和实体行为,并将其当前行为与基线行为进行比较,计算风险评分,确定行为偏差是否可接受。如果风险评分超过一定的阈值,UEBA会实时向用户发出告警。

详情请参考:什么是用户实体行为分析(UEBA)

厂商 UEBA 产品

③安全信息与事件管理(SIEM)

SIEM(Security Information and Event Management,安全信息与事件管理)是一种网络安全技术,通过收集和分析不同来源(主机、应用、安全、网络等)的日志事件及相关数据,提供安全事件的实时监控和管理等功能。

SIEM通过安全事件帮助用户识别异常事件,查看安全态势,并在出现异常安全事件和趋势时向用户发出告警信息。UEBA的工作方式与SIEM类似,只不过UEBA通过用户和实体的行为信息来判断是否存在安全威胁。

SIEM系统将来自不同内部安全工具的安全事件数据汇聚到单个日志中并进行分析,以检测异常行为和潜在威胁。UEBA 可通过其内部威胁检测和用户行为分析功能将 SIEM 可见性扩展到网络中。如今,许多 SIEM 解决方案均包含 UEBA

厂商 SIEM 产品

④终端检测和响应(EDR)

EDR(Endpoint Detection and Response,终端/端点检测和响应)用来指代一种端点(终端PC、服务器、云系统、移动设备或物联网设备等)安全防护解决方案。它记录端点上的行为,使用数据分析和基于上下文的信息检测来发现异常和恶意活动,并记录有关恶意活动的数据,使安全团队能够调查和响应事件。EDR解决方案通常提供威胁搜寻、检测、分析和响应功能。

EDR的工作原理

传统终端安全软件的机制,是客户端重载,威胁检测几乎全部在终端侧完成,终端用户的工作经常被打扰,而且系统资源开销很大(尤其杀软、桌管等多套客户端并行状况下)

而EDR客户端只负责事件收集,然后将可以事件实时同步到服务器端/云端,通过服务端进行大数据检测、分析、情报匹配,以及专家介入研判处置。

EDR对终端用户几乎无打扰,充分利用云端强大的计算资源和检测引擎,迅速发现可疑行为。

传统终端病毒和威胁检测的思路,就像蹲守在羊圈门口的守卫,时刻检查所有过往行人,草木皆兵,看见可疑的立即抓走。不仅消耗体力,还容易搞出“狼来了”式的误报,更可怕的是被针对性的“绕过”(例如前面所说的无文件攻击)。

EDR则是“以退为进”,不关心行人的仪表特征,就看他们干不干坏事。如果有人干了破坏羊圈的事,它就会把这种行为定性为威胁事件,迅速告警和响应,找人修复羊圈,并溯源活捉坏人。羊圈被破坏不要紧,羊没丢就是完成了核心KPI,还顺手捉到了高级狼。

所以,EDR与杀软、桌管们的职责分工完全不一样。初级的老破小病毒、桌面违规操作管理等等,交给杀软、桌管来处理。EDR负责对付各类高级的、潜伏性强的、未来危害性大的、甚至被武器化的威胁。

EDR 能力

1、事件采集和传输

终端事件采集是后续检测、分析能力的重要基础

真正的EDR客户端,都是极简客户端,或者说只是一个探针。既要足够轻,对终端资源极低占用,对终端用户零打扰,又要有极为优秀的行为采集能力,保证在恶意程序干坏事的时候,可以明察秋毫。

采集完成需要送到服务端,进行情报匹配、AI研判、大数据分析

这就需要过滤无效事件、最大化传输有效事件、最小化网络带宽消耗。如何压缩、去重、组合。

2、威胁检测

搞定事件收集和传输,接下来的挑战就是,如何精准、高效地检测威胁。

3、溯源分析

快速精准检测出威胁事件还不够,还要完成威胁溯源。

溯源意义在于找到真正的元凶,从源头把入侵的黑手斩断。但是,溯源的难度在于:进程的源头,是正常的系统服务;执行的源头,是合法的系统进程;事件的源头,是跨终端的RPC调用。

4、事件响应

最后一步,需要对威胁事件做出响应:该修修、该补补、该抓抓、该shasha。

这个响应,不是简单的隔离机器或者进程,还需要配套持久化、序列化、智能化的清理动作,除恶务尽。

对于常见、多发的威胁,需要自动化的清理处置能力。对于复杂威胁,还要进一步调查取证。

厂商 EDR 产品

⑤入侵和攻击模拟(BAS)

BAS(Breach and Attack Simulation,入侵和攻击模拟)提供自动化的安全防御有效性验证。,是指通过主动验证 +(半)自动化的方式,利用攻击者的战术、技术和程序来模拟杀伤链的不同阶段,持续测试和验证现有网络整体的安全机制(包括各安全节点是否正常工作、安全策略与配置的有效性、检测/防护手段是否按预期运行等),对企业对抗外部威胁的能力进行量化评估,同时提供改进建议,推动企业安全体系走向成熟。

从攻击为中心的视角来看待风险,基于真正的威胁来排序自己的修复行为。像黑客那样思考和工作,就是最好的防御方式。在出现新型APT攻击、勒索病毒、挖矿病毒时,BAS可根据可靠的威胁情报,自动化在当前网络环境中进行模拟攻击流程,以此来印证安全控制设备是否已经支持防御或监测该类型的攻击。举个例子,在发生0day漏洞后,安全厂商会推出相应补丁包,从用户视角需要快速验证此补丁在面对真实攻击时的有效性。

BAS 的缺陷与挑战

尽管 BAS 产品能够自动化模拟攻击,帮助企业评估网络安全防御能力,但它也存在一些固有的挑战和缺陷。在实际应用中,我们常常会模拟攻击的局限性,这些问题让很多企业感到困惑。BAS 工具不能完全替代人工操作,在复杂场景和高级攻击中仍需要人工参与。企业应根据自身需求和资源情况,合理部署 BAS 工具,并结合其他安全措施,实现更全面的安全防护。

(1)模拟攻击的挑战

模拟攻击的局限性:BAS工具在模拟攻击时,可能由于自身设计和技术限制,无法完全模拟某些复杂的攻击手法或真实场景。这可能导致模拟结果与实际攻击情况有所差异。应该场景多样化:不断更新和扩展攻击模拟场景,尽可能涵盖各种攻击手法和攻击链。与最新威胁情报和安全研究相结合,确保模拟攻击的全面性和时效性。动态调整:根据企业的实际环境和网络架构,动态调整模拟攻击的策略和方法,以提高模拟结果的相关性和实用性。

(2)攻击模拟的覆盖范围有限

BAS 产品的攻击模拟通常基于预定义的攻击模板或脚本,这意味着其模拟的攻击场景范围有限。对于复杂的、高度定制化的攻击,BAS 工具的能力可能不足。与人工渗透测试相比,BAS 的自动化攻击手段标准化程度高,缺乏灵活性,难以应对真实环境中的复杂攻击。

应对参考:BAS 工具需要不断扩展其攻击模板库,并允许用户自定义攻击脚本,以增强对复杂场景的模拟能力。此外,与人工红队测试配合使用,可以弥补 BAS 在高级攻击场景中的不足。

(3)对环境的适应性有限

BAS 工具在不同企业环境中的适应性往往有限。例如,企业的网络架构、应用程序环境和安全需求各不相同,BAS 工具可能需要大量配置和自定义才能适应这些差异化环境。随着企业的网络和业务不断发展,BAS 工具的适应性也需要相应调整。

应对参考:BAS 产品应具备较强的可定制性,能够根据不同企业的特定需求灵活调整。同时,厂商应提供充分的技术支持和培训,帮助用户最大化利用 BAS 工具。

(4)无法完全替代人工

虽然 BAS 工具能够自动化模拟攻击场景,但在一些高级渗透测试和复杂网络环境中,人工操作仍然不可或缺。BAS 的自动化攻击能力有限,难以模拟人类攻击者的灵活性和策略性,而人工红队的操作更具针对性和效果。

应对参考:企业在使用 BAS 工具时,仍需结合人工红队测试,以确保全面的安全评估。此外,BAS 产品应不断优化自动化功能,提升其在更复杂场景下的能力。

(5)需要较高的专业知识来操作

虽然 BAS 工具旨在简化安全测试,但它的配置和使用通常需要较高的专业知识。例如,安全团队需要具备网络安全的背景知识才能有效构建攻击场景、分析仿真结果以及调整模拟参数。这对一些技术能力较弱的中小企业来说可能构成门槛。

应对参考:BAS 供应商应提供更直观的用户界面和详细的文档支持,以降低使用门槛。此外,提供培训和技术支持服务,可以帮助企业更好地部署和运用 BAS 产品。

(6)资源消耗大

BAS 工具在运行过程中可能会消耗大量的网络资源,尤其是在大规模仿真攻击时。大量的模拟攻击流量可能导致企业的网络性能下降,甚至干扰正常业务运营。

应对参考:BAS 产品应具备优化资源使用的功能,例如通过调整仿真流量的优先级或在非高峰期进行模拟测试,来减少对企业网络资源的影响。

(7)与其他安全工具的集成性有限

虽然 BAS 产品可以生成详细的攻击模拟报告,但如果无法与企业现有的安全工具(如 SIEM、EDR、SOC 等)无缝集成,其价值可能会受到限制。缺乏集成可能导致信息孤岛,使 BAS 无法充分发挥其潜力。

应对参考:BAS 工具应支持与其他主流安全工具的集成,并提供 API 或插件接口,以便在企业的整体安全生态系统中更好地发挥作用。

BAS 在红蓝演练中的角色

BAS 产品无法完全替代红队的手动攻击能力。目前,BAS 产品主要用于自动化、常规化的攻击模拟,而红队更注重针对性和复杂性。BAS 产品应定位为红队与蓝队的辅助工具,而不是替代品。BAS 可以通过自动化手段完成基础的攻击场景模拟,帮助蓝队发现防御中的盲点,从而让红队集中精力在更高难度的攻击场景中。

未来,随着 BAS 产品技术的进步,我们可能会看到 BAS 工具与红队活动的更紧密集成。通过与红队的协作,BAS 可以充当持续测试和反馈循环的一部分,不断提升企业的整体安全水平。

BAS 产品与其他网络安全工具,如漏洞扫描、渗透测试、自动化渗透平台,以及红蓝对抗,存在着一定的区别和重叠。

未来 BAS 产品的市场定位将更加精细化。BAS 不应该试图取代其他安全工具,而是与之形成互补。BAS 不应该试图取代其他安全工具,而应与其形成互补。在我看来,BAS 可以与漏洞扫描结合,进行精准的攻击模拟,这样才能更有效地评估漏洞的实际风险。国内厂商如果能够在这方面做到极致,将有机会在市场中脱颖而出,展示自己的独特价值。而与渗透测试相比,BAS 可以承担自动化、常规化的任务,将更多的复杂攻击场景留给渗透测试专家。

实施BAS的关键步骤

1、识别网络中的脆弱区域

在进行BAS活动之前,组织应该提前确定网络中存在较大风险隐患的脆弱区域。这可以通过不同的方式完成,包括漏洞扫描、人工渗透测试和安全性审计。这主要目的是了解潜在的攻击面,并确定任何弱点和漏洞。

例如,对网络进行漏洞扫描,以识别任何可能易受攻击的过时软件或未打补丁的系统。一旦确定了网络中的脆弱区域,就可将其作为BAS测试工作的起点。在此过程中,组织可以优先识别出哪些领域值得重点关注。

2、创建基线安全模型

当企业发现并确定了脆弱区域,接下来要做的就是建立基线安全模型。这个特定的模型将表示公司安全控制的当前状态。它可以为后续的安全性衡量改进工作提供必要的参考。

例如,基线安全模型应该包括公司防火墙、入侵检测系统和其他安全控制的当前配置。当企业开始执行BAS活动之后,它可以作为度量其安全控制有效性的起点。

3、进行模拟攻击测试

当以上的工作完成后,企业接下来要做的就是进行BAS练习。这意味着要根据公司的关注点和需求进行一系列测试。这一系列测试可以包括在网络、端点、web应用程序、电子邮件系统、无线网络或云基础设施上进行测试。例如,如果公司关心的是基于电子邮件的安全控制。他们将进行模拟网络钓鱼攻击,以测试电子邮件安全控制的有效性。它包括向不同的员工发送虚假的网络钓鱼电子邮件,并测量有多少人受到攻击。

4、分析结果并改进

在成功的BAS应用中,企业还必须及时分析结果并改进公司的安全控制。组织需要审查由BAS工具提供的每一份报告和分析,并找到需要改进的地方。例如,回到网络钓鱼的例子,一旦公司采取并衡量了结果,它就可以培训这些员工,并向他们提供更多关于网络安全协议的信息,甚至可以让他们参加研讨会。组织可能还需要实现额外的电子邮件安全控制,例如双因素身份验证或高级垃圾邮件过滤。

厂商 BAS 产品

Breach and Attack Simulation with MITRE ATT&CK - AttackIQ

SafeBreach | Breach and Attack Simulation Platform

Cymulate - Exposure Management & Security Validation Platform

⑥数据脱敏(DMS)

数据脱敏定义

数据脱敏(Data Masking Service)是一种信息安全技术,旨在保护敏感信息和隐私数据,防止未经授权的访问或泄露。它通过对原始数据进行有策略的修改或替换,创建一个看上去与原数据相似但不含真正敏感细节的数据副本,以供非生产环境如开发、测试、分析或培训等用途中安全使用。

  • 静态数据脱敏:在数据被提取并复制到非生产环境之前一次性完成脱敏处理。适用于数据外发场景,如提供给第三方或用于测试数据库。
  • 动态数据脱敏:在数据查询过程中实时进行,当用户访问敏感数据时,系统自动对其进行脱敏处理。适用于直接连接生产数据库的场景,确保即使查看数据的行为也不会暴露敏感信息。

数据脱敏的目的

  • 保护隐私:确保个人信息如身份证号、电话号码、银行账号等不被非法获取和利用。
  • 合规要求:满足行业规范和法律法规对数据保护的要求,如GDPR(欧盟通用数据保护条例)等。
  • 安全测试:在不影响真实数据安全的前提下,为软件测试、系统调试提供接近真实的测试数据。
  • 降低风险:即便数据被非法访问,由于已脱敏,实际敏感信息不会泄露,降低了数据泄露的风险。

数据脱敏方案

数据脱敏系统可以按照不同业务场景自行定义和编写脱敏规则,可以针对库表的某个敏感字段,进行数据的不落地脱敏。

1、无效化

无效化方案在处理待脱敏的数据时,通过对字段数据值进行截断加密隐藏 等方式让敏感数据脱敏,使其不再具有利用价值。一般采用特殊字符(*等)代替真值,这种隐藏敏感数据的方法简单,但缺点是用户无法得知原数据的格式,如果想要获取完整信息,要让用户授权查询。

2、随机值

随机值替换,字母变为随机字母,数字变为随机数字,文字随机替换文字的方式来改变敏感数据,这种方案的优点在于可以在一定程度上保留原有数据的格式,往往这种方法用户不易察觉的。

3、数据替换

数据替换与前边的无效化方式比较相似,不同的是这里不以特殊字符进行遮挡,而是用一个设定的虚拟值替换真值。比如说我们将手机号统一设置成 “13651300000”。

4、对称加密

对称加密是一种特殊的可逆脱敏方法,通过加密密钥和算法对敏感数据进行加密,密文格式与原始数据在逻辑规则上一致,通过密钥解密可以恢复原始数据,要注意的就是密钥的安全性。

5、平均值

平均值方案经常用在统计场景,针对数值型数据,我们先计算它们的均值,然后使脱敏后的值在均值附近随机分布,从而保持数据的总和不变。

6、偏移和取整

这种方式通过随机移位改变数字数据,偏移取整在保持了数据的安全性的同时保证了范围的大致真实性,比之前几种方案更接近真实数据,在大数据分析场景中意义比较大。

厂商数据脱敏 产品

⑦数据资产地图

数据资产地图可以通过可视化的手段,从资产概况、分类分级、权限配置、数据存储、敏感数据以及数据出口分析等多种维度查看资产的安全状况。可协助您快速发现风险资产并进行快速风险处理操作。

⑧数据分类分级

简介

根据《GB/T 38667-2020 信息技术-大数据-数据分类指南》的定义,数据分类是根据数据的属性或特征,按照一定的原则和方法进行区分和归类,以便更好地管理和使用数据。数据分类不存在唯一的分类方式,会依据企业的管理目标、保护措施、分类维度等形成多种不同的分类体系。

数据分类是数据资产管理的第一步。不论是对数据资产进行编目、标准化,还是数据的确权、管理,或是提供数据资产服务,进行有效的数据分类都是其首要任务。数据分类更多是从业务角度或数据管理的方向考量的,包括行业维度、业务领域维度、数据来源维度、共享维度、数据开放维度等。同时,根据这些维度,将具有相同属性或特征的数据,按照一定的原则和方法进行归类。

数据分级则是按数据的重要性和影响程度区分等级,确保数据得到与其重要性和影响程度相适应的级别保护。影响对象一般是三类对象,分别是国家安全和社会公共利益、企业利益(包括业务影响、财务影响、声誉影响)、用户利益(用户财产、声誉、生活状态、生理和心理影响)。企业建议选取影响程度中的最高影响等级为该数据对象的重要敏感程度。同时,数据定级可根据数据的变化进行升级或降级,例如包括数据内容发生变化、数据汇聚融合、国家或行业主管要求等情况引起的数据升降级。数据分级本质上就是数据敏感维度的数据分类。

实施路径

在实际落地过程中,通常会把数据分类分级的实施路径总结成为五步:

第一步,咨询调研分析。基于行业相关的监管政策和标准规范,对业务系统、数据资产现状和数据安全现状等进行全面调研分析,从而对企业业务、数据及安全现状做到“心中有数”。

第二步,数据资产梳理。自动化识别数据资产,对数据资产进行梳理打标,构建好数据资产目录和数据资产清单,为企业数据分类分级打好基础。

第三步,数据分类方案。基于数据资产清单进行数据分类体系设计,完成数据分类打标实施。打标实施完之后,再进行分类分级规则调优,提升自动化分类的比例和准确率。

第四步,数据分级方案。先进行数据分级体系设计,接下来进行数据分级的规则调优,尽量提升自动化分级的覆盖率和准确率,降低人工成本,然后是数据等级变更维护机制和工具平台设置。

第五步,数据分类分级全景图。构建数据分类分级清单,实现数据分类分级可视化。同时产出一些数据分类分级运营机制,为数据安全分级保护打好基础,做好准备。

⑨入侵检测检测(IDS)

  • 主机入侵检测检测(HIDS)–主机侧

  • 网络入侵检测系统(NIDS)–流量侧

⑩入侵防御系统(IPS)

  • 主机入侵防御系统(HIPS)
  • 网络入侵防御系统(NIPS)

⑪Web应用防火墙(WAF)

⑫API安全

⑬零信任

⑭数据加密

统一身份认证(IAM)

什么是身份和访问管理? IAM、SSO、MFA 和 IDaaS 定义 | IBM

认证、授权和SSO是三个不同的概念。认证关注访问者身份是否合法,授权用于解决访问内容控制而SSO则用来改善登录多个服务时的用户体验。

认证:authentication,授权:authorization,SSO:Single sign-on。

一文读懂认证、授权和SSO,顺便了解一下IAM-腾讯云开发者社区-腾讯云 (tencent.com)

扩展检测与响应(XDR)

安全编排自动化与响应(SOAR)

XDR NDR

📚参考资料

❤️Sponsor

您的支持是我不断前进的动力,如果您感觉本文对您有所帮助的话,可以考虑打赏一下本文,用以维持本博客的运营费用,拒绝白嫖,从你我做起!🥰🥰🥰

支付宝 微信

文章作者: 简简
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 简简 !
评论
填上邮箱会收到评论回复提醒哦!!!
 上一篇
数安-对象存储(更新中) 数安-对象存储(更新中)
对象存储服务(Object Storage Service)是一种数据存储解决方案,将数据存储为对象,而不是传统的块存储或文件存储。对象存储系统具有高度的扩展性和灵活性,被广泛用于存储海量非结构化数据,如文档、图片、音视频文件等。然而,随
2024-08-03
下一篇 
大数据-Hadoop 大数据-Hadoop
前置知识大数据三个阶段 阶段 1:Hadoop 生态体系 阶段 2:Spark 离线计算 阶段 3:Flink 实时计算 大数据两个方向 离线开发方向——Hadoop、Spark 实时计算方向——Flink、Hbase 大数据核心工
2024-07-01
  目录