Hadoop中几种列式存储的区别和联系

第一章 相关理论

1.1 Parquet格式介绍

1.1.1 起源与发展

Parquet,作为Hadoop生态系统中的一种新型列式存储格式,由Cloudera和Twitter公司联手开发,并已跻身至Apache软件基金会的顶级项目之列。自其诞生以来,便以高效的压缩和编码方式,以及卓越的跨平台支持性,在大数据处理领域崭露头角,展现出不可忽视的优势。这种格式的设计初衷是为了应对大数据场景下存储和查询性能的挑战,通过列式存储和高效压缩等技术手段,显著提升数据处理的效率和响应速度。

在Hadoop生态系统中,Parquet格式与多种开源和商业分布式计算和分析系统表现出良好的兼容性,如Hadoop、Spark、Hive等。这使得Parquet能够轻松应对不同平台和数据处理需求,为用户提供灵活且高效的数据存储解决方案。随着大数据技术的不断发展和普及,Parquet格式的应用范围也在不断扩大,逐渐成为大数据领域不可或缺的存储格式之一。

1.1.2 特点与优势

  • 列式存储:Parquet的核心特性之一便是其列式存储方式。在这种方式下,同一列的数据被紧密地存储在一起,从而大幅减少了I/O操作的数量。当查询只需要访问部分列时,这种存储方式能够显著提高查询性能,因为系统无需加载和扫描整行数据,而只需关注所需的列即可。
  • 高效压缩:为了进一步优化存储空间和传输效率,Parquet支持多种压缩算法,包括Snappy、Gzip和LZO等。这些算法可以根据数据的特征进行动态选择,以实现最佳的压缩效果。通过减少存储空间和网络传输的数据量,Parquet不仅降低了存储成本,还加快了数据处理的速度。
  • 跨平台支持:Parquet格式的另一个显著优势是其广泛的跨平台支持性。无论是开源系统还是商业系统,无论是Hadoop、Spark还是Hive,Parquet都能与之无缝对接。这种兼容性使得用户能够轻松地在不同平台之间迁移数据,而无需担心数据格式不兼容的问题。这不仅提高了数据的可移植性,还为用户提供了更多的选择和灵活性。
  • Schema Evolution:在大数据处理过程中,数据模式的变更是一个常见的需求。为了应对这一挑战,Parquet支持Schema Evolution功能。这意味着用户可以在不破坏数据完整性的前提下升级和演化数据模式。这一特性大大简化了数据维护的过程,降低了因模式变更而带来的风险和成本。

1.2 ORC格式介绍

ORC(Optimized Row Columnar)格式,起源于Hive社区,并随后成为Apache软件基金会旗下的一个项目,代表了一种高效的列式存储方案。这种格式主要针对数据仓库和大规模数据分析应用而设计,其高性能和自定义类型支持的特性,使得它在处理复杂数据结构和大规模数据集时表现出色。随着大数据技术的不断发展,ORC格式逐渐成为数据科学家和工程师们在进行数据分析和处理时的重要选择之一。

ORC格式的发展历程与Hadoop生态系统的壮大紧密相连。作为Hadoop生态中的一员,ORC格式不断优化和完善,以适应日益复杂的数据处理需求。从最初的版本到现在,ORC格式在性能、稳定性和易用性等方面都取得了显著的进步,赢得了广泛的认可和应用。

ORC格式的特点和优势主要体现在以下几个方面:

1、多级结构:ORC文件由多个条带(Stripe)和行组(Row Group)构成,这种设计使得数据在物理存储上更加紧凑,有助于提高查询性能和数据压缩率。条带是ORC文件的基本组成单元,而每个条带又进一步细分为多个行组,这样的结构使得数据读取更加高效,尤其是在处理大规模数据集时。

2、高性能:ORC格式采用了基于内存的压缩技术,能够在数据写入过程中实时进行压缩,从而减少了存储空间的占用。同时,ORC还支持数据类型推断,能够根据数据的特征自动选择最合适的压缩算法,进一步提升了性能。这些技术手段共同作用,使得ORC格式在数据写入速度和存储空间占用方面都表现出色。

3、自定义类型支持:ORC格式能够处理多种复杂的数据类型,包括嵌套的数据结构、变长数组等。这种灵活性使得ORC格式在存储非常规数据和半结构化数据时具有显著的优势。用户可以根据实际需求定义数据类型,并利用ORC格式的高效存储机制进行管理和分析。

4、索引与过滤:为了提高查询速度并降低存储成本,ORC格式提供了丰富的索引和过滤机制。例如,通过行索引可以快速定位到特定的数据行,而布隆过滤器则可以在查询过程中有效过滤掉不符合条件的数据,从而减少了不必要的数据读取和处理开销。这些功能对于提升数据分析的效率和准确性至关重要。

1.3 Avro格式介绍

Avro,全称为Apache Avro,是一个数据序列化系统,其核心特点在于跨语言支持和动态映射功能,以及丰富的数据模式与灵活性。这些特性使得Avro在大数据处理、数据交换和存储等场景中具有广泛的应用价值。

1.3.1 跨语言支持

Avro设计之初就考虑到了跨语言的需求。在现代软件开发中,多种编程语言的混合使用已成为常态,特别是在大数据和云计算领域。Avro通过定义一种与语言无关的数据模式,使得不同语言之间可以无缝地交换和处理数据。这种设计极大地提高了系统的可扩展性和兼容性,降低了多语言环境下的数据集成成本。

Avro定义了一种IDL(接口定义语言),用于描述数据的结构和类型。通过这种IDL,开发者可以定义复杂的数据结构,并将其编译成多种编程语言的源代码。这些生成的源代码包含了用于序列化和反序列化Avro数据的函数和方法,从而实现了跨语言的数据交换。

1.3.2 动态映射

除了跨语言支持外,Avro还提供了动态映射功能。这意味着在读取Avro数据时,不需要提前知道数据的具体模式。相反,Avro数据文件中包含了模式信息,读取器可以动态地解析这些数据模式,并将其映射到相应的数据结构上。这种动态映射机制使得Avro能够灵活地处理各种变化的数据模式,降低了数据处理的复杂性。

1.3.3 丰富的数据模式

Avro支持丰富的数据模式,包括原始类型(如整数、浮点数、字符串等)、复杂类型(如记录、枚举、数组、映射等)以及用户自定义类型。这些丰富的数据模式使得Avro能够准确地描述各种实际场景中的数据结构和语义关系。同时,Avro还支持模式的继承和组合,进一步提高了数据模式的表达能力和复用性。

1.3.4 数据模式灵活性

Avro的另一个显著特点是其数据模式的灵活性。在Avro中,读数据模式不必与写数据模式完全相同。只要满足一定的兼容性条件(如字段的添加、删除或修改等),读写双方就可以正常地交换和处理数据。这种灵活性使得Avro能够应对数据模式变更带来的挑战,降低了系统维护和升级的成本。

在一个分布式系统中,不同的组件可能使用不同的数据模式来描述和处理同一份数据。通过利用Avro的数据模式灵活性,这些组件可以在不修改代码的情况下实现数据的互操作性和一致性保证。

Avro以其跨语言支持、动态映射、丰富的数据模式以及数据模式灵活性等特点,在大数据和分布式计算领域展现出了强大的生命力和广泛的应用前景。

第二章 格式性能比较

2.1 读写性能对比

在大数据处理领域,数据存储格式的读写性能是至关重要的考量因素。Parquet、ORC和Avro作为三种广泛应用的数据存储格式,各自在读写性能上展现出不同的特点。

Parquet格式,以其列式存储特性而闻名,这种存储方式在写入数据时需要将同一列的所有值连续写入磁盘。这一过程中,虽然列内数据的连续性得到了优化,但频繁的磁盘I/O操作和时间成本也相应增加。在读取数据时,Parquet的列式存储方式显示出其优势。由于只需读取查询相关的列数据,而非整行数据,因此大大减少了不必要的数据读取,从而提高了读取性能。

相较于Parquet,ORC格式在写入性能上有所优化。ORC采用了高效的压缩和编码技术,结合基于内存的写入策略,显著减少了写入时的磁盘I/O次数和数据量,从而提升了写入性能。此外,ORC的多级结构设计和索引机制也为查询性能的提升做出了贡献。这种结构使得数据在物理存储上更加紧凑,同时索引的使用也加速了数据的检索速度。

Avro格式则是一种面向行的存储格式,它在读写性能上表现出相对的均衡性。由于Avro以行为单位进行数据的存储和读取,因此在处理结构化数据时,其读写性能相对稳定。当遇到复杂数据结构和嵌套数据时,Avro的读写性能可能会受到一定影响。这是因为复杂的数据结构需要更多的解析和处理时间,从而增加了读写的开销。

Parquet、ORC和Avro三种数据存储格式在读写性能上各有千秋。Parquet的列式存储方式使其在读取性能上具有优势,但写入性能相对较弱;ORC则通过高效的压缩和编码技术以及多级结构设计,在写入和查询性能上均表现出色;而Avro格式则在处理结构化数据时展现出稳定的读写性能,但在处理复杂数据结构时可能面临挑战。在实际应用中,应根据具体需求和场景选择合适的数据存储格式。

2.2 查询性能对比

在大数据处理和分析领域,查询性能是衡量数据存储格式优劣的关键指标之一。Parquet、ORC和Avro作为三种主流的数据存储格式,在查询性能上各有千秋。

Parquet以其列式存储方式在查询性能上表现出色。由于数据按列存储,当执行查询时,系统只需读取与查询相关的列数据,而非整行数据,从而显著减少了I/O操作的数量。这种优化对于宽表(即列数较多的表)尤为有效,因为在此类场景下,每次查询往往只涉及少数几列。此外,Parquet还支持多种列式存储的编码方式,如RLE(Run-Length Encoding)和Delta编码等,这些编码方式能够进一步压缩数据,减少存储空间和I/O操作的数量,进而提升查询性能。

ORC格式则通过其独特的多级结构、索引机制和过滤技术来优化查询性能。ORC文件由多个条带(Stripe)组成,每个条带内又包含多个行组(Row Group),这种结构使得数据在物理存储上更加紧凑,有助于减少I/O操作的次数。同时,ORC还为每个条带和行组建立了索引,这些索引能够在查询过程中快速定位到相关数据,从而提高查询速度。此外,ORC还支持布隆过滤器等过滤技术,这些技术能够在读取数据之前先过滤掉不符合查询条件的数据,进一步减少了不必要的I/O操作和资源消耗。因此,在处理大数据量的查询时,ORC往往能够提供更快的响应时间和更低的资源消耗。

相较于Parquet和ORC,Avro在查询性能上可能稍逊一筹。这是因为Avro是一种面向行的存储格式,当执行查询时,系统需要读取整行数据以满足查询需求。这种读取方式在处理简单数据结构和少量数据时可能并无明显劣势,但在处理复杂数据结构和大量数据时,由于需要读取更多的无关数据,因此可能会增加I/O操作的数量和查询时间。值得注意的是,Avro在跨语言支持和数据模式灵活性方面具有显著优势,这些优势使得Avro在某些特定场景下仍然具有不可替代的价值。

Parquet、ORC和Avro三种数据存储格式在查询性能上各有优势。Parquet凭借其列式存储方式和多种编码方式支持在宽表查询等场景中表现突出;ORC则通过多级结构、索引机制和过滤技术在大数据量查询中占据领先地位;而Avro虽然在查询性能上可能稍逊于前两者,但其在跨语言支持和数据模式灵活性方面的优势使得其在某些特定场景下仍具有广泛应用前景。在实际应用中,用户应根据具体需求和场景选择合适的数据存储格式以最大化查询性能和其他相关指标。

2.3 压缩率对比

在数据存储领域,压缩率是一个关键指标,它直接影响存储成本和数据传输效率。Parquet、ORC和Avro这三种数据存储格式在压缩率方面各有特点。

Parquet以其高效的压缩机制著称,支持多种压缩算法,如Snappy、Gzip等。这些算法能够根据数据的特征动态选择最适合的压缩方式,从而在保证数据质量的同时,最大化地减少存储空间占用。Parquet在压缩时还会利用数据的局部性和重复性,进一步提高压缩比。这种灵活性使得Parquet在处理各种类型的数据时都能表现出色,特别是在大数据场景下,其压缩优势更加明显。

ORC格式同样支持多种压缩算法,并且其多级结构和索引机制在压缩过程中发挥了重要作用。这些特性有助于在压缩时进一步减少存储空间,提高数据的存储密度。由于ORC是专门针对列式存储进行优化的格式,其压缩率通常高于基于行的存储格式。这意味着在使用ORC格式时,用户可以更有效地管理存储空间,降低存储成本。

Avro格式在压缩率方面略显逊色。虽然Avro也支持压缩技术,但由于其面向行的存储特性,压缩率相对较低。这主要是因为Avro在处理数据时,需要保留整行数据的完整性,从而在一定程度上限制了压缩算法的优化空间。在处理简单数据结构和不需要高压缩比的应用场景中,Avro仍然是一个不错的选择。其跨语言支持和动态映射功能为数据处理提供了极大的便利性。

Parquet、ORC和Avro这三种数据存储格式在压缩率方面各有优劣。在选择使用哪种格式时,用户需要根据实际需求和场景进行权衡。例如,在处理大数据量且对存储空间有严格要求的情况下,Parquet和ORC可能是更为合适的选择;而在处理简单数据结构或需要跨语言支持的应用中,Avro则可能更具优势。

第三章 格式压缩率比较

3.1 Parquet压缩率分析

Parquet的压缩率优势主要体现在其列式存储设计和对多种压缩算法的支持上。列式存储意味着相同类型的数据被聚集在一起,这样的数据局部性使得压缩算法能够更有效地工作。例如,对于整数列,连续的整数值可能只需存储差值,从而大大减少存储空间。此外,Parquet支持如Snappy、Gzip等多种压缩算法,这些算法可以根据数据的特性进行选择,以达到最佳的压缩效果。

在实际应用中,Parquet的压缩率往往受到数据特征、压缩算法选择和配置参数等多种因素的影响。例如,对于包含大量重复值的数据列,使用RLE(Run-Length Encoding)编码可以显著提高压缩率。而对于包含大量唯一值的数据列,则可能需要选择其他更适合的压缩算法。

Parquet还支持在压缩时进行数据分块和索引的创建,这些功能可以进一步提高查询性能和数据的可管理性。通过合理配置这些参数,用户可以在保证查询性能的同时,实现更高的数据压缩率,从而降低存储成本和网络传输开销。

Parquet通过其列式存储设计和对多种压缩算法的支持,提供了一种高效且灵活的数据存储解决方案。这使得它在处理大规模数据分析任务时,能够显著减少存储空间的需求,并提高查询性能。然而,为了充分发挥Parquet的压缩率优势,用户需要根据具体的应用场景和数据特征进行合理的配置和优化。

3.2 ORC压缩率分析

ORC格式的压缩率是其在大数据存储领域备受瞩目的关键特性之一。这种高效的列式存储格式通过一系列精心设计的压缩策略和机制,显著降低了存储空间的占用,提高了数据的处理效率。

ORC的压缩机制得益于其列式存储结构。在列式存储中,相同类型的数据被连续存储,这种数据局部性为高效压缩提供了有利条件。由于同一列中的数据往往具有相似的模式和范围,因此可以采用更为精细的压缩算法来减少冗余信息。

ORC支持多种压缩算法,如ZLIB、Snappy等,这些算法在数据压缩方面各具特色。例如,ZLIB压缩算法具有较高的压缩比,但压缩和解压速度相对较慢;而Snappy则以其快速的压缩和解压速度著称,尽管压缩比可能略逊于ZLIB。ORC能够根据数据的特征和查询需求,灵活选择合适的压缩算法,以在压缩率和性能之间达到最佳平衡。

ORC的多级存储结构也为其高压缩率贡献了一份力量。ORC文件由多个条带(Stripe)组成,每个条带又进一步划分为多个行组(Row Group)。这种结构使得数据在物理存储上更加紧凑,减少了存储空间的浪费。同时,行组级别的压缩技术能够更有效地去除行内的冗余信息,提高压缩效率。

在实际应用中,ORC格式的压缩率表现令人印象深刻。以大规模数据分析场景为例,当处理包含数十亿行、数千列的数据集时,ORC的高压缩率能够显著减少存储成本和网络传输开销。这不仅降低了企业的运营成本,还提高了数据处理的效率和响应速度。

ORC格式通过其列式存储结构、多种压缩算法的支持以及多级存储结构的设计,实现了出色的压缩率表现。这使得ORC在大数据存储和处理领域具有广泛的应用前景和显著的竞争优势。

3.3 Avro压缩率分析

Avro格式,作为一种数据序列化系统,虽然其核心优势并不在于压缩率,但在数据交换和存储中,压缩率仍然是一个不可忽视的指标。在此,我们将深入分析Avro的压缩能力,并将其与Parquet和ORC两种格式进行比较。

Avro格式本身支持数据压缩,允许用户在序列化数据时选择是否启用压缩,以及使用哪种压缩算法。常见的压缩算法,如Deflate、Snappy等,都可以与Avro配合使用。然而,需要注意的是,Avro的压缩通常是在整个消息或记录级别进行的,而不是像Parquet或ORC那样在更细粒度的列级别。

这种压缩策略的差异对Avro的压缩率产生了直接影响。在处理具有大量重复值或可预测模式的列数据时,列级压缩通常能取得更好的效果。相比之下,Avro的行级压缩在处理这类数据时可能效率较低,因为它无法充分利用列内数据的相似性来优化压缩比。

不过,Avro的压缩率表现并非一无是处。在处理包含多种数据类型和复杂结构的记录时,Avro的灵活性可能使其在某些情况下达到合理的压缩效果。特别是当记录中的字段具有不同的数据类型和大小,且这些字段的值分布相对均匀时,Avro的压缩算法可能能够有效地减少数据的总体大小。

与Parquet和ORC相比,Avro在压缩率方面通常不占优势。这是因为Parquet和ORC专门为列式存储和高效压缩而设计,它们能够更精细地控制数据的压缩方式,从而在大多数情况下实现更高的压缩比。然而,Avro的跨语言支持和动态映射功能使其在某些特定应用场景中仍具有吸引力,尽管这可能以牺牲一定的压缩率为代价。

3.4 综合评估与选择建议

在综合评估Parquet、ORC和Avro三种数据存储格式的性能与压缩率后,我们可以得出以下选择建议:

对于需要高效查询性能的场景,Parquet和ORC都是优秀的选择。Parquet以其列式存储方式在查询性能上表现出色,特别适合在大数据处理中进行高效的数据分析。而ORC则通过其多级结构、索引和过滤技术,提供了更快的查询响应时间和更低的资源消耗,尤其在处理复杂查询和大数据量时更为突出。

在压缩率方面,Parquet和ORC同样表现出较高的水平。它们支持多种压缩算法,并能根据数据特征进行动态选择,从而实现更高的压缩比。这对于节省存储空间和网络传输成本具有重要意义。相比之下,Avro在压缩率上稍显逊色,其面向行的存储特性限制了压缩效率的提升。

在选择数据存储格式时,应充分考虑实际应用场景的需求。如果查询性能是首要考虑因素,且数据量较大,那么Parquet或ORC将是更为合适的选择。具体而言,如果数据模式相对稳定,且需要支持跨平台和多种计算框架,Parquet可能更具优势;而如果数据模式变化频繁,且需要更高的写入性能和自定义类型支持,ORC则可能更为适合。

如果应用场景对压缩率有较高要求,但查询性能不是主要瓶颈,那么Avro仍然是一个值得考虑的选择。特别是在处理简单数据结构和少量数据时,Avro的均衡性能表现可能更为符合实际需求。

在选择数据存储格式时,应全面评估性能、压缩率以及实际应用场景的需求,从而做出最为合理的选择。

第四章 实际应用案例与分析

4.1 Parquet在Hadoop中的应用

Parquet格式在Hadoop生态系统中的应用广泛且深入,得益于其列式存储、高效压缩和跨平台支持等特性。在Hadoop分布式文件系统(HDFS)上,Parquet文件被大量用于存储和分析大规模数据集。

在Hadoop生态系统中,Parquet与多种数据处理和分析工具紧密结合,如Hive、Spark等。在Hive中,用户可以通过创建Parquet格式的外部表或分区表,实现对大规模数据的快速查询和分析。由于Parquet的列式存储特性,Hive在执行查询时只需扫描相关列的数据,从而显著提高了查询性能。

在Spark中,Parquet格式也被广泛采用。Spark SQL可以直接读取和写入Parquet文件,这使得在Spark上进行数据分析和处理变得更加高效。由于Parquet文件的高压缩率,它可以减少网络传输和存储的数据量,进而提高了Spark作业的执行效率。

除了与Hadoop生态系统的紧密集成外,Parquet还通过支持Schema Evolution功能,为数据模式的升级和演化提供了极大的灵活性。这意味着,在数据模式发生变化时,无需重新处理或转换现有数据,从而节省了时间和资源。

总的来说,Parquet格式在Hadoop生态系统中的应用充分体现了其高效、灵活和可扩展的特点。无论是在数据存储、查询性能还是在数据处理和分析方面,Parquet都展现出了显著的优势,成为Hadoop生态系统中不可或缺的一部分。

4.2 ORC在Spark SQL中的应用

在大数据处理和分析领域,Apache Spark已成为一个非常重要的开源框架,而Spark SQL作为其上的结构化数据处理模块,对于高效的数据存储格式有着极高的需求。ORC格式,以其独特的优势,在Spark SQL中得到了广泛的应用。

ORC的多级存储结构使其与Spark SQL的查询优化策略相得益彰。在Spark SQL中执行查询时,通常会涉及到数据的扫描、过滤和聚合等操作。ORC的条带(Stripe)和行组(Row Group)结构,使得Spark SQL能够更有效地进行数据的分区和并行处理,从而提高查询性能。

ORC的索引机制在Spark SQL中发挥了重要作用。ORC文件包含多种索引,如行索引、布隆过滤器等,这些索引在查询过程中能够帮助Spark SQL快速定位到所需数据,减少不必要的数据扫描,从而显著提升查询速度。特别是在处理大规模数据时,索引的作用更加明显。

ORC格式还支持丰富的数据类型和自定义类型,这使得它在处理复杂数据结构时具有更高的灵活性。在Spark SQL中,用户经常需要处理各种结构化的数据,如嵌套数组、结构体等。ORC格式能够轻松应对这些复杂数据类型,保证数据的完整性和查询的准确性。

ORC格式的高效压缩技术也为Spark SQL带来了显著的存储和性能优势。通过采用先进的压缩算法,ORC能够在保证数据质量的同时,大幅减少存储空间占用和网络传输成本。这在Spark SQL处理大规模数据集时尤为重要,可以有效降低系统的整体负载和资源消耗。

ORC格式在Spark SQL中的应用表现出了显著的性能优势和灵活性。其多级存储结构、索引机制、丰富的数据类型支持以及高效压缩技术,共同为Spark SQL用户提供了更加高效、可靠的数据处理和分析体验。

4.3 Avro在数据序列化中的应用

Avro格式在数据序列化和传输领域展现出了其独特的优势和应用价值。作为一种独立于编程语言的数据序列化系统,Avro为不同语言之间的数据交换提供了便捷的解决方案。

在实际应用中,Avro的跨语言支持特性使得其成为多语言环境下的理想选择。例如,在一个由Java、Python和C++等多种编程语言组成的复杂系统中,不同组件之间需要进行数据交换。通过使用Avro,这些组件可以轻松地序列化和反序列化数据,而无需担心语言之间的差异。

Avro的动态映射功能也为其在数据序列化和传输中的应用增添了灵活性。这一功能允许在运行时动态地解析和处理数据,从而适应了不断变化的数据结构和需求。例如,在一个实时数据流处理场景中,数据的模式可能会随着时间和业务需求的变化而发生变化。通过使用Avro,系统可以灵活地处理这些变化,而无需进行大量的代码修改和重新部署。

除了跨语言支持和动态映射外,Avro还以其丰富的数据模式解析能力而著称。这意味着Avro可以支持复杂的数据结构,包括嵌套的数据类型、数组和映射等。这使得Avro在处理复杂数据时具有出色的表现,能够满足各种复杂应用场景的需求。

在数据传输方面,Avro也展现出了其优势。由于其高效的序列化机制,Avro可以将数据压缩成较小的二进制格式,从而减少网络传输的数据量。这在分布式系统和云计算环境中尤为重要,可以显著降低网络带宽的消耗和传输延迟。

Avro格式在数据序列化和传输中的应用广泛且效果显著。其跨语言支持、动态映射和丰富的数据模式解析能力等特点使得它成为处理复杂数据和满足不同语言间数据交换需求的理想选择。无论是在实时数据流处理、分布式计算还是云计算等场景中,Avro都发挥着不可或缺的作用。

相关推荐
市值水晶12 分钟前
极越汽车,加速跌落
大数据·人工智能
我爱写代码?2 小时前
scala的隐式转换
大数据·开发语言·scala
华为云开发者联盟3 小时前
想提高查询性能,用GaussDB(DWS) in表达式还是or表达式?
大数据·数据库·sql
出发行进3 小时前
Hadoop其一,介绍本地模式,伪分布模式和全分布搭建
大数据·运维·hadoop·分布式
Smile丶凉轩3 小时前
Redis的分布式锁
数据库·redis·分布式
Rverdoser3 小时前
【Spark】Spark Join类型及Join实现方式
大数据·分布式·spark
qq_254674413 小时前
动态建立VXLAN隧道L2、L3子网互访实验(分布式式网关场景)
分布式
Elastic 中国社区官方博客3 小时前
Elastic 8.17:Elasticsearch logsdb 索引模式、Elastic Rerank 等
大数据·数据库·人工智能·sql·elasticsearch·搜索引擎·全文检索
yunfei_run3 小时前
elasticsearch集群升级登录认证
java·大数据·后端·spring·elasticsearch