AWS Big Data - Athena presto和hive适用场景

    技术2024-01-30  119

    presto和hive的一些对比   

    1.本质区别 Hive是把一个查询转化成多个MapReduce任务,然后一个接一个执行。执行的中间结果通过对磁盘的读写来同步。然而,Presto没有使用MapReduce,它是通过一个定制的查询和执行引擎来完成的。它的所有的查询处理是在内存中,这也是它的性能很高的一个主要原因。 2.执行速度 presto由于是基于内存的,而hive是在磁盘上读写的,因此presto比hive快很多,但是由于是基于内存的当多张大表关联操作时易引起内存溢出错误 3.处理json类型的数据 presto处理如下:         select                  json_extract_scalar(xx['custom'],'$.position')         from table

    hive处理如下:         select                 get_json_object(xx['custom'],'$.position')         from table

    此外Presto还有一个函数json_extract是直接返回一个json串,根据需要自己需要选择函数

    4.列转行 Hive         select student, score from tests lateral view explode(split(scores, ',')) t as score;

    Presto        select student, score from tests cross json unnest(split(scores, ',') as t (score)  

    presto和hive适用场景

    snail_knight关注

    0.122017.05.08 22:08:12字数 593阅读 4,046

    经过评测:presto的平均性能是hive的10倍

    presto优点:数据源具有完全解耦,高性能,以及对ansi sql的支持特性,使得presto在etl,实时数据计算、ad-hoc查询和实时数据流分析等多个场景中能够发挥重要的作用。

     

    hive和presto可以作为互补适用:

    presto适合在单次扫描级别gb tb级别的数据

    hive适合海量级别的数据的计算

    presto分成两种场景:

    基于数据快照的实时计算:

    1、完成时间通常在200ms-20min

    完全实时计算:

    要完成实时计算,需要满足:

    (1)适用的基准数据需要实时更新,时刻保持与线上的数据保持一直

    (2)计算速度要够快速完成

    presto基于t+1数据的计算,

    在这种业务场景中,并不要求基准数据的实时更新,但要求数据查询要够快相应。

    因此采用 Treasure Data 提供的基于 Presto-gres 中的 ODBC 驱动改造之后的 ODBC 驱动连接到 Presto 集群。

    实时数据流分析:presto-kafka使用sql对kafka的数据进行清洗,分析和计算,在实际场景中两种使用场景:

    1、保留历史数据

    真实的测试过程中,Greenplum 表现并不理想,和 MySQL 对比,查询效率差了两个数量级。

    为此,我们做了查询效率低效的分析,如下:

    查询期间 Segment 节点 CPU 平均使用率峰值 14.67%,IO until 100%,内存使用率峰值 3.05%,网络流量峰值 0.03 Mbit/s,问题在于单机 IO 上;

    导入数据时间间隔为 4 月 1 号到 4 月 25 号,而查询时间间隔同样为为 4 月 1 号到 4 月 25 号,手动做了分区消除;

    分布键分布数据集中在单机,无法发挥 Greenplum 性能。

    于是,我们放弃了 Greenplum 方案,原因如下:

    导入数据慢;

    查询执行效率低;

    机器成本高,部署维护较复

     

    https://dbarobin.com/2016/09/24/bi-scheme/

    http://tech.dianwoda.com/2016/10/20/unt/

    http://hualong.iteye.com/blog/2102798

    Processed: 0.019, SQL: 9