首页 > 作文

Apache Linkis 中间件架构及快速安装步骤

更新时间:2023-04-06 05:31:55 阅读: 评论:0

1、apache linkis 介绍

linkis 在上层应用和底层引擎之间构建了一层计算中间件。通过使用linkis 提供的rest/websocket/jdbc 等标准接口,上层应用可以方便地连接访问spark, presto, flink 等底层引擎,同时实现跨引擎上下文共享、统一的计算任务和引擎治理与编排能力。

mysql/spark/hive/presto/flink 等底层引擎,同时实现变量、脚本、函数和资源文件等用户资源的跨上层应用互通。作为计算中间件,linkis 提供了强大的连通、复用、编排、扩展和治理管控能力。通过计算中间件将应用层和引擎层解耦,简化了复杂的网络调用关系,降低了整体复杂度,同时节约了整体开发和维护成本。

2.1 计算中间件概念

没有linkis之前

上层应用以紧耦合方式直连底层引擎,使得数据平台变成复杂的网状结构

有linkis之后

通过计算中间件将应用层和引擎层解耦,以标准化可复用方式简化复杂的网状调用关系,降低数据平台复杂度

2.2 整体架构

linkis 在上层应用和底层引擎之间构建了一层计算中间件。通过使用linkis 提供的rest/websocket/jdbc 等标准接口,上层应用可以方便地连接访问spark, presto, 我的乐园作文flink 等底层引擎。

2.3 核心特点

丰富的底层计算存储引擎支持。目前支持的计算存储引擎:spark、hive、python、presto、elasticarch、mlsql、tispark、jdbc和shell等。正在支持中的计算存储引擎:flink(>=1.0.2版本已支持)、impala等。支持的脚本语言:sparksql, hiveql, python, shell, pyspark, r, scala 和jdbc 等。强大的计算治理能力。基于orchestrator、label manager和定制的spring cloud gateway等服务,linkis能够提供基于多级标签的跨集群/跨idc 细粒度路由、负载均衡、多租户、流量控制、资源控制和编排策略(如双活、主备等)支持能力。全栈计算存储引擎架构支持。能够接收、执行和管理针对各种计算存储引擎的任务和请求,包括离线批量任务、交互式查询任务、实时流式任务和存储型任务;资源管理能力。resourcemanager 不仅具备 linkis0.x 对 yarn 和 linkis enginemanager 的资源管理能力,还将提供基于标签的多级资源分配和回收能力,让 resourcemanager 具备跨集群、跨计算资源类型的强大资源管理能力。统一上下文服务。为每个计算任务生成context id,跨用户、系统、计算引擎的关联管理用户和系统资源文件(jar、zip、properties等),结果集,参数变量,函数等,一处设置,处处自动引用;统一物料。系统和用户级物料管理,可分享和流转,跨用户、系统共享物料。

2.4 支持的引擎类型

引擎

引擎版本

linkis 0.x 版本要求

linkis 1.x 版本要求

说明

flink

1.12.2

>=dev-0.12.0, pr #703 尚未合并

>=1.0.2

flink engineconn。支持flinksql 代码,也支持以flink jar 形式启动一个新的yarn 应用程序。

impala

>=3.2.0, cdh >=6.3.0″

>=dev-0.12.0, pr #703 尚未合并

ongoing

impala engineconn. 支持impala sql 代码.

presto

>= 0.180

>=0.11.0

ongoing

presto engineconn. 支持presto sql 代码.

elasticarch

>=6.0

>=0.11.0

ongoing

elasticarch engineconn. 支持sql 和dsl 代码.

shell

bash >=2.0

>=0.9.3

>=1.0.0_rc1

shell engineconn. 支持bash shell 代码.

mlsql

>=1.1.0

>=0.9.1

ongoing

mlsql engineconn. 支持mlsql 代码.

jdbc

mysql >=5.0, hive >=1.2.1

>=0.9.0

>=1.0.0_rc1

jdbc engineconn. 已支持mysql 和hiveql,可快速扩展支持其他有jdb电影剧本c driver 包的引擎, 如oracle.

spark

apache 2.0.0~2.4.7, cdh >=5.4.0

>=0.5.0

>=1.0.0梦见牙掉了_rc1

spark engineconn. 支持sql, scala, pyspark 和r 代码.

hive

apache >=1.0.0, cdh >=5.4.0

>=0.5.0

>=1.0.0_rc1

hive engineconn. 支持hiveql 代码.

hadoop

apache >=2.6.0, cdh >=5.4.0

>=0.5.0

ongoing

hadoop engineconn. 支持hadoop mr/yarn application.

python

>=2.6

>=0.5.0

>=1.0.0_rc1

python engineconn. 支持python 代码.

tispark

1.1

>=0.5.0

ongoing

tispark engineconn. 支持用sparksql 查询tidb.

2、apache linkis 快速部署

2.1 注意事项

因为mysql-connector-java驱动是gpl2.0协议,不满足apache开源协议关于licen的政策,因此从1.0.3版本开始,提供的apache版本官方部署包,默认是没有mysql-connector-java-x.x.x.jar的依赖包,安装部署时需要添加依赖到对应的lib包中。

linkis1.0.3 默认已适配的引擎列表如下:

引擎类型

适配情况

官方安装包是否包含

python

1.0已适配

包含

shell

1.0已适配

包含

hive

1.0已适配

包含

spark

1.0已适配

包含

2.2 确定环境

2.2.1 依赖

引擎类型

依赖环境

特殊说明

python

python环境

日志和结果集如果配置hdfs://则依赖hdfs环境

jdbc

可以无依赖

日志和结果集路径如果配置hdfs://则依赖hdfs环境

shell

可以无依赖

日志和结果集路径如果配置hdfs://则依赖hdfs环境

hive

依赖hadoop和hive环境

spark

依赖hadoop/hive/spark

要求:安装linkis需要至少3g内存。

默认每个微服务jvm堆内存为512m,可以通过修改​​rver_heap_size​​来统一调整每个微服务的堆内存,如果您的服务器资源较少,我们建议修改该参数为128m。如下:

vim ${linkis_home}/deploy-config/linkis-env.sh# java application default jvm memory.export rver_heap_size="128m"

2.2.2 环境变量

官网示例:

#jdkexport java_home=/nemo/jdk1.8.0_141##如果不使用hive、spark等引擎且不依赖hadoop,则不需要修改以下环境变量#hadoop  export hadoop_home=/appcom/install/hadoopexport hadoop_conf_dir=/appcom/c注册公司的流程onfig/hadoop-config#hiveexport hive_home=/appcom/install/hiveexport hive_conf_dir=/appcom/config/hive-config#sparkexport spark_home=/appcom/install/sparkexport spark_conf_dir=/appcom/config/spark-config/export pyspark_allow_incure_gateway=1  # pyspark必须加的参数

示例:

2.3 安装包下载

​​https://linkis.apache.org/zh-cn/download/main​​

2.4 不依赖hdfs的基础配置修改

vi deploy-config/linkis-env.sh#ssh_port=22        #指定ssh端口,如果单机版本安装可以不配置deployur=hadoop      #指定部署用户linkis_install_home=/appcom/install/linkis    # 指定安装目录workspace_ur_root_path=file:///tmp/hadoop    # 指定用户根目录,一般用于存储用户的脚本文件和日志文件等,是用户的工作空间。result_t_root_path=file:///tmp/linkis   # 结果集文件路径,用于存储job的结果集文件engineconn_root_path=/appcom/tmp #存放ecp的安装路径,需要部署用户有写权限的本地目录entrance_config_log_path=file:///tmp/linkis/  #entrance的日志路径## ldap配置,默认linkis只支持部署用户登录,如果需要支持多用户登录可以使用ldap,需要配置以下参数:#ldap_url=ldap://localhost:1389/ #ldap_badn=dc=webank,dc=com

2.5 修改数据库配置

vi deploy-config/db.sh

2.6 安装

执行安装脚本:​​sh bin/install.sh​

install.sh脚本会询问您是否需要初始化数据库并导入元数据。

因为担心用户重复执行install.sh脚本,把数据库中的用户数据清空,所以在install.sh执行时,会询问用户是否需要初始化数据库并导入元数据。

2.7 检查是否安装成功

2.8 快速启动linkis

启动服务

sh sbin/linkis-start-all.sh

查看是否启动成功

可以在eureka界面查看服务启动成功情况,查看方法:

使用​​​http://${eureka_install_ip}:${eureka_port}​​​, 在浏览器中打开,查看服务是否注册成功。

如果您没有在config.sh指定eureka_install_ip和eureka_install_ip,则http地址为:http://127.0.0.1:2030中国最高的盆地3

默认会启动8个linkis微服务,其中图下linkis-cg-engineconn服务为运行任务才会启动

2.9 问题集

1、telnet

<-----start to check ud cmd---->check command fail need 'telnet' (your linux command not found)failed to  + check env

解决:sudo yum -y install telnet

2、connection exception

mkdir: call from hadoop01/192.168.88.111 to hadoop01:9820 failed on connection exception: java.net.connectexception: 拒绝连接; for more details e:  http://wiki.apache.org/hadoop/connectionrefudfailed to  + create hdfs:///tmp/linkis directory

解决:启动hdfs

到此这篇关于apachelinkis中间件架构及快速安装的文章就介绍到这了,更多相关apachelinkis中间件内容请搜索www.887551.com以前的文章或继续浏览下面的相关文章希望大家以后多多支持www.887551.com!

本文发布于:2023-04-06 05:31:49,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/zuowen/29de783c6582f2d119bee6bb7c79892a.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

本文word下载地址:Apache Linkis 中间件架构及快速安装步骤.doc

本文 PDF 下载地址:Apache Linkis 中间件架构及快速安装步骤.pdf

标签:引擎   用户   底层   中间件
相关文章
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图