手摸手教你搭建 api 网关

现在的项目有个需求,需要分析每一条 api 的请求时间,目前看到一套比较好的方案是 kong + Prometheus + Grafana,之前是听说过 kong 扩展性比较好,但一直没有实践的机会,借此机会来玩一玩核武器。

我熟悉的方式还是 docker,还是用它从头搭建这一套系统。

立个 flag,今年必须学会 kubernetes

参考了多篇文章各取所长,理顺了各个软件之间关系之后,发现网上的这些方法都过于复杂,很多文章也是相互拼凑,容器化不像容器化,其实 kong、Prometheus、Grafana 之间的兼容性已经足够好了,我在操作过程中确实也踩了一些坑,但是我已经可以将他们彻底容器化部署了。

运行 kong

创建子网

1
docker network create kong-net

运行数据库

创建数据库

1
2
3
4
5
6
7
docker run -d --name kong-database \
--network=kong-net \
-p 5432:5432 \
-e "POSTGRES_USER=kong" \
-e "POSTGRES_DB=kong" \
-e "POSTGRES_PASSWORD=kong" \
postgres:9.6

数据库迁移

1
2
3
4
5
6
7
docker run --rm \
--network=kong-net \
-e "KONG_DATABASE=postgres" \
-e "KONG_PG_HOST=kong-database" \
-e "KONG_PG_PASSWORD=kong" \
-e "KONG_CASSANDRA_CONTACT_POINTS=kong-database" \
kong:1.5 kong migrations bootstrap

运行 kong

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
docker run -d --name kong \
--network=kong-net \
-e "KONG_DATABASE=postgres" \
-e "KONG_PG_HOST=kong-database" \
-e "KONG_PG_PASSWORD=kong" \
-e "KONG_CASSANDRA_CONTACT_POINTS=kong-database" \
-e "KONG_PROXY_ACCESS_LOG=/dev/stdout" \
-e "KONG_ADMIN_ACCESS_LOG=/dev/stdout" \
-e "KONG_PROXY_ERROR_LOG=/dev/stderr" \
-e "KONG_ADMIN_ERROR_LOG=/dev/stderr" \
-e "KONG_ADMIN_LISTEN=0.0.0.0:8001, 0.0.0.0:8444 ssl" \
-p 8000:8000 \
-p 8443:8443 \
-p 8001:8001 \
-p 8444:8444 \
kong:1.5

运行 kong gui

运行 kong-dashboard

建议直接跳过,dashboard 可以运行,但是前端尽是报错,github上面的issue也没人处理,应该是不维护了。

1
2
3
4
5
6
docker run 	--network=kong-net \
--name kong-dashboard \
-p 8080:8080 \
-d pgbi/kong-dashboard \
start --kong-url http://kong:8001 \
--basic-auth user1=password1

运行 konga

1
2
3
4
5
docker run -p 8080:1337 \
--network kong-net \
--name konga \
-e "NODE_ENV=production" \
-d pantsel/konga:0.14.7

运行 prometheus

1
2
3
4
5
docker run --name prometheus \
--network=kong-net \
-p 9090:9090 \
-v /root/prometheus/prometheus.yml:/etc/prometheus/prometheus.yml \
-d prom/prometheus:v2.16.0

prometheus.yml 文件配置如下

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
global:
scrape_interval: 15s # By default, scrape targets every 15 seconds.

# Attach these labels to any time series or alerts when communicating with
# external systems (federation, remote storage, Alertmanager).
external_labels:
monitor: 'codelab-monitor'

# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
# The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
- job_name: 'prometheus'

# Override the global default and scrape targets from this job every 5 seconds.
scrape_interval: 5s

static_configs:
- targets: ['kong:8001']

核心点就是上面的 targets,相信很多分析类的文章都没有提到。

运行 grafana

1
docker run -d --network=kong-net --name=grafana -p 3000:3000 grafana/grafana:6.6.2

运行之后,直接添加一个 dashboard 即可。

小节一下

api 经过 kong,会留下日志,prometheus 通过 kong:8001 端点标准化采集的日志,
grafana 通过 prometheus 得到标准后的日志进行展示。

参考文档

坚持原创技术分享,您的支持将鼓励我继续创作!