【使用docker nginx tomcat】使用Docker+nginx+tomcat7配置负载均衡步骤

更新时间:2020-03-25    来源:php安装    手机版     字体:

【www.bbyears.com--php安装】

本文介绍在Docker上配置简单的负载均衡,宿主机为Ubuntu 14.04.2 LTS,两个CentOS容器,宿主机安装Nginx,两台容器安装tomcat7。结构如下:

此方案的原理是将宿主机的端口和docker容器的端口做一个映射(即访问宿主机的某端口会映射到docker容器对应的端口),然后在宿主机通过配置Nginx,即可达到访问宿主机的某端口,按规则分配到指定的服务地址,即完成了负载均衡。

配置步骤

1.准备宿主机,宿主机是Ubuntu 14.04.2 LTS,安装在Vmware中,具体安装方式不做赘述。

2.在宿主机中安装Nginx,直接用如下命令即可。

sudo apt-get install nginx

安装完成后,可以查看Nginx是否安装完成,可以用如下命令查看版本,打印出Nginx版本,则说明安装成功。

$ nginx -v

nginx version: nginx/1.4.6 (Ubuntu)

之后,可以用如下命令启动Nginx服务:

#启动服务
$ sudo service nginx start
 
#查看服务状态
$ sudo service nginx status
* nginx is running   #说明服务是启动状态

在浏览器中访问http://localhost,显示结果如下:

 

3.下载Docker镜像,用docker pull命令即可,具体镜像操作可参看这篇文章  

4.启动一个容器并设置端口映射,其中一台命令如下:

sudo docker run -t -i -p 3222:22 -p 3280:80 87e5b6b3ccc1 /bin/bash

上面的命令是以标准的bash输出方式启动一个容器,设置端口映射,用-p参数,-p 宿主机端口:docker容器端口 ,上面的命令是设置宿主机的3222端口映射到容器的22端口,设置宿主机的3280的端口映射到容器的80端口。

5.在容器中安装jre和tomcat7.0,安装jre

wget -O jre-7u6-linux-x64.rpm http://javadl.sun.com/webapps/download/AutoDL?BundleId=67387
 
yum install jre-7u6-linux-x64.rpm

查看jre是否安装成功

java -version
java version "1.7.0_06"
Java(TM) SE Runtime Environment (build 1.7.0_06-b24)
Java HotSpot(TM) 64-Bit Server VM (build 23.2-b09, mixed mode)

安装tomcat7.0

wget http://apache.fayea.com/tomcat/tomcat-7/v7.0.65/bin/apache-tomcat-7.0.65.tar.gz
tar -zxvf  apache-tomcat-7.0.65.tar.gz

启动tomcat,进入解压目录,cd到bin目录,执行命令并输入如下信息,说明tomcat启动成功

bash startup.sh
Using CATALINA_BASE:   /home/apache-tomcat-7.0.65
Using CATALINA_HOME:   /home/apache-tomcat-7.0.65
Using CATALINA_TMPDIR: /home/apache-tomcat-7.0.65/temp
Using JRE_HOME:        /usr
Using CLASSPATH:       /home/apache-tomcat-7.0.65/bin/bootstrap.jar:/home/apache-tomcat-7.0.65/bin/tomcat-juli.jar
Tomcat started.

由于tomcat默认端口是8080,这里设置的是80端口,所以,需要修改默认端口到80,进入tomcat安装目录的conf目录,用vi打开server.xml文件,将如下配置

              connectionTimeout="20000"
              redirectPort="8443" />

修改为

              connectionTimeout="20000"
              redirectPort="8443" />

之后,在这台docker容器中,访问http://localhost,可以访问到tomcat主页,说明tomcat安装并配置成功。

6.进入tomcat的webapps/ROOT目录中,由于这个容器的ip为172.17.0.2,创建一个hello.html文件,在文件中写上如下内容“hello this is 172.17.0.2”,然后在宿主机访问http://172.17.0.2/hello.html,显示内容如下:




7.同上面的步骤一致,配置另外一台容器,只是容器启动时设置的映射端口有所区别,命令如下:
   
sudo docker run -t -i -p 3322:22 -p 3380:80 87e5b6b3ccc1 /bin/bash

最后在这台容器tomcat安装目录的webapps/ROOT目录下创建hello.html文件,因为这台容器的ip为172.17.0.3,所以hello.html文件中填入的内容为“hello this is 170.17.0.3”,之后在宿主机访问http://172.17.0.3/hello.html,显示如下内容:




8.容器配置完成后,剩下的工作就是配置宿主机的Nginx,用来完成负载均衡工作。

进入/etc/nginx目录,用vim编辑nginx.conf,在http节点中增加如下内容:

server {
                listen 80;
                server_name 192.168.1.106;
                location  / {
                        proxy_pass http://blance;
                }
        }
 
        upstream blance{
                server localhost:3280 weight=5;
                server localhost:3380 weight=5;
        }

首先定义一个upstream,设置web服务器的端口映射和权重,之后定义一个server,监听80端口,server_name为192.168.1.106,这是宿主机的ip地址(可配置成域名),“location /” 意思是监听80端口下的所有请求,并使用上面设置的upstream作为代理。

9.完成以上配置并保存后,在浏览器中访问http://192.168.1.106/hello.html,并刷新页面,会发现页面有时显示“hello this is 172.17.0.3”,有时显示“hello this is 172.17.0.2”,说明配置成功,这样就完成了一个简单的负载均衡环境的配置。


Nginx+Tomcat 负载均衡集群方案

该方案是我之前做过的一个项目生产应用的,目前运行良好,如何您生产使用,请先做好测试。

系统架构图

nginx负载均衡

下载软件包

" ][root@Nginx-node1 src]# cd /usr/local/src
[root@Nginx-node1 src]# wget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-8.02.tar.gz
[root@Nginx-node1 src]# wget http://nginx.org/download/nginx-0.8.34.tar.gz
[root@Nginx-node1 src]# wget http://www.keepalived.org/software/keepalived-1.1.19.tar.gz
[root@Nginx-node1 src]# chmod +x *
[root@Nginx-node1 src]# ls -l
-rwxr-xr-x 1 root root  241437 10-01 17:25 keepalived-1.1.19.tar.gz
-rwxr-xr-x 1 root root  621534 03-04 01:00 nginx-0.8.34.tar.gz
-rwxr-xr-x 1 root root 1247730 03-31 16:31 pcre-8.02.tar.gz

" ][root@Nginx-node1 src]# cd /usr/local/src
[root@Nginx-node1 src]# wget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-8.02.tar.gz
[root@Nginx-node1 src]# wget http://nginx.org/download/nginx-0.8.34.tar.gz
[root@Nginx-node1 src]# wget http://www.keepalived.org/software/keepalived-1.1.19.tar.gz
[root@Nginx-node1 src]# chmod +x *
[root@Nginx-node1 src]# ls -l
-rwxr-xr-x 1 root root  241437 10-01 17:25 keepalived-1.1.19.tar.gz
-rwxr-xr-x 1 root root  621534 03-04 01:00 nginx-0.8.34.tar.gz
-rwxr-xr-x 1 root root 1247730 03-31 16:31 pcre-8.02.tar.gz

安装Nginx

安装Nginx依赖的包

" ][root@Nginx-node1 src]# tar zxvf pcre-8.02.tar.gz
[root@Nginx-node1 src]# cd pcre-8.02
[root@Nginx-node1 pcre-8.02]# ./configure
[root@Nginx-node1 pcre-8.02]# make && make install

" ][root@Nginx-node1 src]# tar zxvf pcre-8.02.tar.gz
[root@Nginx-node1 src]# cd pcre-8.02
[root@Nginx-node1 pcre-8.02]# ./configure
[root@Nginx-node1 pcre-8.02]# make && make install

安装Nginx

" ][root@Nginx-node1 pcre-8.02]# cd ../
[root@Nginx-node1 src]# tar zxvf nginx-0.8.34.tar.gz
[root@Nginx-node1 src]# cd nginx-0.8.34
[root@Nginx-node1 nginx-0.8.34]# ./configure --prefix=/usr/local/nginx \
> --with-http_stub_status_module \
> --with-http_ssl_module
[root@Nginx-node1 nginx-0.8.34]# make && make install
[root@Nginx-node1 ~]# vim /usr/local/nginx/conf/nginx.conf

" ][root@Nginx-node1 pcre-8.02]# cd ../
[root@Nginx-node1 src]# tar zxvf nginx-0.8.34.tar.gz
[root@Nginx-node1 src]# cd nginx-0.8.34
[root@Nginx-node1 nginx-0.8.34]# ./configure --prefix=/usr/local/nginx \
> --with-http_stub_status_module \
> --with-http_ssl_module
[root@Nginx-node1 nginx-0.8.34]# make && make install
[root@Nginx-node1 ~]# vim /usr/local/nginx/conf/nginx.conf

Nginx 配置文件

" ]user  website website;
worker_processes  4;

error_log  logs/error.log;
pid        logs/nginx.pid;
worker_rlimit_nofile 65535;

events {
    use epoll;
    worker_connections  10240;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    server_names_hash_bucket_size 128;
    client_header_buffer_size 32k;
    large_client_header_buffers 4 32k;
    client_max_body_size 8m;
    sendfile on;
    tcp_nopush     on;
    keepalive_timeout 60;
    tcp_nodelay on;

    gzip on;
    gzip_min_length  1k;
    gzip_buffers     4 16k;
    gzip_http_version 1.0;
    gzip_comp_level 2;
    gzip_types       text/plain application/x-javascript text/css application/xml;
    gzip_vary on;

    server_tokens off;

upstream web  #设置web集群池

{
ip_hash; #
server 192.168.0.141:8080;
server 192.168.0.142:8080;
server 192.168.0.143:8080;
server 192.168.0.144:8080;
server 192.168.0.145:8080;
server 192.168.0.146:8080;

}

upstream wap  #设置wap集群池
{
ip_hash;
server 192.168.0.151:8080;
server 192.168.0.152:8080;
server 192.168.0.153:8080;
server 192.168.0.154:8080;
server 192.168.0.155:8080;
server 192.168.0.156:8080;

}

    server {
        listen       80;
        server_name  www.***.com;

        location / {
            root   html;
            index  index.html index.htm;
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://web;  #注意设置在这里
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

    }

server {
        listen       80;
       server_name  wap.***.com;

        location / {
            root   html;
            index  index.html index.htm;
            proxy_redirect off;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_pass http://wap;  #注意:设置在这里
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

    }
}

" ]user  website website;
worker_processes  4;
 
error_log  logs/error.log;
pid        logs/nginx.pid;
worker_rlimit_nofile 65535;
 
events {
    use epoll;
    worker_connections  10240;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    server_names_hash_bucket_size 128;
    client_header_buffer_size 32k;
    large_client_header_buffers 4 32k;
    client_max_body_size 8m;
    sendfile on;
    tcp_nopush     on;
    keepalive_timeout 60;
    tcp_nodelay on;
 
    gzip on;
    gzip_min_length  1k;
    gzip_buffers     4 16k;
    gzip_http_version 1.0;
    gzip_comp_level 2;
    gzip_types       text/plain application/x-javascript text/css application/xml;
    gzip_vary on;
 
    server_tokens off;
 
upstream web  #设置web集群池
{
ip_hash; #
server 192.168.0.141:8080;
server 192.168.0.142:8080;
server 192.168.0.143:8080;
server 192.168.0.144:8080;
server 192.168.0.145:8080;
server 192.168.0.146:8080;
 
}
 
upstream wap  #设置wap集群池
{
ip_hash;
server 192.168.0.151:8080;
server 192.168.0.152:8080;
server 192.168.0.153:8080;
server 192.168.0.154:8080;
server 192.168.0.155:8080;
server 192.168.0.156:8080;
 
}
 
    server {
        listen       80;
        server_name  www.***.com;
 
        location / {
            root   html;
            index  index.html index.htm;
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://web;  #注意设置在这里
        }
 
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
 
    }
 
server {
        listen       80;
       server_name  wap.***.com;
 
        location / {
            root   html;
            index  index.html index.htm;
            proxy_redirect off;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_pass http://wap;  #注意:设置在这里
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
 
    }
}

Nginx Upstream支持的分配方法


nginx的upstream目前支持5种方式的分配

*1.轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

*2.weight (带权重的)

指定轮询权重,weight和访问比率成正比,用于后端服务器性能不均的情况。

例如:

" ]upstream bakend {
server 192.168.0.141 weight=10;
server 192.168.0.142 weight=10;
}

" ]upstream bakend {
server 192.168.0.141 weight=10;
server 192.168.0.142 weight=10;
}

*3.ip_hash

每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。

例如:

" ]upstream bakend {
ip_hash;
server 192.168.0.151:80;
server 192.168.0.152:80;
}

" ]upstream bakend {
ip_hash;
server 192.168.0.151:80;
server 192.168.0.152:80;
}

*4.fair(第三方)

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

" ]upstream backend {
server server1;
server server2;
fair;
}

" ]upstream backend {
server server1;
server server2;
fair;
}

*5.url_hash(第三方)

按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。

例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法

" ]upstream backend {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}

" ]upstream backend {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}

  
*设置说明:

每个设备的状态设置为:

1.down 表示单前的server暂时不参与负载
2.weight 默认为1.weight越大,负载的权重就越大。
3.max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误
4.fail_timeout:max_fails次失败后,暂停的时间。
5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
nginx支持同时设置多组的负载均衡,用来给不用的server来使用。
client_body_in_file_only 设置为On 可以讲client post过来的数据记录到文件中用来做debug
client_body_temp_path 设置记录文件的目录 可以设置最多3层目录
location 对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡

本文来源:http://www.bbyears.com/jiaocheng/89463.html

热门标签

更多>>

本类排行