本站用于记录日常工作内容,虚拟化云计算,系统运维,数据库DBA,网络与安全。
 
0

Centos 安装vsftpd-3.0.3

发表者:admin分类:应用服务2019-04-04 13:38:01 阅读[258]
vsftpd-3.0.3 Introduction to vsftpd The vsftpd package contains a very secure and very small FTP daemon. This is useful for serving files over a network. This package is known to build and work properly using an LFS-8.4 platform. Package Information Download (HTTP): https://security.appspot.com/downloads/vsftpd-3.0.3.tar.gz Download MD5 sum: da119d084bd3f98664636ea05b5bb398 Download size: 196 KB Estimated disk space required: 2 MB Estimated build time: less than 0.1 SBU vsftpd Dependencies Required ...
Nginx + Tomcat + HTTPS 配置原来不需要在 Tomcat 上启用 SSL 支持 之前在网上搜索到的很多文章在描述 Nginx + Tomcat 启用 HTTPS 支持的时候,都必须在 Nginx 和 Tomcat 两边同时配置 SSL 支持。但我一直在想为什么就不能按照下面的方式来配置呢?就是 Nginx 上启用了 HTTPS,而 Nginx 和 Tomcat 之间走的却是普通的 HTTP 连接。但是搜索很多没有解决办法,最后还是老老实实的 Nginx 和 Tomcat 同时配置的 SSL 支持。最近给 OSChina 买了个新的支持 *.oschina.net 泛域名的证书,然后我又开始偷懒的想为什么 Tomcat 一定要配 HTTPS 呢? 没道理啊。然后潜心搜索终于找到了解决方案。原来却是如此的简单。最终配置的方案是浏览器和 Nginx 之间走的 HTTPS 通讯,而 Nginx 到 Tomcat 通过 proxy_pass 走的是普通 HTTP 连接。下面是详细的配置(Nginx 端口 80/443,Tomcat 的端口 8080):Nginx 这一侧的配置没什么特别的:upstream tomcat { server 127.0.0.1:8080 fail_timeout=0; } # HTTPS server server { listen 443 ssl; server_name localhost; ssl_certificate /Users/winterlau/Desktop/SSL/oschina.bundle.crt; ss...
三大主流软件负载均衡器对比(LVS 、 Nginx 、Haproxy) 这个是网上摘来的,总结的比较精简,可以帮助快速了解三大主流软件负载均衡器区别(LVS 、 Nginx 、Haproxy)LVS:1、抗负载能力强。抗负载能力强、性能高,能达到F5硬件的60%;对内存和cpu资源消耗比较低2、工作在网络4层,通过vrrp协议转发(仅作分发之用),具体的流量由linux内核处理,因此没有流量的产生。2、稳定性、可靠性好,自身有完美的热备方案;(如:LVS+Keepalived)3、应用范围比较广,可以对所有应用做负载均衡;4、不支持正则处理,不能做动静分离。5、支持负载均衡算法:rr(轮循)、wrr(带权轮循)、lc(最小连接)、wlc(权重最小连接)6、配置 复杂,对网络依赖比较大,稳定性很高。Ngnix:1、工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名、目录结构;2、Nginx对网络的依赖比较小,理论上能ping通就就能进行负载功能;3、Nginx安装和配置比较简单,测试起来比较方便;4、也可以承担高的负载压力且稳定,一般能支撑超过1万次的并发;5、对后端服务器的健康检查,只支持通过端口来检测,不支持通过url来检测。6、Nginx对请求的异步处理可以帮助节点服务器减轻负载;7、...
本文简单记录下Linux环境下lvs-dr模式(基于请求包mac地址欺骗)负载均衡简单配置,揭开这个神秘东西的面纱,让你10钟搞定配置lvs。 环境配置:    三台centos 6.5 调度器:        DIP:192.168.1.11   VIP:192.168.1.110 web服务器: RIP:192.168.1.9     RIP:192.168.1.10 一,前期服务器环境搭建 (1) 配置lamp环境,这里不做演示。 (2)关闭selinux和所有web服务器上的iptables (3)设置时间同步,保证服务器时间一致(后期nfs或数据同步用到,包括session同步需要) 二,配置LVS1,调度器安装ipvsadm和keepalived首先安装依赖包: yum -y install gcc make openssl-devel openssl net-snmp net-snmp-devel popt popt-devel安装ipvs和keepalived: yum install ipvsadm  keepalived  -y 并设置下:chkconfig ipvsadm onchkconfig keepalived on修改keepalived.conf配置文件:global_defs { router_id LVSTEST #负载均衡器标识,同一网段内,可以相同 }  vrrp_instance LVSTEST { state MASTER #主调度器 interface eth0 ...
本文简单记录下Linux环境下lvs-nat模式(基础调度器路由转发)负载均衡简单配置,揭开这个神秘东西的面纱,让你五分钟钟搞定配置LVS-NAT。 环境配置:    三台centos 6.5 调度器:        DIP:192.168.1.11   VIP:192.168.1.110 web服务器: RIP:192.168.1.9     RIP:192.168.1.10 一,前期服务器环境搭建由于是之前kvm克隆了dr模式下的服务器,这里和dr下边的IP和服务器环境信息是一样的。只不过是web服务器取消了arp禁响应和VIP配置。 (1) 配置lamp环境,这里不做演示。 (2)关闭selinux、调度器和所有web服务器上的iptables (3)设置时间同步,保证服务器时间一致(后期nfs或数据同步用到,包括session同步需要) 二,配置调度器1,开启IP转发 vi /etc/sysctl.confnet.ipv4.ip_forward = 1sysctl -p可以查看是否开启。2,调度器安装ipvsadm和keepalived 首先安装依赖包: yum -y install gcc make openssl-devel openssl net-snmp net-snmp-devel popt popt-devel安装ipvs和keepalived: yum install ipvsadm  keepalived  -ychkconfig ipvsadm onchkconfig keepalived on修改keepalived....
nginx集群中如何使用Memcached实现Session共享 这几天在实现nginx集群的过程中,发现session使用存在问题,登录页面后有时候需要重复登录,和开发部沟通后,决定采用memcached来实现session的共享,这也是各大型网站推荐的方式。开发部开始写了一些用memcache来保存session的代码后,测试效果不是很理想,还是存在问题,后来在一个blog上发现可以直接在php.ini中设定使用memcache作为session处理,而且无须另外编码,大大较少了开发成本,方法是:修改php.ini中的以下值session.save_handler = memcachesession.save_path = ‘tcp://192.168.100.100:12000’ 重新启动apache,查看phpinfo就知道设置是否生效。如果只想在特定的应用里使用memcache储存session,可以使用ini_set的方法对以上两个参数进行设定:ini_set(“session.save_handler”, “memcache”);ini_set(“session.save_path”, “192.168.100.100:12000”);注:使用多个 memcached server 时用逗号”,”隔开,可以带额外的参数”persistent”、”weight”、”timeout”、”retry_interval” 等等,类似这样的:”tcp://host:port?persistent=1&weight=2,tcp://host2:port2″。要测试一下是否真正用上了mem...
nginx下后端节点realserverweb健康检测模块ngx_http_upstream_check_module    公司前一段对业务线上的nginx做了整理,重点就是对nginx上负载均衡器的后端节点做健康检查。目前,nginx对后端节点健康检查的方式主要有3种,这里列出:1、ngx_http_proxy_module 模块和ngx_http_upstream_module模块(自带)    官网地址:http://nginx.org/cn/docs/http/ngx_http_proxy_module.html#proxy_next_upstream2、nginx_upstream_check_module模块    官网网址:https://github.com/yaoweibin/nginx_upstream_check_module3、ngx_http_healthcheck_module模块    官网网址:http://wiki.nginx.org/NginxHttpHealthcheckModule公司业务线上对后端节点的健康检查是通过nginx_upstream_check_module模块做的,这里我将分别介绍这三种实现方式以及之间的差异性。一、ngx_http_proxy_module 模块和ngx_http_upstream_module模块(自带)严格来说,nginx自带是没有针对负载均衡后端节点的健康检查的,但是可以通过默认自带的ngx_http_proxy_module 模块和ngx_http_upstream_module模块中的相关指令来完成当后端...
扩展:Nginx为什么比Apache Httpd高效:原理篇 http://www.toxingwang.com/linux-unix/linux-basic/1712.htmlapache和nginx工作原理比较 http://www.server110.com/nginx/201402/6543.htmlmod_php 和 mod_fastcgi以及php-fpm的比较 http://dwz.cn/1lwMSd概念了解:CGI,FastCGI,PHP-CGI与PHP-FPMhttp://www.nowamagic.net/librarys/veda/detail/1319/12.1 LNMP架构介绍1和LAMP不同的是,提供web服务的是Nginx2 并且php是作为一个独立服务存在的,这个服务叫做php-fpm3 Nginx直接处理静态请求,动态请求会转发给php-fpm12.2 MySQL安装删除之前安装的mysql1. 查看之前安装mysql是否开启:[root@hao-01 ~]# ps aux |grep mysql2. 关闭之前安装的mysql服务:[root@hao-01 ~]# service mysqld stop3. 删除之前安装的mysql目录:[root@hao-01 ~]# rm -rf /usr/local/mysql4. 删除之前安装的mysql启动脚本:[root@hao-01 ~]# rm -rf /etc/init.d/mysqld5. 删除之前安装的mysql目录:[root@hao-01 ~]# rm -rf /data/mysql安装mysql:安装下载工具: yum -y install wget1. 进...
Sersync + Rsync 代码分发简介: Sersync 是基于 inotify 来编写的 Linux 系统文件监控工具,当监控到文件发生变化时,调用 rsync 同步文件。 类似的功能,以前有用 rsync + inotify 实现过,这次来使用一下这个同步更迅速、功能更完善的 Sersync 。 一、代码分发服务器上安装 Sersync 、Rsync shell > cd /usr/local/src shell > wget https://github.com/wsgzao/sersync/archive/master.zip shell > unzip master.zip shell > cd sersync-master && ls inotify-tools-3.14.tar.gz README.md rsync-3.1.1.tar.gz sersync2.5.4_64bit_binary_stable_final.tar.gz# 来到这里,你只要看一眼 README.md 你就啥都懂了> Rsyncshell > tar zxf rsync-3.1.1.tar.gz shell > cd rsync-3.1.1 shell > ./configure; make; make install> Inotify-toolsshell > tar zxf inotify-tools-3.14.tar.gz shell > cd inotify-tools-3.14 shell > ./configure; make; make install> Sersync ( 监控同步目录变化,调用 Rsync 同步数据 )shell > tar zxf sersync2.5.4_64bit_binary_stable_final.tar.gz shell > mv GNU-Li...
Nginx 反向代理、后端检测模块简介: Nginx 反向代理模块:ngx_http_proxy_module、ngx_http_upstream_module 后端检测模块:nginx_http_upstream_check_module 前者是官方提供的,安装 Nginx 的时候默认就内置了,可以直接使用,地址:http://nginx.org/en/docs/http/ngx_http_proxy_module.html 后者是淘宝大神提供的后端检测模块,需要手动编译添加,地址:https://github.com/yaoweibin/nginx_upstream_check_module 当前稳定版本:http://nginx.org/download/nginx-1.12.2.tar.gz一、实验环境1、Nginxshell > yum -y install gcc gcc-c++ make wget zlib-devel pcre-devel openssl-devel shell > wget http://nginx.org/download/nginx-1.12.2.tar.gz shell > tar zxf nginx-1.12.2.tar.gz; cd nginx-1.12.2 shell > ./configure --prefix=/usr/local/nginx-1.12.2 && make && make install2、后端服务器shell > curl 192.168.10.24:8080 welcome to tomcat1 shell > curl 192.168.10.24:8081 welcome to tomcat2 shell > curl 192.168.10.24:8082 welcome to tomcat3# 好了,三台后端服务器已经启动,分别监听 8080、...
    总共32页,当前第1页 | 页数:
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
  7. 7
  8. 8
  9. 9
  10. 10
  11. 11