NGINX公开课录像和PPT下载:使用NGINX/NGINX Plus构建CDN
点赞 5
1 条评论
406 次浏览
发表于 : 2020-09-03 15:07

感谢您参加NGINX系列公开课,以下为本系列培训的课件和录像,希望您能通过此培训学有成果,祝学习进步!

课程演讲稿下载:
-8月26日: 使用NGINX/NGINX Plus构建API网关

-9月23日: 使用NGINX/NGINX Plus构建CDN
-10
21使用NGINX/NGINX Plus构建K8S Ingress Controller(待更新)
-11
25使用ModSec/App Protect模块构建NGINX WA(待更新)

视频回顾:

-8月26日: 使用NGINX/NGINX Plus构建API网关

-9月23日: 使用NGINX/NGINX Plus构建CDN
-10
21使用NGINX/NGINX Plus构建K8S Ingress Controller(待更新)
-11
25使用ModSec/App Protect模块构建NGINX WA(待更新)

访问NGINX开源社区:nginx-cn.net

> NGINX 官方微信群(扫码入群)


后续活动推荐

NGINX 公开课:923使用NGINX/NGINX Plus构建CDN

如果您通过互联网向受众交付内容并关心性能,那么您很可能使用CDNCDN是广告、媒体、在线游戏、商业、移动、医疗、甚至政府和教育等领域的流行使用场景,因为用户可以获得更快地应用和网页访问能力。

主要的CDN提供商都使用NGINX,因为商业CDN服务的扩展成本很高,在细粒度控制和定制方面受到极大限制,并且提供的性能优化更少。如果您的企业CDN费用高得惊人,并且您需要更多的控制和定制,那么构建自己的CDN将更具成本效益。

主题:使用NGINX/NGINX Plus构建CDN

时间:923日下午2-3

讲师:NGINX 解决方案架构师邹俊

通过本次公开课,您可以了解:


- CDN
的部署架构

- CDN用例

- NGINX配置和调优

- CDN遥测

邹俊

NGINX 大中华区解决方案架构师

长期从事软件开发和系统架构设计工作,在企业级软件领域拥有超过10年的工作经验。先后供职于CAEMCPivotal等公司。在十多年的软件行业从业经历中,积累了丰富的容器云平台架构设计,自动化平台运维和系统稳定性调优等相关经验,主要关注于微服务,APIMk8sservice mesh等行业技术的发展。

扫描二维码立即报名NGINX公开课:

往期课程资料下载

点击获取 NGINX开源社区(第一季)课程补充及课程ppt资料

点击获取 NGINX开源社区(第二季)课程补充及课程ppt资料

点击获取NGINX开源社区(第三季课程补充及课程ppt资料

【邀请您加入NGINX开源社区】

NGINX 开源社区在520日在中国正式落地并开门迎客了。Nginx的的开源社区的英文F5 / NGINX面向所有NGINX用户的官方社区。我们秉持开放,包容,沟通,贡献(开,包括,连接,贡献)之力量,与发展中国家共建开放,包容,活跃的“ NGINX用户之家”;秉承开源的精神,在社区治理上高度开放,为所有NGINX的用户,者开发技术状语从句:爱好者,提供一个方便学习,讨论的场所。也期待您成为此社区中活跃的一员,贡献您的文章,博客,代码,踊跃讨论与回答问题,打造您个人品牌和影响力。


1 条评论
守望 2020-09-08 18:30

公开课很受益[坏笑]

点赞 1
回复

要回复文章请先登录注册

关于作者
回答 0
文章 6
粉丝 86
相关推荐
感谢您参加NGINX开源社区基础培训系列课程(第四季),以下为本系列培训的课件和录像,希望您能通过此培训学有成果,祝学习进步!> 课程演讲稿下载: -9月03日:NGINX性能为什么远高于Apache?-9月10日:Tengine与官方NGINX的差别在哪里?-9月17日:OpenResty与官方NGINX的差别在哪里?-9月24日:从Lua语言看NGINX生态的扩展> 视频回顾:-9月03日:NGINX性能为什么远高于Apache? -9月10日:Tengine与官方NGINX的差别在哪里? -9月17日:OpenResty与官方NGINX的差别在哪里? -9月24日:从Lua语言看NGINX生态的扩展 > 访问NGINX开源社区:https://www.nginx.org.cn/> NGINX 官方微信群(扫码入群) > 后续活动推荐 NGINX 公开课:9月23日: 使用NGINX/NGINX Plus构建CDN如果您通过互联网向受众交付内容并关心性能,那么您很可能使用CDN。CDN是广告、媒体、在线游戏、商业、移动、医疗、甚至政府和教育等领域的流行使用场景,因为用户可以获得更快地应用和网页访问能力。主要的CDN提供商都使用NGINX,因为商业CDN服务的扩展成本很高,在细粒度控制和定制方面受到极大限制,并且提供的性能优化更少。如果您的企业CDN费用高得惊人,并且您需要更多的控制和定制,那么构建自己的CDN将更具成本效益。主题:使用NGINX/NGINX Plus构建CDN时间:9月23日下午2-3点讲师:NGINX 解决方案架构师邹俊通过本次公开课,您可以了解: - CDN的部署架构- CDN用例- NGINX配置和调优- CDN遥测 邹俊  NGINX 大中华区解决方案架构师长期从事软件开发和系统架构设计工作,在企业级软件领域拥有超过10年的工作经验。先后供职于CA,EMC,Pivotal等公司。在十多年的软件行业从业经历中,积累了丰富的容器云平台架构设计,自动化平台运维和系统稳定性调优等相关经验,主要关注于微服务,APIM,k8s,service mesh等行业技术的发展。点击链接立即报名NGINX公开课:http://www.f5chinanetworks.com/partner/wechat/datacenter/campaign/meetingreg.asp?meetingid=72&trackingcode=NGINXCommunity  F5作为应用交付领域的领导者,在过去的几年中每年都会举办一次针对金融科技领域的线下研讨会,反响热烈。由于疫情原因,今年的研讨会将以线上的形式开展,我们将继续保持高品质的内容输出,为广大金融从业者奉献一场专为金融行业烹制的饕餮盛宴。会议主题:2020 F5金融科技趋势研讨会会议时间:10月16 - 10月17日(周五-周六),下午1:30 - 6:00会议形式:线上研讨会适合参加者:所有金融IT从业人员、架构师、开发者、安全岗、数据库管理人员、运维人员等报名形式:在线注册后, 需审批,通过后可获得直播链接 点击链接立即报名在线研讨会:http://www.f5chinanetworks.com/partner/wechat/datacenter/campaign/meetingreg.asp?meetingid=76&trackingcode=nginxcommunity> 往期课程资料下载点击获取 NGINX开源社区(第一季)课程补充及课程ppt资料点击获取 NGINX开源社区(第二季)课程补充及课程ppt资料点击获取NGINX开源社区(第三季)课程补充及课程ppt资料点击获取NGINX系列公开课:使用NGINX/NGINX Plus构建API网关课程视频和ppt资料> 【邀请您加入NGINX开源社区】 NGINX 开源社区在5月20日在中国正式落地并开门迎客了。Nginx的的开源社区的英文F5 / NGINX面向所有NGINX用户的官方社区。我们秉持“开放,包容,沟通,贡献“(开,包括,连接,贡献)之力量,与发展中国家共建开放,包容,活跃的“ NGINX用户之家”;秉承开源的精神,在社区治理上高度开放,为所有NGINX的用户,者开发技术状语从句:爱好者,提供一个方便学习,讨论的场所。也期待您成为此社区中活跃的一员,贡献您的文章,博客,代码,踊跃讨论与回答问题,打造您个人品牌和影响力。  
 1、概述1.1 介绍consul是一个服务发现和配置共享的服务软件,结合nginx的主动健康检查模块nginx_upstream_check_module和服务发现模块nginx-upsync-module,实现一套服务动态发现机制。nginx的upstream不再通过手动配置,而是定时向consul发送请求,获取consul数据中心的配置文件,动态更新upstream地址池。1.2 术语consul:是一个支持多数据中心分布式高可用的服务发现和配置共享的服务软件nginx_upstream_check_module:nginx主动健康检查模块nginx-upsync-module:nginx服务发现模块2、安装2.1 nginxnginx需要编译两个模块:nginx_upstream_check_module:nginx主动健康检查模块https://github.com/xiaokai-wang/nginx_upstream_check_modulenginx-upsync-module:nginx服务发现模块https://github.com/weibocom/nginx-upsync-module2.2 consul官网 https://www.consul.io下载consul,linux 64位下载解压即可,产生一个consul可执行文件。./consul 列出一些常用指令。2.3 consul启动./consul agent -server –bootstrap-expect 1 –>i.  server: 以server身份启动。ii.  bootstrap-expect:集群要求的最少server数量,当低于这个数量,集群即失效。经测试,低于这个数量也不影响访问iii. >iv.  node:节点id,在同一集群不能重复。v.   bind:监听的ip地址。vi.  client 客户端的ip地址vii.  &  :在后台运行,此为linux脚本语法viii. ui:启动webui,端口8500访问ip:8500/ui,出现如下页面,则启动成功2.4 consul其它命令关闭./consul leave查看成员./consul members2.5 启动consul集群以上介绍的都是以单机模式启动,实战中consul多以集群模式存在,建议server节点数为3~5个。以下以3台为例,分别为ip1、ip2、ip3:./consul agent -server -bootstrap-expect 2 ->./consul agent -server -bootstrap-expect 2 ->./consul agent -server -bootstrap-expect 2 ->-join 加入一个集群3、使用3.1 nginx&upstream配置consul是针对nginx的upstream所做的一项改善,地址池不再需要手动配置,而是从consul的数据中心抓取。新的upstream配置如下:1 upstream tomcat_http_server {2 server 127.0.0.1:11111;3 upsync 10.10.49.193:8500/v1/kv/upstreams/tomcat_http_server upsync_timeout=6m upsync_interval=500ms upsync_type=consul strong_dependency=off;4 upsync_dump_path /usr/local/nginx/conf/server/server_test.conf;5 6 check interval=1000 rise=2 fall=2 timeout=3000 type=http default_down=false;7 check_http_send "HEAD / HTTP/1.0\r\n\r\n";8 check_http_expect_alive http_2xx http_3xx;9 } server 127.0.0.1:11111是占位机器,这个配置必须要有不然校验配置文件不通过。upsync配置语法:upsync $consul/etcd.api.com:$port/v1/kv/upstreams/$upstream_name/ [upsync_type=consul/etcd] [upsync_interval=second/minutes] [upsync_timeout=second/minutes] [strong_dependency=off/on]默认upsync_interval=5s upsync_timeout=6m strong_dependency=off10.10.49.193:8500/v1/kv/upstreams/tomcat_http_server为同步地址;upsync_timeout同步超时时间;upsync_interval同步间隔;upsync_type同步类型,默认为consul;strong_dependency,配置为on时,每次启动或重启nginx,都会强制去consul拉一次upstream servers。upsync_dump_path将拉取到的upstreams地址池写入一个文件;此处想要多说两句,即使consul中途挂掉,nginx仍然可以从upsync_dump_path配置的文件中取到数据,继续分发流量,只是此时upstream池变为静态了,跟之前的情形一样,启停重启nginx等操作并没有问题。所以consul单节点配置中心的可用性也是很高的。upsync更多指令请阅读https://github.com/weibocom/nginx-upsync-module#upsync check代表健康检查;interval检查间隔,单位为毫秒;rise成功该次数后,标记为up;fall失败该次数后,标记为down;timeout;type包括tcp、ssl_hello、http、mysql、ajp、fastcgi;default_down设置后端server的初始状态;默认配置interval=30000 fall=5 rise=2 timeout=1000 default_down=true type=tcpcheck_http_send 健康检查发送的请求包;check_http_expect_alive 这些状态代表后端server是活着的;check更多指令请阅读https://github.com/xiaokai-wang/nginx_upstream_check_module3.2 查询健康检查状态健康检查模块提供了一个接口check_status,用于检查consul数据中心配置的所有server的健康检查状态。需要在nginx稍作配置:在80端口下,配置nstatus的接口:location /nstatus { check_status; access_log off;}访问consul节点的ip/nstatus3.3 consul配置输入【http://ip:8500/ui】进入consulweb控制台进入consu首页,点击进入【KEY/VALUE】,此处即为配置upstream的位置。Key以“/”结尾,则创建了一个文件夹,否则创建了一个key。 此处的文件夹路径即为upsync指令请求的路径。 value默认值为{"weight":1, "max_fails":2, "fail_timeout":10},所以不配置value也是可以的写入本地文件是这样的: 
前言nginx系列之一:nginx入门nginx系列之二:配置文件解读nginx系列之三:日志配置nginx系列之四:web服务器nginx系列之五: 负载均衡nginx系列之六:cache服务nginx系列之七:限流配置nginx系列之八:使用upsync模块实现负载均衡转自:在此感谢原博主的整理分享一、限流算法1.1 令牌桶算法算法思想是:令牌以固定速率产生,并缓存到令牌桶中;令牌桶放满时,多余的令牌被丢弃;请求要消耗等比例的令牌才能被处理;令牌不够时,请求被缓存。1.2 漏桶算法算法思想是:水(请求)从上方倒入水桶,从水桶下方流出(被处理);来不及流出的水存在水桶中(缓冲),以固定速率流出;水桶满后水溢出(丢弃)。这个算法的核心是:缓存请求、匀速处理、多余的请求直接丢弃。相比漏桶算法,令牌桶算法不同之处在于它不但有一只“桶”,还有个队列,这个桶是用来存放令牌的,队列才是用来存放请求的。从作用上来说,漏桶和令牌桶算法最明显的区别就是是否允许突发流量(burst)的处理,漏桶算法能够强行限制数据的实时传输(处理)速率,对突发流量不做额外处理;而令牌桶算法能够在限制数据的平均传输速率的同时允许某种程度的突发传输。Nginx按请求速率限速模块使用的是漏桶算法,即能够强行保证请求的实时处理速度不会超过设置的阈值。Nginx官方版本限制IP的连接和并发分别有两个模块:limit_req_zone 用来限制单位时间内的请求数,即速率限制,采用的漏桶算法 “leaky bucket”。limit_req_conn 用来限制同一时间连接数,即并发限制。1.3 limit_req_zone 参数配置Syntax: limit_req zone=name [burst=number] [nodelay];Default: —Context: http, server, locationlimit_req_zone $binary_remote_addr zone=one:10m rate=1r/s;1234第一个参数:$binary_remote_addr 表示通过remote_addr这个标识来做限制,“binary_”的目的是缩写内存占用量,是限制同一客户端ip地址。第二个参数:zone=one:10m表示生成一个大小为10M,名字为one的内存区域,用来存储访问的频次信息。第三个参数:rate=1r/s表示允许相同标识的客户端的访问频次,这里限制的是每秒1次,还可以有比如30r/m的。limit_req zone=one burst=5 nodelay;1第一个参数:zone=one 设置使用哪个配置区域来做限制,与上面limit_req_zone 里的name对应。第二个参数:burst=5,重点说明一下这个配置,burst爆发的意思,这个配置的意思是设置一个大小为5的缓冲区当有大量请求(爆发)过来时,超过了访问频次限制的请求可以先放到这个缓冲区内。第三个参数:nodelay,如果设置,超过访问频次而且缓冲区也满了的时候就会直接返回503,如果没有设置,则所有请求会等待排队。例子:http { limit_req_zone $binary_remote_addr zone=one:10m rate=1r/s; server { location /search/ { limit_req zone=one burst=5 nodelay; }} 1234567下面配置可以限制特定UA(比如搜索引擎)的访问:limit_req_zone $anti_spider zone=one:10m rate=10r/s;limit_req zone=one burst=100 nodelay;if ($http_user_agent ~* "googlebot|bingbot|Feedfetcher-Google") { set $anti_spider $http_user_agent;}12345其他参数Syntax: limit_req_log_level info | notice | warn | error;Default: limit_req_log_level error;Context: http, server, location1234当服务器由于limit被限速或缓存时,配置写入日志。延迟的记录比拒绝的记录低一个级别。例子:limit_req_log_level notice延迟的的基本是info。Syntax: limit_req_status code;Default: limit_req_status 503;Context: http, server, location1234设置拒绝请求的返回值。值只能设置 400 到 599 之间。1.4 ngx_http_limit_conn_module 参数配置这个模块用来限制单个IP的请求数。并非所有的连接都被计数。只有在服务器处理了请求并且已经读取了整个请求头时,连接才被计数。Syntax: limit_conn zone number;Default: —Context: http, server, locationlimit_conn_zone $binary_remote_addr zone=addr:10m;server { location /download/ { limit_conn addr 1; }123456789一次只允许每个IP地址一个连接。limit_conn_zone $binary_remote_addr zone=perip:10m;limit_conn_zone $server_name zone=perserver:10m;server { ... limit_conn perip 10; limit_conn perserver 100;}12345678可以配置多个limit_conn指令。例如,以上配置将限制每个客户端IP连接到服务器的数量,同时限制连接到虚拟服务器的总数。Syntax: limit_conn_zone key zone=name:size;Default: —Context: httplimit_conn_zone $binary_remote_addr zone=addr:10m;1234在这里,客户端IP地址作为关键。请注意,不是$ remote_addr,而是使用$ binary_remote_addr变量。 $ remote_addr变量的大小可以从7到15个字节不等。存储的状态在32位平台上占用32或64字节的内存,在64位平台上总是占用64字节。对于IPv4地址,$ binary_remote_addr变量的大小始终为4个字节,对于IPv6地址则为16个字节。存储状态在32位平台上始终占用32或64个字节,在64位平台上占用64个字节。一个兆字节的区域可以保持大约32000个32字节的状态或大约16000个64字节的状态。如果区域存储耗尽,服务器会将错误返回给所有其他请求。Syntax: limit_conn_log_level info | notice | warn | error;Default: limit_conn_log_level error;Context: http, server, location1234当服务器限制连接数时,设置所需的日志记录级别。Syntax: limit_conn_status code;Default: limit_conn_status 503;Context: http, server, location1234设置拒绝请求的返回值。二、实战2.1 实例一 限制访问速率limit_req_zone $binary_remote_addr zone=mylimit:10m rate=2r/s;server { location / { limit_req zone=mylimit; }}123456上述规则限制了每个IP访问的速度为2r/s,并将该规则作用于根目录。如果单个IP在非常短的时间内并发发送多个请求,结果会怎样呢?我们使用单个IP在10ms内发并发送了6个请求,只有1个成功,剩下的5个都被拒绝。我们设置的速度是2r/s,为什么只有1个成功呢,是不是Nginx限制错了?当然不是,是因为Nginx的限流统计是基于毫秒的,我们设置的速度是2r/s,转换一下就是500ms内单个IP只允许通过1个请求,从501ms开始才允许通过第二个请求。2.2 实例二 burst缓存处理我们看到,我们短时间内发送了大量请求,Nginx按照毫秒级精度统计,超出限制的请求直接拒绝。这在实际场景中未免过于苛刻,真实网络环境中请求到来不是匀速的,很可能有请求“突发”的情况,也就是“一股子一股子”的。Nginx考虑到了这种情况,可以通过burst关键字开启对突发请求的缓存处理,而不是直接拒绝。来看我们的配置:limit_req_zone $binary_remote_addr zone=mylimit:10m rate=2r/s;server { location / { limit_req zone=mylimit burst=4; }}123456我们加入了burst=4,意思是每个key(此处是每个IP)最多允许4个突发请求的到来。如果单个IP在10ms内发送6个请求,结果会怎样呢?相比实例一成功数增加了4个,这个我们设置的burst数目是一致的。具体处理流程是:1个请求被立即处理,4个请求被放到burst队列里,另外一个请求被拒绝。通过burst参数,我们使得Nginx限流具备了缓存处理突发流量的能力。但是请注意:burst的作用是让多余的请求可以先放到队列里,慢慢处理。如果不加nodelay参数,队列里的请求不会立即处理,而是按照rate设置的速度,以毫秒级精确的速度慢慢处理。2.3 实例三 nodelay降低排队时间实例二中我们看到,通过设置burst参数,我们可以允许Nginx缓存处理一定程度的突发,多余的请求可以先放到队列里,慢慢处理,这起到了平滑流量的作用。但是如果队列设置的比较大,请求排队的时间就会比较长,用户角度看来就是RT变长了,这对用户很不友好。有什么解决办法呢?nodelay参数允许请求在排队的时候就立即被处理,也就是说只要请求能够进入burst队列,就会立即被后台worker处理,请注意,这意味着burst设置了nodelay时,系统瞬间的QPS可能会超过rate设置的阈值。nodelay参数要跟burst一起使用才有作用。延续实例二的配置,我们加入nodelay选项:limit_req_zone $binary_remote_addr zone=mylimit:10m rate=2r/s;server { location / { limit_req zone=mylimit burst=4 nodelay; }}123456单个IP 10ms内并发发送6个请求,结果如下:跟实例二相比,请求成功率没变化,但是总体耗时变短了。这怎么解释呢?实例二中,有4个请求被放到burst队列当中,工作进程每隔500ms(rate=2r/s)取一个请求进行处理,最后一个请求要排队2s才会被处理;实例三中,请求放入队列跟实例二是一样的,但不同的是,队列中的请求同时具有了被处理的资格,所以实例三中的5个请求可以说是同时开始被处理的,花费时间自然变短了。但是请注意,虽然设置burst和nodelay能够降低突发请求的处理时间,但是长期来看并不会提高吞吐量的上限,长期吞吐量的上限是由rate决定的,因为nodelay只能保证burst的请求被立即处理,但Nginx会限制队列元素释放的速度,就像是限制了令牌桶中令牌产生的速度。看到这里你可能会问,加入了nodelay参数之后的限速算法,到底算是哪一个“桶”,是漏桶算法还是令牌桶算法?当然还算是漏桶算法。考虑一种情况,令牌桶算法的token为耗尽时会怎么做呢?由于它有一个请求队列,所以会把接下来的请求缓存下来,缓存多少受限于队列大小。但此时缓存这些请求还有意义吗?如果server已经过载,缓存队列越来越长,RT越来越高,即使过了很久请求被处理了,对用户来说也没什么价值了。所以当token不够用时,最明智的做法就是直接拒绝用户的请求,这就成了漏桶算法。2.4 示例四 自定义返回值limit_req_zone $binary_remote_addr zone=mylimit:10m rate=2r/s;server { location / { limit_req zone=mylimit burst=4 nodelay; limit_req_status 598; }}1234567默认情况下 没有配置 status 返回值的状态:自定义 status 返回值的状态:参考文档Nginx限制访问速率和最大并发连接数模块–limit (防止DDOS攻击)Nginx 限流关于nginx的限速模块Nginx 源代码笔记 - HTTP 模块 - 流控Module ngx_http_limit_conn_moduleModule ngx_http_limit_req_moduleNginx限速模块初探 
    前三周学习了陶辉老师的“NGINX基础培训系列课程”,感觉受益良多,在这里想把一些知识点记录一下,和大家分享一下知识点,也方便日后的随手查看,温故知新。     首先,我们了解到了Nginx的版本,Nginx发布版本分为主线版本和稳定版本,区分两个版本也非常简单,主线版本版本号为单数,比如1.19,稳定版本为双数,比如1.18,今天我要说的是稳定版本,这个版本会尽量少的减少Nginx的bug问题,适用于生产环境,这里我不建议使用Nginx和其他软件一样在生产环境中落后一个或多个大版本使用,之前生产环境做过漏扫,发现我们编译自带的Nginx版本为:nginx/1.13.3(查询命令为nginx -V),结果出现了多个漏洞,四个高危和一个中危漏洞:               通过升级Nginx到稳定版最新版本后修复!     其次,是Nginx发行版本的选择,目前比较流行的有:nginx、nginx plus、Tengine、openresty、openresty 商业版。     nginx:Nginx的官方开源版本,自由度高,使用人数多。     nginx:Nginx发型的付费版本,在整合第三方模块、运营监控以及技术支持上有很大的优势,之前有幸体验过nginx plus的监控,确实比较好用,不用再去构建什么第三方的模块去解析展示。         Tengine:阿里基于nginx的开发版本,经历过大数据量的考验,由于改动太大,无法跟上Nginx的版本升级。     开源版OpenResty:如需开发API服务器或防火墙可选。   商业版OpenResty:技术支持较好。    一般推荐使用nginx开源版本。      
一、nginx安装1、本地安装windows系统:直接去官网:https://nginx.org/en/download... 下载相应版本即可。mac系统:$ brew install nginx2、Linux安装:以centOS系统为例,有下面两种安装方式(推荐1)1.) 通过rpm镜像源安装$ rpm -ivh http://nginx.org/packages/centos/7/noarch/RPMS/nginx-release-centos-7-0.el7.ngx.noarch.rpm$ yum install -y nginx2.) 通过依赖包详细安装安装nginx依赖库pcre、zlib$ yum install pcre pcre-devel $ yum install zlib zlib-devel如有必要,可以安装c++编译环境和openssl$ yum install gcc-c++$ yum install openssl openssl-devel下载/编译nginx$ wget -c https://nginx.org/download/nginx-1.16.0.tar.gz$ tar -zxvf nginx-1.16.0.tar.gz# 编译安装$ cd nginx-1.16.0$ ./configure # 默认安装在/usr/local/nginx $ make && make install# 创建软链$ ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/nginx$ nginx -v二、nginx命令# windows启动> start nginx# linux/mac启动$ service nginx start# 手动指定配置$ nginx -c /usr/local/nginx/conf/nginx.conf# -p指定nginx运行目录(日志存储位置)$ nginx -c /path/nginx.conf -p /path/# 重启$ nginx -s reload# 关闭$ nginx -s stop# 查看端口$ netstat -an | grep 端口 # linux/mac系统> netstat -an | findstr 端口 # windows系统# 测试web服务$ curl -i 主机:端口# 或$ telnet 主机 端口# 查看进程$ ps -ef | grep nginx# 查看错误日志$ tail -30 /var/log/nginx/error.log三、nginx配置查看nginx.conf配置文件位置$ nginx -t1、创建一个标准的server确保nginx.conf里的 include conf.d/*.conf 已启用,没有则添加一条 在conf.d目录下新建server.conf文件,配置如下:server { listen 80; server_name 127.0.0.1; client_max_body_size 100m; location / { root /app/xxx; # 项目所在目录 index index.html index.htm; try_files $uri $uri/ /index.html; # vue单页应用需要路由始终指向index.html }}2、配置ssl证书实现https访问复制.pem和.key两种证书到当前server配置同一个目录下server { listen 443; server_name 127.0.0.1; ssl on; ssl_certificate my.pem; # 替换成自己的证书 ssl_certificate_key my.key; # 替换成自己的证书 ssl_session_timeout 5m; ssl_protocols SSLv3 TLSv1.2; ssl_ciphers ECDHE-RSA-AES256-SHA384:AES256-SHA256:RC4:HIGH:!MD5:!aNULL:!eNULL:!NULL:!DH:!EDH:!AESGCM; ssl_prefer_server_ciphers on; location / {}}3、api接口反向代理 location /api { proxy_pass http://b.domain.com:9000; # 最终地址会加上/api,变成 /api/xxx #proxy_cookie_domain b.domain.com a.domain.com; # 需要修改接口返回的cookie域名时使用 }需要注意的是,proxy_pass路径有相对和绝对之分,如:proxy_pass http://b.domain.com:9000/; # 最终地址会替掉/api,变成 /xxx4、upstream负载均衡upstream apiServer { server 10.0.0.80:5000; # 如果需要权重加 weight=数字 server 10.0.0.81:5000;}server { listen 80; server_name 127.0.0.1; location /api { proxy_pass http://apiServer; }}需要注意的是:upstream名称不应包含下划线,因为在某些条件下,当成主机名传给后端Java应用,会被当做域名来解析,结果返回Null,容易触发服务器内部错误。建议:使用驼峰命名规范5、允许它站跨域访问在location /api {}里添加以下项:add_header Access-Control-Allow-Origin *; # *表示允许所有站跨域访问(不安全,建议指定具体允许的域名如:http://b.domain.com:9000(注意格式:http(s):// + domain + port,末尾也不能加/)add_header Access-Control-Allow-Credentials true; #此项为允许带cookie跨域访问,若设置true,上面域名配置不能为*,必须指定具体域名6、iframe同源策略限制可以通过nginx配置,限制它站通过iframe嵌入访问本站,不加配置默认是允许访问# 限制为同源可用add_header X-Frame-Options SAMEORIGIN# 指定网站可用add_header X-Frame-Options "ALLOW-FROM http://xxx.com:8000";add_header Content-Security-Policy "frame-ancestors http://xxx.com:8000"; # 兼容chrome7、开启gzip压缩gzip字段设置on,并设置哪些类型文件需要压缩:http { include mime.conf; default_type application/octet-stream; # .... gzip on; gzip_min_length 10k; gzip_comp_level 5; gzip_types text/plain text/css application/x-javascript application/javascript text/javascript; server { # .... }8、其它问题1.) 访问服务报403权限需要修改nginx.conf里的user,比如user root;2.) nginx重启时报pid错nginx: [error] invalid PID number "" in "/usr/local/nginx/logs/nginx.pid"解决方案:使用nginx -c的参数指定nginx.conf文件的位置# 新建nginx.pid$ mkdir -p /usr/local/nginx/logs$ touch /usr/local/nginx/logs/nginx.pid# 指定配置文件$ nginx -c /usr/local/nginx/conf/nginx.conf