浏览 1.2k
按点赞数排序
按时间排序
学习如何使用Nginx,可以参考我在极客时间上的课程《Nginx核心知识100讲》,我通过155节视频课,从模块、部署、性能、原理上系统地详解了Nginx,而且视频课有个好处,可以直接敲代码演示,相信对你有帮助。
如果你开始学习Nginx模块开发,那么可以看下我的书《深入理解Nginx:模块开发与架构解析》。
书哪里都有,我列下《Nginx核心知识100讲》的二维码吧:
2
回答于2020-05-20 20:20
Nginx是一款轻量级的Web服务器、反向代理服务器,由于它的内存占用少,启动极快,高并发能力强,在互联网项目中广泛应用。
上图基本上说明了当下流行的技术架构,其中Nginx有点入口网关的味道。
经常听人说到一些术语,如反向代理,那么什么是反向代理,什么又是正向代理呢?
正向代理:
反向代理:
由于防火墙的原因,我们并不能直接访问谷歌,那么我们可以借助VPN来实现,这就是一个简单的正向代理的例子。这里你能够发现,正向代理“代理”的是客户端,而且客户端是知道目标的,而目标是不知道客户端是通过VPN访问的。
当我们在外网访问百度的时候,其实会进行一个转发,代理到内网去,这就是所谓的反向代理,即反向代理“代理”的是服务器端,而且这一个过程对于客户端而言是透明的。
启动Nginx后,其实就是在80端口启动了Socket服务进行监听,如图所示,Nginx涉及Master进程和Worker进程。
Master进程的作用是?
读取并验证配置文件nginx.conf;管理worker进程;
Worker进程的作用是?
每一个Worker进程都维护一个线程(避免线程切换),处理连接和请求;注意Worker进程的个数由配置文件决定,一般和CPU个数相关(有利于进程切换),配置几个就有几个Worker进程。
所谓热部署,就是配置文件nginx.conf修改后,不需要stop Nginx,不需要中断请求,就能让配置文件生效!(nginx -s reload 重新加载/nginx -t检查配置/nginx -s stop)
通过上文我们已经知道worker进程负责处理具体的请求,那么如果想达到热部署的效果,可以想象:
方案一:
修改配置文件nginx.conf后,主进程master负责推送给woker进程更新配置信息,woker进程收到信息后,更新进程内部的线程信息。(有点valatile的味道)
方案二:
修改配置文件nginx.conf后,重新生成新的worker进程,当然会以新的配置进行处理请求,而且新的请求必须都交给新的worker进程,至于老的worker进程,等把那些以前的请求处理完毕后,kill掉即可。
Nginx采用的就是方案二来达到热部署的!
上文已经提及Nginx的worker进程个数与CPU绑定、worker进程内部包含一个线程高效回环处理请求,这的确有助于效率,但这是不够的。
作为专业的程序员,我们可以开一下脑洞:BIO/NIO/AIO、异步/同步、阻塞/非阻塞...
要同时处理那么多的请求,要知道,有的请求需要发生IO,可能需要很长时间,如果等着它,就会拖慢worker的处理速度。
Nginx采用了Linux的epoll模型,epoll模型基于事件驱动机制,它可以监控多个事件是否准备完毕,如果OK,那么放入epoll队列中,这个过程是异步的。worker只需要从epoll队列循环处理即可。
Nginx既然作为入口网关,很重要,如果出现单点问题,显然是不可接受的。
答案是:Keepalived+Nginx实现高可用。
Keepalived是一个高可用解决方案,主要是用来防止服务器单点发生故障,可以通过和Nginx配合来实现Web服务的高可用。(其实,Keepalived不仅仅可以和Nginx配合,还可以和很多其他服务配合)
Keepalived+Nginx实现高可用的思路:
第一:请求不要直接打到Nginx上,应该先通过Keepalived(这就是所谓虚拟IP,VIP)
第二:Keepalived应该能监控Nginx的生命状态(提供一个用户自定义的脚本,定期检查Nginx进程状态,进行权重变化,,从而实现Nginx故障切换)
很多时候,在开发、测试环境下,我们都得自己去配置Nginx,就是去配置nginx.conf。
nginx.conf是典型的分段配置文件,下面我们来分析下。
其实这是把Nginx作为web server来处理静态资源。
第一:location可以进行正则匹配,应该注意正则的几种形式以及优先级。(这里不展开)
第二:Nginx能够提高速度的其中一个特性就是:动静分离,就是把静态资源放到Nginx上,由Nginx管理,动态请求转发给后端。
第三:我们可以在Nginx下把静态资源、日志文件归属到不同域名下(也即是目录),这样方便管理维护。
第四:Nginx可以进行IP访问控制,有些电商平台,就可以在Nginx这一层,做一下处理,内置一个黑名单模块,那么就不必等请求通过Nginx达到后端在进行拦截,而是直接在Nginx这一层就处理掉。
所谓反向代理,很简单,其实就是在location这一段配置中的root替换成proxy_pass即可。root说明是静态资源,可以由Nginx进行返回;而proxy_pass说明是动态请求,需要进行转发,比如代理到Tomcat上。
反向代理,上面已经说了,过程是透明的,比如说request -> Nginx -> Tomcat,那么对于Tomcat而言,请求的IP地址就是Nginx的地址,而非真实的request地址,这一点需要注意。不过好在Nginx不仅仅可以反向代理请求,还可以由用户自定义设置HTTP HEADER。
上面的反向代理中,我们通过proxy_pass来指定Tomcat的地址,很显然我们只能指定一台Tomcat地址,那么我们如果想指定多台来达到负载均衡呢?
第一,通过upstream来定义一组Tomcat,并指定负载策略(IPHASH、加权论调、最少连接),健康检查策略(Nginx可以监控这一组Tomcat的状态)等。
第二,将proxy_pass替换成upstream指定的值即可。
负载均衡可能带来的问题?
负载均衡所带来的明显的问题是,一个请求,可以到A server,也可以到B server,这完全不受我们的控制,当然这也不是什么问题,只是我们得注意的是:用户状态的保存问题,如Session会话信息,不能在保存到服务器上。
缓存,是Nginx提供的,可以加快访问速度的机制,说白了,在配置上就是一个开启,同时指定目录,让缓存可以存储到磁盘上。具体配置,大家可以参考Nginx官方文档,这里就不在展开了。
1
回答于2020-05-08 15:44
开源版本身不支持 ftp,因为有alg的问题。
可以参考这个插件。
https://github.com/pei-jikui/nginx-alg。
提供一些关于Node.js作为服务器的性能的信息。但是,需要注意的是,“最具性能”的服务器技术可能会因特定的用例、需求和应用程序的性质而异。
Node.js以其高性能而闻名,尤其是在处理并发请求方面。它建立在V8 JavaScript引擎上,该引擎针对执行JavaScript代码进行了高度优化。Node.js使用事件驱动的非阻塞I/O模型,使其能够同时有效地处理多个连接,而不会阻塞其他请求的执行。
Node.js的单线程事件循环架构具有可扩展性和高效的资源利用率,适用于具有大量并发连接的应用程序,如实时应用程序、聊天应用程序或流媒体服务。此外,通过npm(节点包管理器)提供的模块和包的大型生态系统为开发人员提供了广泛的工具,以增强其应用程序的性能和功能。
然而,必须考虑到Node.js可能不是所有场景的最佳选择。一些考虑因素包括:
1. CPU密集型任务:对于严重依赖CPU密集型的任务的应用程序来说,Node.js不是最佳选择,因为它在单个线程上运行,可能无法完全利用多个CPU核心。
2. 大文件上传/下载:Node.js可能不是处理大文件上传或下载的最具性能的选项,因为它的单线程特性可能会消耗大量内存。
3. 现有基础架构和专业技能:考虑团队中现有的基础架构、资源和专业技能。如果您的团队在不同的服务器技术方面拥有丰富的经验,那么利用这些专业知识可能比引入新技术更有效。
4. 特定使用案例:服务器技术的性能可能因应用程序的特定要求而异。评估应用程序的需求至关重要,例如处理繁重的流量、数据库集成或与特定协议的集成,并相应地选择服务器技术。
总之,虽然Node.js为某些用例提供了高性能,但在确定Node.js是否是服务器应用程序最具性能的选择之前,评估您的特定需求、工作负载特征和团队的专业知识是很重要的。