当前位置:Gxlcms > PHP教程 > nginx源码学习笔记(二十一)——event模块二——事件驱动核心ngx_process_events_and_timers

nginx源码学习笔记(二十一)——event模块二——事件驱动核心ngx_process_events_and_timers

时间:2021-07-01 10:21:17 帮助过:6人阅读

首先继续回忆下,之前子线程执行操作里面有一个未涉及的内容ngx_process_events_and_timers,今天我们就来研究下这个函数。

本篇文章来自于:http://blog.csdn.net/lengzijian/article/details/7601730

先来看一下第十九节的部分截图:

nginx 源码学习笔记(二十一)—— event 模块二 ——事件驱动核心ngx_process_events_and_timers

今天主要讲解的就是事件驱动函数,图中的红色部分:

[cpp] view plaincopyprint?

  1. src/event/ngx_event.c
  2. void
  3. ngx_process_events_and_timers(ngx_cycle_t *cycle)
  4. {
  5. ngx_uint_t flags;
  6. ngx_msec_t timer, delta;
  7. if (ngx_timer_resolution) {
  8. timer = NGX_TIMER_INFINITE;
  9. flags = 0;
  10. } else {
  11. timer = ngx_event_find_timer();
  12. flags = NGX_UPDATE_TIME;
  13. }
  14. /*
  15. ngx_use_accept_mutex变量代表是否使用accept互斥体
  16. 默认是使用,可以通过accept_mutex off;指令关闭;
  17. accept mutex 的作用就是避免惊群,同时实现负载均衡
  18. */
  19. if (ngx_use_accept_mutex) {
  20. /*
  21. ngx_accept_disabled变量在ngx_event_accept函数中计算。
  22. 如果ngx_accept_disabled大于0,就表示该进程接受的链接过多,
  23. 因此放弃一次争抢accept mutex的机会,同时将自己减一。
  24. 然后,继续处理已有连接上的事件。
  25. nginx就利用这一点实现了继承关于连接的基本负载均衡。
  26. */
  27. if (ngx_accept_disabled > 0) {
  28. ngx_accept_disabled--;
  29. } else {
  30. /*
  31. 尝试锁accept mutex,只有成功获取锁的进程,才会将listen套接字放到epoll中。
  32. 因此,这就保证了只有一个进程拥有监听套接口,故所有进程阻塞在epoll_wait时,
  33. 才不会惊群现象。
  34. */
  35. if (ngx_trylock_accept_mutex(cycle) == NGX_ERROR) {
  36. return;
  37. }
  38. if (ngx_accept_mutex_held) {
  39. /*
  40. 如果进程获得了锁,将添加一个 NGX_POST_EVENTS 标志。
  41. 这个标志的作用是将所有产生的事件放入一个队列中,等释放后,在慢慢来处理事件。
  42. 因为,处理时间可能会很耗时,如果不先施放锁再处理的话,该进程就长时间霸占了锁,
  43. 导致其他进程无法获取锁,这样accept的效率就低了。
  44. */
  45. flags |= NGX_POST_EVENTS;
  46. } else {
  47. /*
  48. 没有获得所得进程,当然不需要NGX_POST_EVENTS标志。
  49. 但需要设置延时多长时间,再去争抢锁。
  50. */
  51. if (timer == NGX_TIMER_INFINITE
  52. || timer > ngx_accept_mutex_delay)
  53. {
  54. timer = ngx_accept_mutex_delay;
  55. }
  56. }
  57. }
  58. }
  59. delta = ngx_current_msec;
  60. /*接下来,epoll要开始wait事件,
  61. ngx_process_events的具体实现是对应到epoll模块中的ngx_epoll_process_events函数
  62. 这里之后会详细讲解的哦
  63. */
  64. (void) ngx_process_events(cycle, timer, flags);
  65. //统计本次wait事件的耗时
  66. delta = ngx_current_msec - delta;
  67. ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
  68. "timer delta: %M", delta);
  69. /*
  70. ngx_posted_accept_events是一个事件队列,暂存epoll从监听套接口wait到的accept事件。
  71. 前文提到的NGX_POST_EVENTS标志被使用后,会将所有的accept事件暂存到这个队列
  72. */
  73. if (ngx_posted_accept_events) {
  74. ngx_event_process_posted(cycle, &ngx_posted_accept_events);
  75. }
  76. //所有accept事件处理完之后,如果持有锁的话,就释放掉。
  77. if (ngx_accept_mutex_held) {
  78. ngx_shmtx_unlock(&ngx_accept_mutex);
  79. }
  80. /*
  81. delta是之前统计的耗时,存在毫秒级的耗时,就对所有时间的timer进行检查,
  82. 如果timeout 就从time rbtree中删除到期的timer,同时调用相应事件的handler函数处理
  83. */
  84. if (delta) {
  85. ngx_event_expire_timers();
  86. }
  87. ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
  88. "posted events %p", ngx_posted_events);
  89. /*
  90. 处理普通事件(连接上获得的读写事件),
  91. 因为每个事件都有自己的handler方法,
  92. */
  93. if (ngx_posted_events) {
  94. if (ngx_threaded) {
  95. ngx_wakeup_worker_thread(cycle);
  96. } else {
  97. ngx_event_process_posted(cycle, &ngx_posted_events);
  98. }
  99. }
  100. }


之前有说过accept事件,其实他就是监听套接口上是否有新来的事件,下面介绍下accept时间的handler方法:

ngx_event_accept:

[cpp] view plaincopyprint?

  1. src/event/ngx_event_accept.c
  2. void
  3. ngx_event_accept(ngx_event_t *ev)
  4. {
  5. socklen_t socklen;
  6. ngx_err_t err;
  7. ngx_log_t *log;
  8. ngx_socket_t s;
  9. ngx_event_t *rev, *wev;
  10. ngx_listening_t *ls;
  11. ngx_connection_t *c, *lc;
  12. ngx_event_conf_t *ecf;
  13. u_char sa[NGX_SOCKADDRLEN];
  14. //省略部分代码
  15. lc = ev->data;
  16. ls = lc->listening;
  17. ev->ready = 0;
  18. ngx_log_debug2(NGX_LOG_DEBUG_EVENT, ev->log, 0,
  19. "accept on %V, ready: %d", &ls->addr_text, ev->available);
  20. do {
  21. socklen = NGX_SOCKADDRLEN;
  22. //accept一个新的连接
  23. s = accept(lc->fd, (struct sockaddr *) sa, &socklen);
  24. //省略部分代码
  25. /*
  26. accept到一个新的连接后,就重新计算ngx_accept_disabled的值,
  27. 它主要是用来做负载均衡,之前有提过。
  28. 这里,我们可以看到他的就只方式
  29. “总连接数的八分之一 - 剩余的连接数“
  30. 总连接指每个进程设定的最大连接数,这个数字可以再配置文件中指定。
  31. 所以每个进程到总连接数的7/8后,ngx_accept_disabled就大于零,连接超载了
  32. */
  33. ngx_accept_disabled = ngx_cycle->connection_n / 8
  34. - ngx_cycle->free_connection_n;
  35. //获取一个connection
  36. c = ngx_get_connection(s, ev->log);
  37. //为新的链接创建起一个memory pool
  38. //连接关闭的时候,才释放pool
  39. c->pool = ngx_create_pool(ls->pool_size, ev->log);
  40. if (c->pool == NULL) {
  41. ngx_close_accepted_connection(c);
  42. return;
  43. }
  44. c->sockaddr = ngx_palloc(c->pool, socklen);
  45. if (c->sockaddr == NULL) {
  46. ngx_close_accepted_connection(c);
  47. return;
  48. }
  49. ngx_memcpy(c->sockaddr, sa, socklen);
  50. log = ngx_palloc(c->pool, sizeof(ngx_log_t));
  51. if (log == NULL) {
  52. ngx_close_accepted_connection(c);
  53. return;
  54. }
  55. /* set a blocking mode for aio and non-blocking mode for others */
  56. if (ngx_inherited_nonblocking) {
  57. if (ngx_event_flags & NGX_USE_AIO_EVENT) {
  58. if (ngx_blocking(s) == -1) {
  59. ngx_log_error(NGX_LOG_ALERT, ev->log, ngx_socket_errno,
  60. ngx_blocking_n " failed");
  61. ngx_close_accepted_connection(c);
  62. return;
  63. }
  64. }
  65. } else {
  66. //我们使用epoll模型,这里我们设置连接为nonblocking
  67. if (!(ngx_event_flags & (NGX_USE_AIO_EVENT|NGX_USE_RTSIG_EVENT))) {
  68. if (ngx_nonblocking(s) == -1) {
  69. ngx_log_error(NGX_LOG_ALERT, ev->log, ngx_socket_errno,
  70. ngx_nonblocking_n " failed");
  71. ngx_close_accepted_connection(c);
  72. return;
  73. }
  74. }
  75. }
  76. *log = ls->log;
  77. //初始化新的连接
  78. c->recv = ngx_recv;
  79. c->send = ngx_send;
  80. c->recv_chain = ngx_recv_chain;
  81. c->send_chain = ngx_send_chain;
  82. c->log = log;
  83. c->pool->log = log;
  84. c->socklen = socklen;
  85. c->listening = ls;
  86. c->local_sockaddr = ls->sockaddr;
  87. c->unexpected_eof = 1;
  88. #if (NGX_HAVE_UNIX_DOMAIN)
  89. if (c->sockaddr->sa_family == AF_UNIX) {
  90. c->tcp_nopush = NGX_TCP_NOPUSH_DISABLED;
  91. c->tcp_nodelay = NGX_TCP_NODELAY_DISABLED;
  92. #if (NGX_SOLARIS)
  93. /* Solaris's sendfilev() supports AF_NCA, AF_INET, and AF_INET6 */
  94. c->sendfile = 0;
  95. #endif
  96. }
  97. #endif
  98. rev = c->read;
  99. wev = c->write;
  100. wev->ready = 1;
  101. if (ngx_event_flags & (NGX_USE_AIO_EVENT|NGX_USE_RTSIG_EVENT)) {
  102. /* rtsig, aio, iocp */
  103. rev->ready = 1;
  104. }
  105. if (ev->deferred_accept) {
  106. rev->ready = 1;
  107. #if (NGX_HAVE_KQUEUE)
  108. rev->available = 1;
  109. #endif
  110. }
  111. rev->log = log;
  112. wev->log = log;
  113. /*
  114. * TODO: MT: - ngx_atomic_fetch_add()
  115. * or protection by critical section or light mutex
  116. *
  117. * TODO: MP: - allocated in a shared memory
  118. * - ngx_atomic_fetch_add()
  119. * or protection by critical section or light mutex
  120. */
  121. c->number = ngx_atomic_fetch_add(ngx_connection_counter, 1);
  122. if (ngx_add_conn && (ngx_event_flags & NGX_USE_EPOLL_EVENT) == 0) {
  123. if (ngx_add_conn(c) == NGX_ERROR) {
  124. ngx_close_accepted_connection(c);
  125. return;
  126. }
  127. }
  128. log->data = NULL;
  129. log->handler = NULL;
  130. /*
  131. 这里listen handler很重要,它将完成新连接的最后初始化工作,
  132. 同时将accept到的新的连接放入epoll中;挂在这个handler上的函数,
  133. 就是ngx_http_init_connection 在之后http模块中在详细介绍
  134. */
  135. ls->handler(c);
  136. if (ngx_event_flags & NGX_USE_KQUEUE_EVENT) {
  137. ev->available--;
  138. }
  139. } while (ev->available);
  140. }


accpt事件的handler方法也就是如此了。之后就是每个连接的读写事件handler方法,这一部分会直接将我们引入http模块,我们还不急,还要学习下nginx经典模块epoll。

以上就介绍了nginx 源码学习笔记(二十一)—— event 模块二 ——事件驱动核心ngx_process_events_and_timers,包括了队列方面的内容,希望对PHP教程有兴趣的朋友有所帮助。

人气教程排行