0


Linux——生产者消费者模型

一.为何要使用生产者消费者模型

生产者消费者模式就是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。这个阻塞队列就是用来给生产者和消费者解耦的。

二.生产者消费者模型优点

  • 解耦:生产者和消费者不直接解除,无需关心对方的情况,仅仅自己与缓冲区解除。
  • 支持并发:并发的体现并不在于多个消费者同时从缓冲区中拿数据,也不是多个生产者同时从缓冲区放数据,而是消费者在处理拿到的数据的时候,生产者可以继续向缓冲区放数据。
  • 支持忙闲不均 :当生产者生产过快的时候,可以让生产者慢下来,当消费者消费过快的时候,可以让消费者慢下来。

三.基于BlockingQueue的生产者消费者模型

1.BlockingQueue——阻塞队列

在多线程编程中阻塞队列(Blocking Queue)是一种常用于实现生产者和消费者模型的数据结构。其与普通的队列区别在于,当队列为空时,从队列获取元素的操作将会被阻塞,直到队列中被放入了元素;当队列满时,往队列里存放元素的操作也会被阻塞,直到有元素被从队列中取出(以上的操作都是基于不同的线程来说的,线程在对阻塞队列进程操作时会被阻塞)。

2.实现代码

  1. #include <iostream>
  2. #include <string>
  3. #include <queue>
  4. #include <ctime>
  5. #include <unistd.h>
  6. #include <pthread.h>
  7. using namespace std;
  8. template <class T>
  9. class BlockQueue
  10. {
  11. public:
  12. BlockQueue(size_t cap)
  13. : _cap(cap)
  14. {
  15. // 初始化条件变量
  16. pthread_cond_init(&_c_cond, nullptr);
  17. pthread_cond_init(&_p_cond, nullptr);
  18. }
  19. void push(T date)
  20. {
  21. // 将任务push进去队列,多线程加锁,每一只能一个线程push任务
  22. pthread_mutex_lock(&_mutex);
  23. while (_q.size() == _cap) // 如果队列已经满了,生产者要被阻塞
  24. {
  25. pthread_cond_wait(&_p_cond, &_mutex);
  26. }
  27. _q.push(date);
  28. // 当push任务成功的时候,需要将唤醒消费者来处理数据
  29. pthread_cond_signal(&_c_cond);
  30. pthread_mutex_unlock(&_mutex);
  31. }
  32. T pop()
  33. {
  34. // 将任务从队列中拿出来,多线程加锁,每一只能一个线程拿任务
  35. pthread_mutex_lock(&_mutex);
  36. // 如果队列是空的就将消费者阻塞
  37. while (isempty())
  38. {
  39. pthread_cond_wait(&_c_cond, &_mutex);
  40. }
  41. T tmp = _q.front();
  42. _q.pop();
  43. // 成功拿到数据以后,唤醒生产者继续生产任务
  44. pthread_cond_signal(&_p_cond);
  45. pthread_mutex_unlock(&_mutex);
  46. return tmp;
  47. }
  48. ~BlockQueue()
  49. {
  50. pthread_cond_destroy(&_c_cond);
  51. pthread_cond_destroy(&_p_cond);
  52. }
  53. private:
  54. bool isempty()
  55. {
  56. return _q.empty();
  57. }
  58. bool isfull()
  59. {
  60. return _q.size() == _cap;
  61. }
  62. private:
  63. queue<T> _q; // 队列
  64. size_t _cap; // 容量
  65. pthread_cond_t _c_cond; // 消费者条件变量
  66. pthread_cond_t _p_cond; // 生产者条件变量
  67. pthread_mutex_t _mutex = PTHREAD_MUTEX_INITIALIZER; // 互斥锁
  68. };

cp模型:

  1. #include "BlockQueue.hpp"
  2. using namespace std;
  3. // 构建任务
  4. struct Task
  5. {
  6. Task(int a, int b, char op)
  7. : _a(a), _b(b), _op(op)
  8. {
  9. }
  10. char _op; // 运算符
  11. int _a; // 运算数1
  12. int _b; // 运算数2
  13. int ret; // 结果
  14. int _exitcode; // 退出码
  15. };
  16. void *push_task(void *args)
  17. {
  18. BlockQueue<Task> *pBQ = static_cast<BlockQueue<Task> *>(args);
  19. while (1)
  20. {
  21. char op_arr[4] = {'+', '-', '*', '/'};
  22. int a = rand() % 10;
  23. int b = rand() % 10;
  24. char op = op_arr[(a * b) % 4];
  25. // 构建任务结构体
  26. Task tk(a, b, op);
  27. // push任务
  28. pBQ->push(tk);
  29. printf("%d %c %d =?\n", a, op, b);
  30. sleep(1);
  31. }
  32. return NULL;
  33. }
  34. void *get_task(void *args)
  35. {
  36. BlockQueue<Task> *pBQ = static_cast<BlockQueue<Task> *>(args);
  37. while (1)
  38. {
  39. // 获取任务并处理
  40. Task tk = pBQ->pop();
  41. switch (tk._op)
  42. {
  43. case '+':
  44. tk.ret = tk._a + tk._b;
  45. break;
  46. case '-':
  47. tk.ret = tk._a - tk._b;
  48. break;
  49. case '*':
  50. tk.ret = tk._a * tk._b;
  51. break;
  52. case '/':
  53. if (tk._b == 0)
  54. {
  55. exit(-1);
  56. }
  57. tk.ret = tk._a / tk._b;
  58. break;
  59. default:
  60. break;
  61. }
  62. printf("%d %c %d = %d\n", tk._a, tk._op, tk._b, tk.ret);
  63. sleep(1);
  64. }
  65. return NULL;
  66. }
  67. int main()
  68. {
  69. BlockQueue<Task> BQ(5);
  70. pthread_t tid_c[4];
  71. pthread_t tid_p[4];
  72. srand(time(nullptr));
  73. // push
  74. pthread_create(&tid_c[0], NULL, push_task, &BQ);
  75. pthread_create(&tid_c[1], NULL, push_task, &BQ);
  76. pthread_create(&tid_c[2], NULL, push_task, &BQ);
  77. pthread_create(&tid_c[3], NULL, push_task, &BQ);
  78. // get
  79. pthread_create(&tid_p[0], NULL, get_task, &BQ);
  80. pthread_create(&tid_p[1], NULL, get_task, &BQ);
  81. pthread_create(&tid_p[2], NULL, get_task, &BQ);
  82. pthread_create(&tid_p[3], NULL, get_task, &BQ);
  83. pthread_join(tid_c[0], NULL);
  84. pthread_join(tid_c[1], NULL);
  85. pthread_join(tid_c[2], NULL);
  86. pthread_join(tid_c[3], NULL);
  87. pthread_join(tid_p[0], NULL);
  88. pthread_join(tid_p[1], NULL);
  89. pthread_join(tid_p[2], NULL);
  90. pthread_join(tid_p[3], NULL);
  91. return 0;
  92. }

测试结果:

四.POSIX信号量

POSIX信号量和SystemV信号量作用相同,都是用于同步操作,达到无冲突的访问共享资源目的。 但POSIX可以用于线程间同步。

定义信号量:

  1. sem_t sem;

初始化信号量:

  1. #include <semaphore.h>
  2. int sem_init(sem_t *sem, int pshared, unsigned int value);

参数:

  1. pshared:0表示线程间共享,非零表示进程间共享。
  2. value:信号量初始值。

销毁信号量:

  1. int sem_destroy(sem_t *sem);

等待信号量:

功能:等待信号量,会将信号量的值减1。

  1. int sem_wait(sem_t *sem); //P()

发布信号量:

功能:发布信号量,表示资源使用完毕,可以归还资源了。将信号量值加1。

  1. int sem_post(sem_t *sem);//V()

说明:

  • 信号量本身就是一个计数器,用来描述可用资源的数目。
  • 信号量机制就像是我们看电影买票一样,是对资源的预定机制。
  • 只有申请到信号量才能对共享资源访问。
  • 只要我们申请信号量成功了,将来我们一定可以访问临界资源,就像看电影,我们只要买到了电影票,不管我们去不去电影院,电影院里一定有我们的位置。

五.基于环形队列的生产消费模型

环形队列采用数组模拟,用模运算来模拟环状特性。

环形结构起始状态和结束状态都是一样的,不好判断为空或者为满,所以可以通过加计数器或者标记位来判断满或者空。另外也可以预留一个空的位置,作为满的状态。

代码:

RingQueue.hpp

  1. #pragma once
  2. #include <iostream>
  3. #include <cstdio>
  4. #include <ctime>
  5. #include <cstdlib>
  6. #include <pthread.h>
  7. #include <vector>
  8. #include <unistd.h>
  9. #include <semaphore.h>
  10. #include "mutex.hpp"
  11. #include "Task.hpp"
  12. using namespace std;
  13. const size_t size = 5;
  14. template <class T>
  15. class RingQueue
  16. {
  17. void P(sem_t &sem) // 申请信号量
  18. {
  19. sem_wait(&sem);
  20. }
  21. void V(sem_t &sem) // 释放信号量
  22. {
  23. sem_post(&sem);
  24. }
  25. public:
  26. RingQueue(int cap = size)
  27. : _cap(cap), _index_space(0), _index_date(0)
  28. {
  29. // 初始化信号量
  30. sem_init(&_sem_date, 0, 0); // 数据信号量初始化为0
  31. sem_init(&_sem_space, 0, cap); // 空间信号量初始化为容量大小
  32. // 初始化锁
  33. pthread_mutex_init(&_mutex, nullptr);
  34. _rq.resize(_cap);
  35. }
  36. void push(const T date)
  37. {
  38. // 申请空间信号量
  39. P(_sem_space);
  40. {
  41. MutexGuard lock(&_mutex);
  42. _rq[_index_date++] = date;
  43. _index_date %= _cap;
  44. }
  45. // 释放数据信号量
  46. V(_sem_date);
  47. }
  48. T pop()
  49. {
  50. // 申请数据信号量
  51. P(_sem_date);
  52. T tmp;
  53. {
  54. MutexGuard lock(&_mutex);
  55. tmp = _rq[_index_space++];
  56. _index_space %= _cap;
  57. }
  58. // 释放空间信号量
  59. V(_sem_space);
  60. return tmp;
  61. }
  62. ~RingQueue()
  63. {
  64. // 释放信号量和互斥锁
  65. sem_destroy(&_sem_date);
  66. sem_destroy(&_sem_space);
  67. pthread_mutex_destroy(&_mutex);
  68. }
  69. private:
  70. vector<T> _rq;
  71. size_t _cap; // 容量
  72. sem_t _sem_space; // 记录环形队列的空间信号量
  73. sem_t _sem_date; // 记录环形队列的数据信号量
  74. size_t _index_space; // 生产者的生产位置
  75. size_t _index_date; // 消费者的消费位置
  76. pthread_mutex_t _mutex; // 容量
  77. };

mutex.hpp:

  1. class Mutex
  2. {
  3. public:
  4. Mutex(pthread_mutex_t *mutex)
  5. : _mutex(mutex)
  6. {
  7. }
  8. void lock()
  9. {
  10. pthread_mutex_lock(_mutex);
  11. }
  12. void unlock()
  13. {
  14. pthread_mutex_unlock(_mutex);
  15. }
  16. ~Mutex()
  17. {
  18. }
  19. private:
  20. pthread_mutex_t *_mutex;
  21. };
  22. class MutexGuard
  23. {
  24. public:
  25. MutexGuard(pthread_mutex_t *mutex)
  26. : _mutex(mutex)
  27. {
  28. _mutex.lock();
  29. }
  30. ~MutexGuard()
  31. {
  32. _mutex.unlock();
  33. }
  34. private:
  35. Mutex _mutex;
  36. };

Task.hpp:

  1. #include <iostream>
  2. #include <cstdio>
  3. #include <ctime>
  4. #include <cstdlib>
  5. struct Task
  6. {
  7. Task(int a = 1, int b = 1, char op = '+')
  8. : _a(a), _b(b), _op(op)
  9. {
  10. }
  11. void run()
  12. {
  13. switch (_op)
  14. {
  15. case '+':
  16. _ret = _a + _b;
  17. break;
  18. case '-':
  19. _ret = _a - _b;
  20. break;
  21. case '*':
  22. _ret = _a * _b;
  23. break;
  24. case '/':
  25. if (_b == 0)
  26. {
  27. _exitcode = -1;
  28. exit(1);
  29. }
  30. _ret = _a / _b;
  31. break;
  32. default:
  33. break;
  34. }
  35. }
  36. void showtask()
  37. {
  38. printf("producer:%d %c %d = ?\n", _a, _op, _b);
  39. }
  40. void showresult()
  41. {
  42. printf("consumer:%d %c %d = %d(exitcode:%d)\n", _a, _op, _b, _ret, _exitcode);
  43. }
  44. ~Task() {}
  45. private:
  46. int _a;
  47. int _b;
  48. char _op;
  49. int _ret;
  50. int _exitcode = 0;
  51. };

pthread.cc:

  1. #include "RingQueue.hpp"
  2. void *run_p(void *args)
  3. {
  4. char ops[4] = {'+', '-', '*', '/'};
  5. RingQueue<Task> *RQ = static_cast<RingQueue<Task> *>(args);
  6. while (1)
  7. {
  8. int a = rand() % 100;
  9. int b = rand() % 100;
  10. int op = ops[(a * b) % 4];
  11. Task tk(a, b, op);
  12. RQ->push(tk);
  13. tk.showtask();
  14. sleep(1);
  15. }
  16. }
  17. void *run_c(void *args)
  18. {
  19. RingQueue<Task> *RQ = static_cast<RingQueue<Task> *>(args);
  20. while (1)
  21. {
  22. Task tk = RQ->pop();
  23. tk.run();
  24. tk.showresult();
  25. sleep(1);
  26. }
  27. }
  28. int main()
  29. {
  30. RingQueue<Task> *RQ = new RingQueue<Task>(5);
  31. srand(time(0));
  32. pthread_t tid_c[5];
  33. pthread_t tid_p[5];
  34. for (int i = 0; i < 5; i++)
  35. {
  36. pthread_create(&tid_c[i], nullptr, run_c, RQ);
  37. pthread_create(&tid_p[i], nullptr, run_p, RQ);
  38. }
  39. for (int i = 0; i < 5; i++)
  40. {
  41. pthread_join(tid_c[i], nullptr);
  42. pthread_join(tid_p[i], nullptr);
  43. }
  44. delete RQ;
  45. return 0;
  46. }
标签: linux 运维 服务器

本文转载自: https://blog.csdn.net/qq_63943454/article/details/133883393
版权归原作者 我的代码爱吃辣 所有, 如有侵权,请联系我们删除。

“Linux——生产者消费者模型”的评论:

还没有评论