【C语言】Linux实现高并发处理的过程

2024-01-10 09:28:09

一、实现高并发的几种策略

C语言本身并没有内建的多线程支持(新版C语言支持,但用得不多),但是在多数操作系统中,可以使用库来实现多线程编程。例如,在POSIX兼容系统上,可以使用 pthreads 库来创建和管理线程。然而,传统的多线程存在着资源限制,比如每个线程都需要独立的堆栈空间,上下文切换开销大,线程数量多时还会导致竞争情况加剧。
为了兼顾高并发和高性能,可以采取以下几种策略:
1. 线程池(Thread Pools):创建一个线程池来管理一定数量的线程,避免了频繁创建和销毁线程的开销,可以复用线程处理多个任务。
2. 事件驱动(Event-Driven): 使用事件驱动(如使用select/poll/epoll/kqueue等)的非阻塞IO模型可以减少线程数目和上下文切换的开销,同时能够处理大量并发连接。


3. 异步IO(Asynchronous I/O): 利用操作系统级别的异步IO接口,比如posix的aio系列函数,这样IO操作不会阻塞线程。
4. 协程(Coroutines):协程是一种用户态的轻量级线程,协程库(如libco、libtask)可以在用户空间进行上下文切换,拥有极低的切换成本,并能够在单线程内实现高并发。
5. 使用其他并发模型:比如Go语言中的Goroutines,Erlang语言中的Actor模型,它们都是设计上为并发而生,能够实现高性能的并发处理。
6. 硬件加速:在某些应用场景中,使用专用硬件或者利用GPU并行计算能力也能大幅提高并发处理性能。
每种方法有各自的优缺点和适用的场景,实际选择时需要根据应用需求、系统特性和资源限制综合考虑。在需要处理大规模并发连接时,通常会使用事件驱动和异步IO结合的方式来实现高效的并发处理。

二、异步IO(Asynchronous I/O)和同步IO(Synchronous I/O)

异步IO(Asynchronous I/O)是一种让程序启动一个IO操作以后不必等待其完成就能继续执行其他任务的技术。同步IO(Synchronous I/O),在执行IO操作时会阻塞当前线程,直到IO操作完成。

下面举例来说明两者之间的区别:

同步IO

在同步IO模型中,应用程序执行一个IO操作,如从文件读取数据或写入数据到文件,然后等待操作的完成。在这个过程中,应用程序被阻塞,不能执行其他任何操作。只有当IO请求完成,并且数据被复制到应用程序的缓冲区之后,应用程序才可以继续执行。

例如,这是一个简化的同步IO读操作的代码示例:

FILE* file = fopen("example.txt", "r");
if (file) {
    char buffer[1024];
    size_t bytes_read = fread(buffer, sizeof(char), sizeof(buffer), file);
    if (bytes_read > 0) {
        // 处理读取到的数据
    }
    fclose(file);
}

在这个例子中,`fread` 函数将会阻塞直到指定数量的字节被读取到?buffer?中或遇到文件结尾。

异步IO

在异步IO模型中,应用程序发出IO操作请求并直接返回,可以继续执行其他操作。当IO操作实际完成后,应用程序会以某种方式被通知,例如通过回调函数、IO完成队列或者信号等,这样应用程序可以处理IO操作的结果。

例如这是一种异步读操作的伪代码示例:

void io_completion_callback(IOOperation *op) {
    // 处理异步操作完成的数据
}

void initiate_async_read(const char* file_path) {
    // 设置异步读取操作,指定完成后的回调函数
    IOOperation *op = setup_async_read(file_path, io_completion_callback);
    // 发起异步读取操作,立即返回
    start_async_io(op);
}

// 应用程序继续执行,而IO操作在后台进行

在使用异步IO时,应用程序不需要在IO上阻塞等待,能够更好地利用CPU和IO设备的性能,特别是在需要大量IO操作和高并发处理的程序中。

在UNIX/Linux系统中,支持异步IO的API包括`aio_read`、`aio_write`以及IO复用的系统调用如`select`、`poll`和`epoll`。这些API提供了不同的异步处理机制,使得应用程序可以在不阻塞的情况下监控多个IO操作的状态。

三、简单的线程池

线程池的基本思路是预先创建一定数量的线程,并将它们放入等待队列中。每当有新的任务来临时,线程池会选择一个空闲线程去执行任务,执行完成后线程再次回到等待队列中。线程池通常有以下几个关键的组成部分:
- 任务队列(task queue)
- 锁和条件变量 (用于同步)
- 工作线程集合
- 管理线程池的API(创建、销毁线程池,加入任务等)

为了实现一个简单的线程池,我们需要一个工作队列来存放待处理的任务,以及一组工作线程来执行这些任务。下面是一个简易的线程池实现的示例,这个实现将会提供`thread_pool_init`、`thread_pool_enqueue`和`thread_pool_destroy`这三个函数。

这里的代码只是一个例子,不考虑所有边界条件和潜在的同步问题。在实际应用中,需要考虑线程同步机制、错误处理以及资源的正确释放等问题。

#include <pthread.h>
#include <stdio.h>
#include <stdlib.h>
#include <unistd.h>
#include <stdbool.h>
#include <sys/queue.h>

// 定义任务结构体
typedef struct task {
    void (*function)(void *arg);
    void *arg;
    TAILQ_ENTRY(task) entries; // 使用TAILQ宏定义队列元素
} task_t;

// 定义任务队列
typedef TAILQ_HEAD(taskhead, task) taskhead_t;

// 定义线程池结构体
typedef struct thread_pool {
    pthread_t *threads;
    int thread_count;
    taskhead_t task_queue;
    pthread_mutex_t lock;
    pthread_cond_t cond;
    bool stop;
} thread_pool_t;

// 线程池全局变量
thread_pool_t pool;

// 线程池工作线程
void *thread_pool_worker(void *arg) {
    while (1) {
        pthread_mutex_lock(&pool.lock);

        // 等待直到有任务到来或者销毁线程池
        while (TAILQ_EMPTY(&pool.task_queue) && !pool.stop) {
            pthread_cond_wait(&pool.cond, &pool.lock);
        }

        if (pool.stop) {
            break;
        }

        task_t *task = TAILQ_FIRST(&pool.task_queue);
        TAILQ_REMOVE(&pool.task_queue, task, entries);
        pthread_mutex_unlock(&pool.lock);

        // 执行任务
        task->function(task->arg);
        free(task);

        pthread_mutex_lock(&pool.lock);
    }

    pthread_mutex_unlock(&pool.lock);
    return NULL;
}

// 初始化线程池
void thread_pool_init(int num_threads) {
    pool.threads = malloc(sizeof(pthread_t) * num_threads);
    pool.thread_count = num_threads;
    TAILQ_INIT(&pool.task_queue);
    pthread_mutex_init(&pool.lock, NULL);
    pthread_cond_init(&pool.cond, NULL);
    pool.stop = false;

    for (int i = 0; i < num_threads; i++) {
        pthread_create(&pool.threads[i], NULL, thread_pool_worker, NULL);
    }
}

// 添加任务到线程池队列
void thread_pool_enqueue(void (*function)(void*), void *arg) {
    task_t *task = malloc(sizeof(*task));
    task->function = function;
    task->arg = arg;

    pthread_mutex_lock(&pool.lock);
    TAILQ_INSERT_TAIL(&pool.task_queue, task, entries);
    pthread_cond_signal(&pool.cond);
    pthread_mutex_unlock(&pool.lock);
}

// 销毁线程池
void thread_pool_destroy() {
    // 停止所有线程池工作线程
    pool.stop = true;
    pthread_cond_broadcast(&pool.cond);

    // 等待所有线程完成
    for (int i = 0; i < pool.thread_count; i++) {
        pthread_join(pool.threads[i], NULL);
    }

    // 清理资源
    pthread_mutex_destroy(&pool.lock);
    pthread_cond_destroy(&pool.cond);
    
    while (!TAILQ_EMPTY(&pool.task_queue)) {
        task_t *task = TAILQ_FIRST(&pool.task_queue);
        TAILQ_REMOVE(&pool.task_queue, task, entries);
        free(task);
    }

    free(pool.threads);
}

四、线程池和异步IO结合来实现

要在C语言中实现线程池和异步IO结合来实现高并发和高性能,可以通过以下几个步骤来操作:

1. 创建线程池:

首先,需要先创建一个线程池,这通常涉及到预先分配一定数量的线程,并且维护一个任务队列。

每个线程将从任务队列中取出任务来执行。通常还需要同步机制(如条件变量和互斥锁)来保护任务队列,以防止多个线程同时对队列进行操作。

2. 使用异步IO:

然后,应用程序主线程利用异步IO机制(如Linux下的epoll,Windows下的IOCP)来监视IO事件,当IO事件就绪时,不进行实际的读写操作,而是将这个任务放入线程池的任务队列。

异步IO事件可以通知程序某个IO操作(如网络数据的读或写)可以开始,并不会实际阻塞线程。

3. 任务处理:

当异步IO事件通知程序数据准备好了后,任务会被提交到线程池的任务队列中。

工作线程从队列中取出任务,执行实际的IO处理,如读取数据、进行业务处理和准备响应数据。

4. 完成异步任务:

处理完成后,工作线程可以继续使用异步IO机制来进行响应的发送,或者将完成的数据返回给主线程,由主线程统一发送。

5. 一个简化的例子

如下,以Linux平台为例,使用epoll和线程池:

#include <sys/epoll.h>
#include <pthread.h>
#include <stdio.h>
#include <unistd.h>

// 假设这里已经实现了一个线程池,和线程池相关的函数
// 初始化线程池
void thread_pool_init(int num_threads);
// 将任务添加到线程池队列
void thread_pool_enqueue(void (*task_function)(void*), void* task_data);
// 销毁线程池
void thread_pool_destroy();

// 异步IO任务执行函数
void async_io_task(void* data) {
    int fd = *(int*)data;
    char buffer[1024];

    // 实际的IO操作,读取数据
    ssize_t bytes_read = read(fd, buffer, sizeof(buffer));

    // 进行业务处理(假设处理完毕,准备响应)

    // 发送响应(假设直接回写数据)
    write(fd, buffer, bytes_read);

    // 关闭文件描述符
    close(fd);
}

int main() {
    // 初始化epoll
    int epoll_fd = epoll_create1(0);
    struct epoll_event event, events[10]; // 假设我们监视最多10个事件

    // 初始化线程池
    thread_pool_init(4);

    // 添加监听的文件描述符到epoll
    event.events = EPOLLIN; // 监听读事件
    event.data.fd = /* 监听的文件描述符 */;
    epoll_ctl(epoll_fd, EPOLL_CTL_ADD, event.data.fd, &event);

    // 事件循环
    while (1) {
        // 等待事件发生,无需阻塞IO
        int n = epoll_wait(epoll_fd, events, 10, -1);

        for (int i = 0; i < n; i++) {
            if (events[i].events & EPOLLIN) {
                // 异步IO准备就绪,将任务提交到线程池
                thread_pool_enqueue(async_io_task, &(events[i].data.fd));
            }
        }
    }

    // 销毁线程池和关闭epoll文件描述符
    thread_pool_destroy();
    close(epoll_fd);

    return 0;
}

上述代码是一个高度简化的框架,真实的环境需要处理更多的细节,比如错误处理、动态资源管理、线程池和任务队列的具体实现等。此代码仅用于演示大体的结构和思路。

这种结合了线程池和异步IO的模型能够很好地平衡系统资源,同时支持大量客户端并发连接和IO操作,适用于例如高性能的网络服务器。

五、epoll处理网络连接的例子

在Linux平台,epoll是一个高效的事件通知机制,经常用于处理大量并发的网络连接。与其前辈select和poll相比,epoll`过一种称作“事件通知机制”的方式来减少无谓的轮询,并能够伸缩到数以万计的文件描述符。

以下是一个简化的例子,展示了如何组合epoll和线程池来处理大量的并发网络连接:

首先,创建一个监听socket,并且使用epoll_create来创建一个epoll实例:

int listen_fd = socket(AF_INET, SOCK_STREAM, 0);

// 设置为非阻塞模式
int flags = fcntl(listen_fd, F_GETFL, 0);
fcntl(listen_fd, F_SETFL, flags | O_NONBLOCK);

// 绑定和监听
struct sockaddr_in addr;
memset(&addr, 0, sizeof(addr));
addr.sin_family = AF_INET;
addr.sin_addr.s_addr = INADDR_ANY;
addr.sin_port = htons(port);
bind(listen_fd, (struct sockaddr *)&addr, sizeof(addr));
listen(listen_fd, SOMAXCONN);

// 创建epoll实例
int epoll_fd = epoll_create1(0);

然后在`listen_fd`上注册EPOLLIN事件:

struct epoll_event ev;
ev.events = EPOLLIN;
ev.data.fd = listen_fd;
epoll_ctl(epoll_fd, EPOLL_CTL_ADD, listen_fd, &ev);

接下来是工作循环。在这个循环中,我们会调用epoll_wait来等待事件的发生。对于每个就绪的socket,根据socket的类型(监听socket或者连接socket)进行不同的处理:

#define MAX_EVENTS 1024
struct epoll_event events[MAX_EVENTS];
while(1) {
    int nfds = epoll_wait(epoll_fd, events, MAX_EVENTS, -1);
    for(int i = 0; i < nfds; ++i) {
        if(events[i].data.fd == listen_fd) {
            // 处理新的连接
            struct sockaddr_in client_addr;
            socklen_t client_addr_len = sizeof(client_addr);
            int client_fd = accept(listen_fd, (struct sockaddr *)&client_addr, &client_addr_len);
            
            // 设置为非阻塞模式
            int flags = fcntl(client_fd, F_GETFL, 0);
            fcntl(client_fd, F_SETFL, flags | O_NONBLOCK);

            // 注册新的连接到epoll
            struct epoll_event client_ev;
            client_ev.events = EPOLLIN | EPOLLET;  // ET模式
            client_ev.data.fd = client_fd;
            epoll_ctl(epoll_fd, EPOLL_CTL_ADD, client_fd, &client_ev);
        } else {
            // 交给线程池处理即将读取的数据
            // 此处为了简化示例,我们假设使用了某个线程池enqueue的方法加入任务
            // 实际上应该使用像libuv之类的库或自定义线程池来处理任务
            thread_pool.enqueue([events, i]() {
                // 读取数据
                char buffer[1024];
                int n = read(events[i].data.fd, buffer, sizeof(buffer));
                // 处理数据
                // ...

                // 响应客户端
                // ...
            });
        }
    }
}

上面的代码结合了epoll和线程池,通过事件驱动提供了一个非阻塞的网络服务模型。当有新的连接到来时,accept会生成新的socket文件描述符,并将其加入到epoll实例进行监控。准备好读取数据的文件描述符将会被epoll_wait返回,然后这些就绪的描述符的数据处理任务被分配到线程池中去执行。

在实际的应用环境中,还需要处理各种网络编程中的细节问题(错误处理、客户端关闭连接的情况、资源回收、安全性考虑等),并且需要维护高效的线程池实现。

代码中的线程池并未具体实现,需要根据实际需要选择或实现一个线程池。此外,实际编码中还需要考虑重入性、异常安全性、内存泄漏问题等。

文章来源:https://blog.csdn.net/eidolon_foot/article/details/135431166
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。