ToB企服应用市场:ToB评测及商务社交产业平台

标题: 还在为慢速数据传输苦恼?Linux 零拷贝技术来帮你! [打印本页]

作者: 万有斥力    时间: 2024-11-6 11:06
标题: 还在为慢速数据传输苦恼?Linux 零拷贝技术来帮你!
前言

程序员的终极寻求是什么?当系统流量大增,用户体验却丝滑仍然?没错!然而,在大量文件传输、数据传递的场景中,传统的“数据搬运”却拖慢了性能。为了办理这一痛点,Linux 推出了 零拷贝 技术,让数据高效传输几乎无需 CPU 操心。今天,我就用最通俗的语言解说零拷贝的工作原理、常见实现方式和实际应用,彻底帮你搞懂这项技术!
1、传统拷贝:数据搬运的“旧时代”

为了理解零拷贝,我们先看看传统数据传输的工作方式。想象一下,我们需要把一个大文件从硬盘读取后发送到网络上。这听起来很简单,但实际上,传统的数据传输涉及多个步骤并占用大量 CPU 资源。
1.1 一个典范的文件传输过程(没有 DMA 技术):

假设我们要将一个大文件从硬盘读取后发送到网络。以下是传统拷贝方式的具体步骤:
1.2 来看个图,更直观点:


1.3 数据传输的“四次拷贝”

在这个过程中,数据在系统中履历了四次拷贝:
1.4 性能瓶颈分析

这种传统拷贝方式的问题显而易见:
这些问题在处理大文件或高频率传输时尤为显着,CPU 被迫充当“搬运工”,性能因此受到严峻限制。那么, 有没有一种方法可以或许淘汰 CPU 的“搬运”工作?此时,DMA(Direct Memory Access,直接内存访问)技术登场了。
2、DMA:零拷贝的前奏

DMA(Direct Memory Access,直接内存访问) 是一种让数据在硬盘和内存之间直接传输的技术,不需要 CPU 逐字节参与。简单来说,DMA 是 CPU 的“好帮手”,淘汰了它的工作量。
2.1 DMA 如何帮 CPU?

在传统的数据传输中,CPU 需要亲自把数据从硬盘搬到内存,再送到网络,这很耗费 CPU 资源。而 DMA 的出现让 CPU 可以少干活:
有了 DMA,CPU 只需要说一句:“嘿,DMA,把数据从硬盘搬到内存去!” 然后 DMA 控制器就会接过这活,自动把数据从硬盘传到内核缓冲区,CPU 只需要在旁边监督一下。
2.2 有了 DMA , 再来看看数据传输的过程:

为了更好地理解 DMA 在整个数据搬运中的角色,我们用图来说明:

说明
2.3 哪些步骤仍需 CPU 参与?

虽然 DMA 能帮 CPU 分担一些使命,但它并不能全权代理所有数据拷贝工作。CPU 还是得负责以下两件事
就像请了一个帮手,但有些细致活儿还得自己干。所以,在高并发或大文件传输时,CPU 仍然会由于这些拷贝使命感到压力。
2.4 总结一下

总结来说,DMA 确实减轻了 CPU 在数据传输中的负担,让数据从硬盘传输到内核缓冲区和内核缓冲区到网卡时几乎无需 CPU 的参与。然而,DMA 无法彻底办理数据在内核和用户空间之间的拷贝问题。CPU 依然需要进行两次数据搬运,特别是在高并发和大文件传输场景下,这个限制变得尤为突出。
3、零拷贝:让数据“直达”

因此,为了进一步淘汰 CPU 的参与,提升传输效率,Linux 推出了 零拷贝 技术。这项技术的核心目的是:让数据在内核空间内直接流转,避免在用户空间的冗余拷贝,从而最大限度淘汰 CPU 的内存拷贝操作,提高系统性能。
接下来,我们来具体看看 Linux 中的几种主要零拷贝实现方式:

注意:Linux 中零拷贝技术的实现需要硬件支持 DMA。
3.1 sendfile:最早的零拷贝方式

sendfile 是最早在 Linux 中引入的零拷贝方式,专为文件传输计划。
3.2 sendfile 的工作流程

通过 sendfile,整个传输过程 CPU 只需要一次数据拷贝,淘汰了 CPU 的使用。
3.3 简单图解:


sendfile 图讲授明:
3.4 sendfile 接口说明

sendfile函数定义如下:
  1. ssize_t sendfile(int out_fd, int in_fd, off_t *offset, size_t count);
复制代码
返回值是实际传输的字节数,出错时返回 -1,并设置 errno 来指示错误原因。
3.5 简单代码示例
  1. #include <sys/sendfile.h>
  2. int main() {
  3.     int input_fd = open("input.txt", O_RDONLY);
  4.     int server_fd = socket(AF_INET, SOCK_STREAM, 0);
  5.     struct sockaddr_in address;
  6.     address.sin_family = AF_INET;
  7.     address.sin_addr.s_addr = INADDR_ANY;
  8.     address.sin_port = htons(8080);
  9.     bind(server_fd, (struct sockaddr *)&address, sizeof(address));
  10.     listen(server_fd, 3);
  11.     int client_fd = accept(server_fd, NULL, NULL);
  12.     sendfile(client_fd, input_fd, NULL, 1024);
  13.     close(input_fd);
  14.     close(client_fd);
  15.     close(server_fd);
  16.     return 0;
  17. }
复制代码
这个例子展示了如何使用 sendfile 将本地文件发送到一个通过网络连接的客户端。只需要调用 sendfile,数据就能从 input_fd 直接传输到 output_fd。
3.6 实用场景

sendfile 主要用于将文件数据直接传输到网络,非常适合需要高效传输大文件的情况,比方文件服务器、流媒体传输、备份系统等。
在传统的数据传输方式中,数据需要经过多个步骤:
总结来说,sendfile 可以让数据传输更加高效,淘汰 CPU 的干预,特别适合简单的大文件传输场景。然而,假如遇到更复杂的传输需求,好比要在多个差别类型的文件形貌符之间移动数据,splice 则提供了一种更加机动的方法。接下来我们来看看 splice 是如何实现这一点的。
4. splice : 管道式零拷贝

splice 是 Linux 中另一种实现零拷贝的数据传输系统调用,专为在差别类型的文件形貌符之间高效地移动数据而计划,实用于在内核中直接传输数据,淘汰不须要的拷贝。
4.1 splice 的工作流程

整个过程在内核空间内完成,避免了数据从内核空间到用户空间的来回拷贝,大大淘汰了 CPU 的参与,提高了系统性能。
4.2 简单图解:

和 sendfile 图解雷同,只是接口不一样。

splice 图讲授明:
数据通过 splice 从文件形貌符传输到网络 socket。数据首先通过 DMA 进入内核缓冲区,然后直接传输到网络 socket,整个过程避免了用户空间的介入,显著淘汰了 CPU 的拷贝工作。
4.3 splice 接口说明

splice 函数的定义如下:
  1. ssize_t splice(int fd_in, loff_t *off_in, int fd_out, loff_t *off_out, size_t len, unsigned int flags);
复制代码
返回值是实际传输的字节数,出错时返回 -1,并设置 errno 来指示错误原因。
4.4 简单代码示例
  1. int main() {
  2.     int input_fd = open("input.txt", O_RDONLY);
  3.     int server_fd = socket(AF_INET, SOCK_STREAM, 0);
  4.     struct sockaddr_in address;
  5.     address.sin_family = AF_INET;
  6.     address.sin_addr.s_addr = INADDR_ANY;
  7.     address.sin_port = htons(8080);
  8.     bind(server_fd, (struct sockaddr *)&address, sizeof(address));
  9.     listen(server_fd, 3);
  10.     int client_fd = accept(server_fd, NULL, NULL);
  11.     splice(input_fd, NULL, client_fd, NULL, 1024, SPLICE_F_MORE);
  12.     close(input_fd);
  13.     close(client_fd);
  14.     close(server_fd);
  15.     return 0;
  16. }
复制代码
这个例子展示了如何使用 splice 将本地文件直接发送到网络 socket,以实现高效的数据传输。
4.5 实用场景

splice 实用于在文件形貌符之间进行高效、直接的数据传输,比方从文件到网络 socket 的传输,或在文件、管道和 socket 之间传递数据。在这种情况下,数据在内核空间内完成传输,无需进入用户空间,从而显著淘汰拷贝次数和 CPU 的参与。另外 splice 特别适合需要机动数据流动和淘汰 CPU 负担的场景,比方日志处理、实时数据流处理等。
4.6 sendfile 与 splice 的区别

虽然 sendfile 和 splice 都是 Linux 提供的零拷贝技术,用于高效地在内核空间传输数据,但它们在应用场景和功能上存在一些显著区别:
数据流动方式
实用场景
机动性
5. mmap + write:映射式零拷贝

除了以上两种方式,mmap + write 也是一种常见的零拷贝实现方式。这种方式主要是通过内存映射来淘汰数据拷贝的步骤。
5.1 mmap + write 的工作流程

这种方式淘汰了数据拷贝,提高了效率,适合需要机动操作数据后再发送的场景。通过这种方式,数据不需要显式地从内核空间拷贝到用户空间,而是通过映射的方式共享,从而淘汰了不须要的拷贝。
5.2 简单图解:


mmap + write 图讲授明:
5.3 mmap 接口说明

mmap 函数的定义如下:
  1. void *mmap(void *addr, size_t length, int prot, int flags, int fd, off_t offset);
复制代码
返回值为映射内存地区的指针,出错时返回 MAP_FAILED,并设置 errno。
5.4 简单代码示例
  1. int main() {
  2.     int input_fd = open("input.txt", O_RDONLY);
  3.     struct stat file_stat;
  4.     fstat(input_fd, &file_stat);
  5.     char *mapped = mmap(NULL, file_stat.st_size, PROT_READ, MAP_PRIVATE, input_fd, 0);
  6.     int server_fd = socket(AF_INET, SOCK_STREAM, 0);
  7.     struct sockaddr_in address;
  8.     address.sin_family = AF_INET;
  9.     address.sin_addr.s_addr = INADDR_ANY;
  10.     address.sin_port = htons(8080);
  11.     bind(server_fd, (struct sockaddr *)&address, sizeof(address));
  12.     listen(server_fd, 3);
  13.     int client_fd = accept(server_fd, NULL, NULL);
  14.     write(client_fd, mapped, file_stat.st_size);
  15.     munmap(mapped, file_stat.st_size);
  16.     close(input_fd);
  17.     close(client_fd);
  18.     close(server_fd);
  19.     return 0;
  20. }
复制代码
这个例子展示了如何使用 mmap 将文件映射到内存,然后通过 write 将数据发送到网络连接的客户端。
5.5 实用场景

mmap + write 实用于需要对文件数据进行机动操作的场景,比方需要在发送数据前进行修改或部分处理。与 sendfile 相比,mmap + write 提供了更大的机动性,由于它答应在用户态访问数据内容,这对于需要对文件进行预处理的应用场景非常有用,比方压缩、加密或者数据转换等。
然而,这种方式也带来了更多的开销,由于数据需要在用户态和内核态之间进行交互,这会增加系统调用的本钱。因此,mmap + write 更适合那些需要在数据传输前进行一些自定义处理的情况,而不太适合纯粹的大文件高效传输。
6. tee:数据复制的零拷贝方式

tee 是 Linux 中的一种零拷贝方式,它可以把一个管道中的数据复制到另一个管道,同时保留原管道中的数据。这意味着数据可以同时被发送到多个目的,而不影响原来的数据流,非常适合日志记载和实时数据分析等需要把同样的数据送往差别地方的场景。
6.1 tee 的工作流程

6.2 tee 接口说明

tee 函数的定义如下:
  1. ssize_t tee(int fd_in, int fd_out, size_t len, unsigned int flags);
复制代码
返回值是实际复制的字节数,出错时返回 -1,并设置 errno 来指示错误原因。
6.3 简单代码示例
  1. int main() {
  2.     int pipe_fd[2];
  3.     pipe(pipe_fd);
  4.     int server_fd = socket(AF_INET, SOCK_STREAM, 0);
  5.     struct sockaddr_in address;
  6.     address.sin_family = AF_INET;
  7.     address.sin_addr.s_addr = INADDR_ANY;
  8.     address.sin_port = htons(8080);
  9.     bind(server_fd, (struct sockaddr *)&address, sizeof(address));
  10.     listen(server_fd, 3);
  11.     int client_fd = accept(server_fd, NULL, NULL);
  12.     // 使用 tee 复制数据
  13.     tee(pipe_fd[0], pipe_fd[1], 1024, 0);
  14.     splice(pipe_fd[0], NULL, client_fd, NULL, 1024, SPLICE_F_MORE);
  15.     close(pipe_fd[0]);
  16.     close(pipe_fd[1]);
  17.     close(client_fd);
  18.     close(server_fd);
  19.     return 0;
  20. }
复制代码
这个例子展示了如何使用 tee 将管道中的数据复制,并通过 splice 将数据发送到网络 socket,从而实现高效的数据传输和复制。
6.4 实用场景

tee 非常适合需要将数据同时发送到多个目的的场景,好比实时数据处理、日志记载等。 通过 tee,可以在内核空间内实现多目的数据复制,提高系统性能,淘汰 CPU 负担。
总结对比:

下面我将 Linux 的几种零拷贝方式做了总结,方便大家对比学习:
方法形貌零拷贝类型CPU 参与度实用场景sendfile直接将文件数据发送到套接字,无需拷贝到用户空间。完全零拷贝少少,数据直接传输。文件服务器、视频流传输等大文件场景。splice在内核空间内高效地在文件形貌符之间传输数据。完全零拷贝少少,完全在内核内。文件、管道与 socket 之间的复杂传输场景。mmap + write将文件映射到内存并使用 write 发送数据,机动处理数据部分零拷贝中等,需要映射和写入。数据需要处理或修改的场景,如压缩加密。tee将管道中的数据复制到另一个管道,无需消耗原始数据。完全零拷贝少少,数据复制在内核。日志处理、实时数据监控等多目的场景。最后:

盼望这篇文章让你对 Linux 的零拷贝技术有了更全面、更清晰的了解!这些技术看起来大概有些复杂,但一旦把握后,你会发现它们非常简单, 而且在实际项目中非常实用。

假如以为这篇文章对你有帮助,记得给我点个在看和赞
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4