rust 创建多线程web server的详细过程
作者:heroboyluck
创建一个 http server,处理 http 请求。
创建一个单线程的 web 服务
web server 中主要的两个协议是 http 和 tcp。tcp 是底层协议,http 是构建在 tcp 之上的。
通过std::net
库创建一个 tcp 连接的监听对象,监听地址为127.0.0.1:8080
.
use std::net::TcpListener; fn main() { let listener = TcpListener::bind("127.0.0.1:8080").unwrap(); for stream in listener.incoming() { let stream = stream.unwrap(); println!("connected!"); } }
运行cargo run
,在浏览器中访问http://127.0.0.1:8080
,可以看到控制台输出。
浏览器中显示链接被重置,无法被访问,因为没有响应任何数据。通过listener.incoming()
方法返回一个迭代器,它是客户端与服务端之间打开的连接。称之为stream
流,可以用来处理请求、响应。
首先处理请求,需要读取请求的参数,通过std::io
库处理流信息,引入std::io::prelude::*
包含一些读写流需要的特定 trait。
use std::io::{prelude::*, BufReader}; use std::net::TcpListener; fn main() { let listener = TcpListener::bind("127.0.0.1:8080").unwrap(); for stream in listener.incoming() { let mut stream = stream.unwrap(); // 处理请求 let buf_reader = BufReader::new(&stream); let http_request: Vec<_> = buf_reader .lines() .map(|result| result.unwrap()) .take_while(|line| !line.is_empty()) .collect(); println!("requrest:{:#?}", http_request); } }
BufReader
实现了BufRead
trait,提供了lines
方法,通过换行符切割数据流返回一个Result<String,std::io::Error>
迭代器。通过map
获取到每一个结果值,take_while
处理值直到为空结束,然后collect
收集结果值。
http_request
必须指定类型Vec<_>
来收集。在闭包那一节中,迭代器适配器,必须调用消费适配器获取结果。
现在尝试给请求作出一个响应,响应状态码200
表示成功响应。一个简单的响应头包括了协议、协议版本、响应状态、状态语句。
let res = "HTTP/1.1 200 OK\r\n\r\n"; stream.write_all(res.as_bytes()).unwrap();
重新启动,再次浏览器访问地址,可以看到空白页面,F12
查看网络请求,可以看到请求成功
可以增加请求路径http://127.0.0.1:8080/home
或增加参数看看请求信息的不同。将请求处理、响应处理放到一个函数中handle_request
接着可以返回一个html
文件,这样页面就有了基础的展示效果。新建一个index.html
文件
<!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8" /> <meta name="viewport" content="width=<device-width>, initial-scale=1.0" /> <title>Document</title> </head> <body> <p>hello world</p> </body> </html>
读取index.html
文件,并将文件内容作为响应返回
let res_status = "HTTP/1.1 200 OK\r\n"; let contents = fs::read_to_string("index.html").unwrap(); let len = contents.len(); let res = format!("{res_status}Content-Length:{len}\r\n\r\n{contents}"); stream.write_all(res.as_bytes()).unwrap();
再次运行,浏览器访问可以看到页面上已经展示信息。现在只要是所有的请求访问都会返回index.html
文件,通常我们会根据访问路径来处理响应,比如http://127.0.0.1:8080/home
限制如果有请求路径或者是参数,则响应一个404.html
页面,获取http_request
第一个元素匹配GET / HTTP/1.1
,响应 200,其他访问都是返回 404.
fn handle_request(mut stream: TcpStream) { // 处理请求 let buf_reader = BufReader::new(&stream); let http_request: Vec<_> = buf_reader .lines() .map(|result| result.unwrap()) .take_while(|line| !line.is_empty()) .collect(); if http_request[0] == "GET / HTTP/1.1" { let res_status = "HTTP/1.1 200 OK\r\n"; let contents = fs::read_to_string("index.html").unwrap(); let len = contents.len(); let res = format!("{res_status}Content-Length:{len}\r\n\r\n{contents}"); stream.write_all(res.as_bytes()).unwrap(); } else { let res_status = "HTTP/1.1 404 NOT FOUND\r\n"; let contents = fs::read_to_string("404.html").unwrap(); let len = contents.len(); let res = format!("{res_status}Content-Length:{len}\r\n\r\n{contents}"); stream.write_all(res.as_bytes()).unwrap(); } }
优化一下if else
里的代码,只有响应状态、响应的文件不一样,其他逻辑都一样。
let (res_status, file_name) = if http_request[0] == "GET / HTTP/1.1" { ("HTTP/1.1 200 OK\r\n", "index.html") } else { ("HTTP/1.1 404 NOT FOUND\r\n", "404.html") }; let contents = fs::read_to_string(file_name).unwrap(); let len = contents.len(); let res = format!("{res_status}Content-Length:{len}\r\n\r\n{contents}"); stream.write_all(res.as_bytes()).unwrap();
main
方法中的简化,调用处理请求的函数。
fn main() { let listener = TcpListener::bind("127.0.0.1:8080").unwrap(); for stream in listener.incoming() { let mut stream = stream.unwrap(); // 处理请求 handle_request(stream); } }
现在一个简易的 web 服务就好了,可以处理请求、可以处理响应。在这过程出现的错误我们都用unwrap
方法处理,只要遇到错误,直接停止程序,而在真实环境中,需要处理这些错误,避免程序的不可访问。
创建多线程 server 服务
已经构建了单线程的服务,但是它每次只能处理一个请求,只要完成上一个请求之后才能处理下一个连接。如果请求很多,则需要等待,这种表现使得服务性能很差。
首先,来模拟演示一下单线程的堵塞行为,通过线程休眠模拟慢请求
use std::thread::{self}; use std::time::Duration; fn handle_request(mut stream: TcpStream) { // ... // 将if部分改为match匹配,增加/sleep 路径匹配,用以堵塞线程 let (res_status, file_name) = match &http_request[0][..] { "GET / HTTP/1.1" => ("HTTP/1.1 200 OK\r\n", "index.html"), "GET /sleep HTTP/1.1" => { // 线程堵塞5s thread::sleep(Duration::from_secs(5)); ("HTTP/1.1 200 OK", "index.html") } _ => ("HTTP/1.1 404 NOT FOUND", "404.html"), }; // ... }
然后我们打开两个浏览器的 tab 页,访问不同的地址带路径/sleep
和不带路径/
的,先访问带路径的,可以看到浏览器正在加载,再访问不带路径的也发现浏览器正在加载。等 5 秒过后,全部加载完成,如果直接访问不带路径/
则瞬间访问成功。
为了处理这种情况,我们尝试为每一个请求都分配一个线程独立去处理请求任务。
构建一个线程池,当程序每收到新请求时,分配一个线程去处理该请求;其余线程等待处理其他接收到的请求,当线程处理完请求后,返回到线程池等待处理新的请求。这样我们就可以并发处理请求,这样就是服务的吞吐量。
线程池的线程数不易过多,以固有数量的线程等待处理请求。这可以防止拒绝式服务攻击
DOS
除了多线程处理服务,还有其他方法改善服务吞吐量,fork/join
模型、单线程异步 I/O 模型、多线程异步 I/O 模型。
修改main
方法,thread::spawn
会创建一个新线程并运行闭包里的代码。
fn main() { let listener = TcpListener::bind("127.0.0.1:8080").unwrap(); for stream in listener.incoming() { let stream = stream.unwrap(); thread::spawn(|| { handle_request(stream); }); // handle_request(stream); } }
现在可以再次尝试请求/sleep
和/
,可以发现/
瞬间就响应了,/sleep
还需要等待 5s。如果有上千、上万个请求,我们就要开同等数量的线程,在占用完所有资源后,就会使系统奔溃。
通过线程池,创建有限的线程数量。在处理请求时,内部执行的方法execute
会检测空闲的线程并执行之后的请求任务,如果请求超过线程池线程数量,则排队等待。
fn main() { let listener = TcpListener::bind("127.0.0.1:8080").unwrap(); // 创建线程池 let threadPool = ThreadPool::new(4); for stream in listener.incoming() { let stream = stream.unwrap(); // thread::spawn(|| { // handle_request(stream); // }); threadPool.execute(|| { handle_request(stream); }) // handle_request(stream); } }
实现ThreadPool
线程池类型
ThreadPool
类型并不存在于 rust 库中,需要我们自己实现ThreadPool
。
在rust-lib
项目中,新建库thread_pool
, 在src/lib.rs
中,通过new
函数实现创建ThreadPool
实例,它接受一个参数size
为线程的数量;通过定义execute
函数接受一个闭包参数,闭包作为参数可以使用三个不同的 traitFn\FnMut\FnOnce
,要决定用哪个取决于最终的调用,最终是要调用thread::spawn()
的,它是使用了FnOnce
的,还需要Send
来将闭包从一个线程转移到另一个线程,绑定生命周期'static
是因为不知道线程会执行多久。
pub struct ThreadPool; impl ThreadPool { /// 创建线程池 /// /// 线程池中线程的数量 pub fn new(size: usize) -> ThreadPool { ThreadPool } pub fn execute<F>(&self, f: F) where F: FnOnce() + Send + 'static, { } }
定义完之后,回到项目rust-web
项目,引入依赖,在Cargo.toml
,
[dependencies] thread_pool = {path="../rust-lib/thread_pool"}
然后在src/main.rs
使用依赖use thread_pool::ThreadPool;
, 运行程序cargo run
,没有报错正常运行。
在new
方法中要保证初始化的线程数是一个有效的值,即size
不能为分数或等于 0.这没有意义。然后初始化 vector 实例来存储线程实例,thread::spawn()
执行后返回的类型为thread::JoinHandle
,它可以管理并等待创建的线程完成任务。
use std::thread; pub struct ThreadPool { threads: Vec<thread::JoinHandle<()>>, } impl ThreadPool { /// 创建线程池 /// /// 线程池中线程的数量 /// /// # Panics /// /// `new`函数在size为0 时panicthread_pool pub fn new(size: usize) -> ThreadPool { assert!(size > 0); let mut threads = Vec::with_capacity(size); for _ in 0..size { // 创建对应数量的线程,并把它们存储到vec中 } ThreadPool { threads } } // ... }
之前一直在使用thread::spawn()
来创建线程,并执行任务。现在在线程池中,需要提前创建线程,等待任务传入后再执行。标准的 rust 库中没有这样的定义,仍需要自己实现,可以称之为Worker
数据结构,这样我们在ThreadPool
存储的是Worker
实例,在 worker 实例中存储一个单独的JoinHandle<()>
实例,并赋予该实例一个唯一的id
,方便日志和调用栈区分。
同样的,在ThreadPool
src/lib.rs 定义结构体Worker
类型,对于外部 worker 类型是私有的,不需要pub
定义。
use std::thread; pub struct ThreadPool { // threads: Vec<thread::JoinHandle<()>>, workers: Vec<Worker>, } impl ThreadPool { /// 创建线程池 /// /// 线程池中线程的数量 pub fn new(size: usize) -> ThreadPool { assert!(size > 0); // let mut threads = Vec::with_capacity(size); let mut workers = Vec::with_capacity(size); for id in 0..size { // 创建对应数量的线程,并把它们存储到vec中 workers.push(Worker::new(id)) } ThreadPool { workers } } // ... } struct Worker { id: usize, thread: thread::JoinHandle<()>, } impl Worker { fn new(id: usize) -> Worker { let thread = thread::spawn(|| {}); Worker { id, thread } } }
运行我们的代码,正常运行。现在需要解决的是向创建的线程传递要处理的请求任务,通过之前文章中学过的channel
信道来传递信息.
在ThreadPool
中存在一个信道实例充当发送者;并新建一个Job
结构体存放用于向信道发送的闭包;execute
方法会发送期望执行的任务。
use std::{sync::mpsc, thread}; pub struct ThreadPool { // threads: Vec<thread::JoinHandle<()>>, workers: Vec<Worker>, sender: mpsc::Sender<Job>, } struct Job; impl ThreadPool { pub fn new(size: usize) -> ThreadPool { assert!(size > 0); // let mut threads = Vec::with_capacity(size); let mut workers = Vec::with_capacity(size); // 创建信道实例,提供一个发送者、接收者 let (sender, receiver) = mpsc::channel(); for id in 0..size { // 创建对应数量的线程,并把它们存储到vec中 workers.push(Worker::new(id,receiver)) } ThreadPool { workers, sender } } }
ThreadPool
实例存储信道发送者对象sender
,需要将接受者实例receiver
传递给Worker
用于接收传递的信息。
impl Worker { fn new(id: usize, receiver: mpsc::Receiver<Job>) -> Worker { let thread = thread::spawn(|| { receiver; }); Worker { id, thread } } }
这会有一个错误信息,因为在 rust 中信道实现是多生产者、单消费者,不能将receiver
接受者传递多个 work 实例。我们希望有一个任务列表,每个任务只允许处理一次。这在之前的文章中
已经解决过在线程间共享状态,通过线程安全智能指针Arc<Mutex<T>>
,多个线程共享所有权并允许线程修改其值。Arc
使得多个 worker 拥有接受端,而Mutex
确保一次只有一个 worker 能接收到任务。
use std::{ sync::{mpsc, Arc, Mutex}, thread, }; impl ThreadPool { pub fn new(size: usize) -> ThreadPool { assert!(size > 0); // let mut threads = Vec::with_capacity(size); let mut workers = Vec::with_capacity(size); let (sender, receiver) = mpsc::channel(); // 通过`Arc<T>`创建多所有者,Mutex<T>共享数据 let receiver = Arc::new(Mutex::new(receiver)); for id in 0..size { // 创建对应数量的线程,并把它们存储到vec中 workers.push(Worker::new(id, Arc::clone(&receiver))) } ThreadPool { workers, sender } } } impl Worker { fn new(id: usize, receiver: Arc<Mutex<mpsc::Receiver<Job>>>) -> Worker { // ... } }
最后处理execute
方法,它接受的闭包需要分配给空闲的线程并执行,修改Job
结构体,它不是一个结构体,是接受execute
方法接受的闭包类型的类型别名。
// struct Job; type Job = Box<dyn FnOnce() + Send + 'static>;
在execute
方法被调用后,新建Job
实例,将任务从信道发送端发出,因为发送可能会失败,所以需要unwrap
处理错误的发生。
impl ThreadPool { pub fn execute<F>(&self, f: F) where F: FnOnce() + Send + 'static, { let job = Box::new(f); self.sender.send(job).unwrap(); } }
继续优化接受端执行任务的逻辑,在接收到任务后,通过lock
获取互斥器来锁定资源,防止其他地方使用资源。通过unwrap
处理错误时的情况,在获取了互斥器锁定了资源后,调用recv()
方法接受任务Job
,这会阻塞当前线程,所有如果当前线程没有任务,则会一直等待直到有用的任务。Mutex<T>
可以确保一次只有一个 Worker 线程请求任务。
impl Worker { fn new(id: usize, receiver: Arc<Mutex<mpsc::Receiver<Job>>>) -> Worker { let thread = thread::spawn(move || loop { let job = receiver.lock().unwrap().recv().unwrap(); println!("开始执行任务{id}"); job(); }); Worker { id, thread } } }
通过loop
循环执行闭包,一直向信道的接受端请求任务,并在得到任务时执行它们。
现在执行cargo run
,并在浏览器中打开多个 tab 请求地址,可以看到打印输出
不能使用其他循环,比如while let \ if let \ match
是因为它们循环时相关的代码块结束都不会丢弃临时值,导致锁守护的资源不能释放,不能被访问。
程序停止与清理
当我们终止程序后,如何去处理未执行完的任务,如何清理资源。
为ThreadPool
实现Drop
,当线程池被丢弃时,应该join
所有线程以确保任务完成。
impl Drop for ThreadPool { fn drop(&mut self) { for worker in &mut self.workers { println!("stop worker {}", worker.id); worker.thread.join().unwrap(); } } }
这里会有一个错误,不能编译,提示没有 worker 所有权,因为我们只得到了一个可变借用,不能调用join
来消费线程。通过修改来使得thread
实例成为一个Option
值,这样就可以通过take
方法来获取到其中Some
成员值进行处理。清理时可以直接将thread
赋值为None
struct Worker { id: usize, // thread: thread::JoinHandle<()>, thread: Option<thread::JoinHandle<()>>, }
通过 rust 代码检测提示信息来修改其他需要调整的地方。Worker
new 方法创建实例时,接收thread
使用Some(thread)
在停止程序,清理时,通过take()
获取到成员值后,再调用join()
方法等待线程执行结束。
impl Drop for ThreadPool { fn drop(&mut self) { for worker in &mut self.workers { println!("stop worker {}", worker.id); if let Some(thread) = worker.thread.take() { thread.join().unwrap(); } } } }
正常逻辑来说调用了join()
之后会关闭线程,但是由于之前的线程逻辑是循环闭包调用等待接受任务,也就是会导致线程一直不会执行完毕,导致阻塞。一直阻塞在第一个线程结束上。
通过修改ThreadPool
的Drop
方法来显式丢弃sender
。为了转移sender
所有权,同样的使用Option
类型来传递
pub struct ThreadPool { // threads: Vec<thread::JoinHandle<()>>, workers: Vec<Worker>, sender: Option<mpsc::Sender<Job>>, } impl ThreadPool { pub fn new(size: usize) -> ThreadPool { // ... // ... ThreadPool { workers, sender: Some(sender), } } pub fn execute<F>(&self, f: F) where F: FnOnce() + Send + 'static, { let job = Box::new(f); // self.sender.send(job).unwrap(); self.sender.as_ref().unwrap().send(job).unwrap(); } } impl Drop for ThreadPool { fn drop(&mut self) { // 显示的丢弃sender drop(self.sender.take()); for worker in &mut self.workers { println!("stop worker {}", worker.id); if let Some(thread) = worker.thread.take() { thread.join().unwrap(); } } } }
Drop()
方法调用显示的丢弃sender
后,这会关闭信道,表明了后续不会有消息发送,这时在Worker
中无限循环调用接受消息的方法都会返回错误,此时可以修改逻辑在遭遇错误后退出循环。
impl Worker { fn new(id: usize, receiver: Arc<Mutex<mpsc::Receiver<Job>>>) -> Worker { let thread = thread::spawn(move || loop { let message = receiver.lock().unwrap().recv(); match message { Ok(job) => { println!("开始执行任务{id}"); job(); } Err(_) => { println!("worker {id} disconnected"); break; } } }); Worker { id, thread: Some(thread), } } }
现在可以正常清理、停机了,如果希望在服务停止前再处理几个请求,通过take()
方法模拟只两个请求进行处理,来验证停机的逻辑。它是Iterator
trait
fn main() { let listener = TcpListener::bind("127.0.0.1:8080").unwrap(); // 创建线程池 let pool = ThreadPool::new(4); for stream in listener.incoming().take(2) { let stream = stream.unwrap(); pool.execute(|| { handle_request(stream); }) } }
现在运行程序cargo run
,同时在浏览器请求三次,看看控制台如何打印信息,第三个请求不会被执行。
可以看到只执行完了两次请求,在第一次请求处理完成后,调用了Drop
方法显示的丢弃了信道发送者sender
,这样整个就导致所有 worker 关闭连接。
到此这篇关于rust 创建多线程web server的详细过程的文章就介绍到这了,更多相关rust 多线程web server内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!