C++多线程
多线程程序主要有两个作用。
- 当机器cpu具有多个核时,可以通过创建多个线程加速程序的运行,比如我有一个很大的计算任务,可以把这个任务拆分成多个子任务,然后分别在其它线程上计算。
- 异步编程,当程序需要执行一些耗时的操作,同时又不想阻塞主线程的话,我们就可以重新开一个线程去执行那项比较耗时的操作,比如通常的写日志操作,主线程会把日志内容写到缓冲区中,然后由另一个线程将缓冲区中的日志内容写到磁盘中去。
thread
在C++11以前的版本标准库并没有对线程进行封装,不同的平台创建线程需要调用特定平台的相关api,在C++11以后的版本中创建线程已经变得十分方便了。
首先简要介绍一下进程与线程的区别与联系:
- 进程是一个应用程序被操作系统拉起来加载到内存之后从开始执行到执行结束的一个过程。简单的说,进程是程序的一次执行。比如双击打开一个桌面应用软件就是开启了一个进程。
- 线程是进程中的一个实体,是被系统独立分配和调度的基本单位。也有说法,线程是CPU可以执行调度的最小单位。也就是说,进程本身并不能获取CPU时间,只有它的线程才可以。
创建线程
创建线程是非常简单的过程,下面是一个使用了多线程的Hello World示例:
cpp
// 01_hello_thread.cpp
#include <iostream>
#include <thread>
using namespace std;
void hello() {
cout << "Hello World from new thread." << endl;
}
int main() {
thread t(hello);
t.join();
return 0;
}
创建线程的方式就是构造一个thread
对象,并指定入口函数。与普通对象不同的是,此时编译器会为我们创建一个新的操作系统线程,并在新的线程中执行我们的入口函数。关于join
函数在下文中讲解。 thread
也可以和callable
类型一起工作,比如lambda
表达式,像这样:
cpp
thread t([] () {
cout << "Hello World from lambda thread." << endl;
});
也可以传递参数给入口函数,比如下面这样:
cpp
void hello(string name) {
cout << "Welcome to " << name << endl;
}
int main() {
thread t(hello, "C++ thread");
t.join();
return 0;
}
join与detach
join
:等待线程完成其执行detach
:允许线程独立执行
一旦启动线程之后,我们必须决定是要等待该线程结束(通过join
),还是让它独立运行(通过detach
),我们必须二者选其一。如果在thread
对象销毁的时候 我们还没有做决定,则thread
对象在析构函数处将调用std::terminate()
从而导致我们的进程异常退出。
需要注意的是:在我们做决定的时候,很可能线程已经执行完了(例如上面的示例中线程的逻辑仅仅是一句打印,执行时间会很短)。新的进程创建之后,究竟是新的线程先执行,还是当前线程的下一条语句先执行这是不确定的,因为这是由操作系统的调度策略决定的。不过这不要紧,我们只要在thread
对象销毁前做决定即可。
join
:调用此接口时,当前线程会一直阻塞,直到目标线程执行完成(当然,很可能目标线程在此处调用之前就已经执行完成了,不过这不要紧)。因此,如果目标线程的任务非常耗时,你就要考虑好是否需要在主线程上等待它了,因此这很可能会导致主线程卡住。detach
:detach
是让目标线程成为守护线程(daemon threads)。一旦detach
之后,目标线程将独立执行,即便其对应的thread
对象销毁也不影响线程的执行。并且,你无法再与之通信。
对于这两个接口,都必须是可执行的线程才有意义。可以通过joinable()
接口查询是否可以对它们进行join
或者detach
。
管理当前线程
yield
:让出处理器,重新调度各执行线程get_id
: 返回当前线程的线程idsleep_for
:使当前线程的执行停止指定的时间段sleep_until
和sleep_for
类似,但是是以具体的时间点为参数。这两个API都要和chrono
库结合使用。
下面是一个代码示例:
cpp
void print_time() {
auto now = chrono::system_clock::now();
auto in_time_t = chrono::system_clock::to_time_t(now);
std::stringstream ss;
ss << put_time(localtime(in_time_t), "%Y-%m-%d %X");
cout << "how is: " << ss.str << endl;
}
void sleepthread() {
this_thread::sleep_for(chrono::seconds(3));
cout << "[thread-" << this_thread::get_id() << "] is waking up" << endl;
}
void loop_thread() {
for(int i = 0; i < 10; i++) {
cout << "[thread-" << this_thread::get_id() << "] print: " << i << endl;
}
}
int main() {
print_time();
thread t1(sleep_thread);
thread t2(loop_thread);
t1.join();
t2.detach();
print_time();
return 0;
}
这段代码应该还是比较容易理解的,这里创建了两个线程。它们都会有一些输出,其中一个会先停止3秒钟,然后再输出。主线程调用join
会一直卡住等待它运行结束。
这段程序的输出如下:
cpp
now is: 2024-04-24 22:15:11
[thread-140071156049472] print: 0
[thread-140071156049472] print: 1
[thread-140071156049472] print: 2
[thread-140071156049472] print: 3
[thread-140071156049472] print: 4
[thread-140071156049472] print: 5
[thread-140071156049472] print: 6
[thread-140071156049472] print: 7
[thread-140071156049472] print: 8
[thread-140071156049472] print: 9
[thread-140071164442176] is waking up
now is: 2024-04-24 22:15:14
一次调用
call_once
:即便再多线程环境下,也能保证只调用某个函数一次once_flag
:与call_once
配合使用
在某些情况下,我们有些任务需要执行一次,并且我们只希望它执行一次,例如资源的初始化人,这个时候就可以用到上面的接口。这个接口会保证,即便在多线程的环境下,相应的函数也只会调用一次。
下面是一个基本的示例:有三个线程都会使用init
函数但是只会有一个线程真正执行它。
cpp
void init() {
cout << "Initialing..." << endl;
// Do something...
}
void worker(once_flag* flag) {
call_once(*flag, init);
}
int main() {
once_flag flag;
thread t1(worker, &flag);
thread t2(worker, &flag);
thread t3(worker, &flag);
t1.join();
t2.join();
t3.join();
return 0;
}
我们无法确定具体是哪一个线程会执行init
。而事实上,我们也不关心,因为只要有某个线程完成这个初始化工作就可以了。
并发任务
下面用一个并发任务为示例讲解如何引入多线程。
任务示例:现在假设我们需要计算某个范围内所有自然数的平方根之和,例如[1, 10e8]
。
在单线程模型下,我们的代码可能是这样的:
cpp
static const int MAX = 10e8;
static double sum = 0;
void worker(int min, int max) {
for(int i = min; i <= max; i++) {
sum += sqrt(i);
}
}
void serial_task(int min, int max) {
auto start_time = chrono::steady_clock::now();
sum = 0;
worker(0, MAX);
auto end_time = chrono::steady_clock::now();
auto ms = chrono::duration_cast<chrono::milliseconds>(end_time - start_time).count();
cout << "Serail task finish, " << ms << " ms consumed, Result: " << sum << endl;
}
这段代码理解起来应该很简单,worker
函数计算从min
到max
的平方根,然后统计这个函数从0到1e8的平方根之和所花的时间。
这段程序输出结果如下:
yaml
Serail task finish, 3930 ms consumed, Result: 2.10819e+13
上面这种任务,用单线程性能太差了。这个任务完全是可以并发执行的。并且任务很容易划分。
下面我们用多线程的方式来改造原先的程序。
cpp
void concurrent_task(int min, int max) {
auto start_time = chrono::steady_clock::now();
unsigned concurrent_count = thread::hardware_concurrency();
cout << "hardware_concurrency: " << concurrent_count << endl;
vector<thread> threads;
min = 0;
sum = 0;
for( int t = 0; t < concurrent_count; t++) {
int range = max / concurrent_count * (t + 1);
threads.push_back(thread(worker, min, range));
min = range + 1;
}
for(auto &t:threads) {
t.join();
}
auto end_time = chrono::steady_clock::now();
auto ms = chrono::duration_cast<chrono::milliseconds>(end_time - start_time).count();
cout << "Concurrent task finish, " << ms << " ms consumed, Result: " << sum << endl;
}
运行结果如下:
sql
hardware_concurrency:12
Concurrent task finish, 7364 ms second consumed, Result: 2.34185e+12
我们发现运行速度反而慢了,而且更严重的是,算出来的结果也是错的。
要解释这个现象,就是线程的创建也是需要花费时间,在这个例子中,线程创建所花的时间比计算所需的时间更多,所以导致性能反而更差了。
而结果错误的原因,是因为sum += sqrt(i)
这条语句并不是原子性的,多个线程同时执行到这条语句的时候会发生数据竞争的情况。
互斥体与锁
当把一个大任务分散到多个线程处理时,如果存在多个线程需要同时访问同一个资源,那就需要对这个资源进行保护了,而利用mutex
就能够对资源进行保护,它能保证每个线程对于共享数据的访问是"互斥"的。
API | C++标准 | 说明 |
---|---|---|
mutex | C++11 | 提供基本互斥设施 |
timed_mutex | C++11 | 提供互斥设施,带有超时功能 |
recursive_mutex | C++11 | 提供能被同一线程递归锁定的互斥设施 |
recursive_timed_mutex | C++11 | 提供能被同一线程递归锁定的互斥设施,带有超时功能 |
shared_timed_mutex | C++14 | 提供共享互斥设施并带有超时功能 |
shared_mutex | C++17 | 提供共享互斥设施 |
很明显,在这些类中,mutex
是最基础的API。其他类都是在它的基础上的改进。所以这些类都提供了下面三个方法,并且它们的功能是一样的:
方法 | 说明 |
---|---|
lock | 锁定互斥体,如果不可用,则阻塞 |
try_lock | 尝试锁定互斥体,如果不可用,直接返回 |
unlock | 解锁互斥体 |
这三个方法提供了基础的锁定和解除锁定的功能。使用lock
意味着你有很强的意愿一定要获取到互斥体,而使用try_lock
则是进行一次尝试。这意味着如果失败了,你通常还有其他的路径可以走。
在这些基础功能之上,其他的类分别在下面三个方面进行了扩展:
- 超时 :
timed_mutex
,recursive_timed_mutex
,shared_timed_mutex
的名称都带有timed
,这意味着它们都支持超时功能。它们都提供了try_lock_for
和try_lock_until
方法,这两个方法分别可以指定超时的时间长度和时间点。如果在超时的时间范围内没有能获取到锁,则直接返回,不再继续等待。 - 可重入 :
recursive_mutex
和recursive_timed_mutex
的名称都带有recursive
。可重入或者叫做可递归,是指在同一个线程中,同一把锁可以锁定多次。这就避免了一些不必要的死锁。 - 共享 :
shared_timed_mutex
和shared_mutex
提供了共享功能。对于这类互斥体,实际上是提供了两把锁:一把是共享锁,一把是互斥锁。一旦某个线程获取了互斥锁,任何其他线程都无法再获取互斥锁和共享锁;但是如果有某个线程获取到了共享锁,其他线程无法再获取到互斥锁,但是还能获取到共享锁。这里互斥锁的使用和其他的互斥体接口和功能一样。而共享锁可以同时被多个线程同时获取到(使用共享锁的接口见下面的表格)。共享锁通常用在读者写者模型上。
使用共享锁的接口如下:
方法 | 说明 |
---|---|
lock_shared | 获取互斥体的共享锁,如果无法获取则阻塞 |
try_lock_shared | 尝试获取共享锁,如果不可用,直接返回 |
unlock_shared | 解锁共享锁 |
接下来,我们就借助刚学到的mutex
来改造我们的并发系统,改造后的程序如下:
cpp
// 07_mutex_lock.cpp
static const int MAX = 10e8;
static double sum = 0;
static mutex exclusive;
void concurrent_worker(int min, int max) {
for (int i = min; i <= max; i++) {
exclusive.lock(); // ①
sum += sqrt(i);
exclusive.unlock(); // ②
}
}
void concurrent_task(int min, int max) {
auto start_time = chrono::steady_clock::now();
unsigned concurrent_count = thread::hardware_concurrency();
cout << "hardware_concurrency: " << concurrent_count << endl;
vector<thread> threads;
min = 0;
sum = 0;
for (int t = 0; t < concurrent_count; t++) {
int range = max / concurrent_count * (t + 1);
threads.push_back(thread(concurrent_worker, min, range)); // ③
min = range + 1;
}
for (int i = 0; i < threads.size(); i++) {
threads[i].join();
}
auto end_time = chrono::steady_clock::now();
auto ms = chrono::duration_cast<chrono::milliseconds>(end_time - start_time).count();
cout << "Concurrent task finish, " << ms << " ms consumed, Result: " << sum << endl;
}
这里只有三个地方需要关注:
- 在访问共享数据之前加锁
- 访问完成之后解锁
- 在多线程中使用带锁的版本
执行之后结果输出如下:
yaml
hardware_concurrency: 12
Concurrent task finish, 74232 ms consumed, Result: 2.10819e+13
这下结果是对了,但是我们却发现这个版本比原先单线程的版本性能还要差很多。这是为什么?
这是因为加锁和解锁是有代价的,这里计算最耗时的地方在锁里面,每次只能有一个线程串行执行,相比于单线程模型,它不但是串行的,还增加了锁的负担,因此就更慢了。
这就是为什么前面说多线程系统会增加系统的复杂度,而且并非多线程系统一定就有更好的性能。
不过,对于这里的问题是可以改进的。我们仔细思考一下:我们划分给每个线程的数据其实是独立的,对于数据的处理是耗时的,但其实这部分逻辑每个线程可以单独处理,没必要加锁。只有在最后汇总数据的时候进行一次锁保护就可以了。
于是我们改造concurrent_worker
,像下面这样:
arduino
// 08_improved_mutex_lock.cpp
void concurrent_worker(int min, int max) {
double tmp_sum = 0;
for (int i = min; i <= max; i++) {
tmp_sum += sqrt(i); // ①
}
exclusive.lock(); // ②
sum += tmp_sum;
exclusive.unlock();
}
这段代码的改变在于两处:
- 通过一个局部变量保存当前线程的处理结果
- 在汇总总结过的时候进行锁保护
运行一下改进后的程序,其结果输出如下:
yaml
hardware_concurrency: 12
Concurrent task finish, 451 ms consumed, Result: 2.10819e+13
可以看到,性能一下就提升了好多倍。我们终于体验到多线程带来的好处了。
我们用锁的粒度 (granularity)来描述锁的范围。细粒度 (fine-grained)是指锁保护较小的范围,粗粒度(coarse-grained)是指锁保护较大的范围。出于性能的考虑,我们应该保证锁的粒度尽可能的细。并且,不应该在获取锁的范围内执行耗时的操作,例如执行IO。如果是耗时的运算,也应该尽可能的移到锁的外面。
死锁
死锁是并发系统中常见的一类问题。
死锁指:两个或以上的运算单元,每一方都在等待其他方释放资源,但是所有方都不愿意释放资源。结果是没有任何一方能够继续推进下去,于是整个系统无法再继续运转。
现在假设我们在开发一个银行的系统,这个系统包含了转账的功能。
首先我们创建一个Account
类来描述银行账号。由于这仅仅是一个演示使用的代码,所以我们希望代码足够的简单。Account
类仅仅包含名称和金额两个字段。
另外,为了支持并发,这个类包含了一个mutex
对象,用来保护账号金额,在读写账号金额时需要先加锁保护。
cpp
// 09_deadlock_bank_transfer.cpp
class Account {
public:
Account(string name, double money): mName(name), mMoney(money) {};
public:
void changeMoney(double amount) {
mMoney += amount;
}
string getName() {
return mName;
}
double getMoney() {
return mMoney;
}
mutex* getLock() {
return &mMoneyLock;
}
private:
string mName;
double mMoney;
mutex mMoneyLock;
};
Account
类很简单,我想就不用多做说明了。
接下来,我们再创建一个描述银行的Bank
类。
cpp
// 09_deadlock_bank_transfer.cpp
class Bank {
public:
void addAccount(Account* account) {
mAccounts.insert(account);
}
bool transferMoney(Account* accountA, Account* accountB, double amount) {
lock_guard guardA(*accountA->getLock()); // ①
lock_guard guardB(*accountB->getLock());
if (amount > accountA->getMoney()) { // ②
return false;
}
accountA->changeMoney(-amount); // ③
accountB->changeMoney(amount);
return true;
}
double totalMoney() const {
double sum = 0;
for (auto a : mAccounts) {
sum += a->getMoney();
}
return sum;
}
private:
set<Account*> mAccounts;
};
银行类中记录了所有的账号,并且提供了一个方法用来查询整个银行的总金额。
这其中,我们最主要要关注转账的实现:transferMoney
。该方法的几个关键点如下:
- 为了保证线程安全,在修改每个账号之前,需要获取相应的锁。
- 判断转出账户金额是否足够,如果不够此次转账失败。
- 进行转账。
有了银行和账户结构之后就可以开发转账系统了,同样的,由于是为了演示所用,我们的转账系统也会尽可能的简单:
cpp
// 09_deadlock_bank_transfer.cpp
void randomTransfer(Bank* bank, Account* accountA, Account* accountB) {
while(true) {
double randomMoney = ((double)rand() / RAND_MAX) * 100;
if (bank->transferMoney(accountA, accountB, randomMoney)) {
cout << "Transfer " << randomMoney << " from " << accountA->getName()
<< " to " << accountB->getName()
<< ", Bank totalMoney: " << bank->totalMoney() << endl;
} else {
cout << "Transfer failed, "
<< accountA->getName() << " has only $" << accountA->getMoney() << ", but "
<< randomMoney << " required" << endl;
}
}
}
这里每次生成一个随机数,然后通过银行进行转账。
最后我们在main
函数中创建两个线程,互相在两个账号之间来回转账:
cpp
// 09_deadlock_bank_transfer.cpp
int main() {
Account a("Paul", 100);
Account b("Moira", 100);
Bank aBank;
aBank.addAccount(&a);
aBank.addAccount(&b);
thread t1(randomTransfer, &aBank, &a, &b);
thread t2(randomTransfer, &aBank, &b, &a);
t1.join();
t2.join();
return 0;
}
至此,我们的银行转账系统就开发完成了。然后编译并运行,其结果可能像下面这样:
swift
Transfer 13.2901 from Paul to Moira, Bank totalMoney: 20042.6259 from Moira to Paul, Bank totalMoney: 200
Transfer failed, Moira has only $34.7581, but 66.3208 required
Transfer failed, Moira has only $34.7581, but
Transfer 93.191 from 53.9176 required
Transfer 60.6146 from Moira to Paul, Bank totalMoney: 200
Transfer 49.7304 from Moira to Paul, Bank totalMoney: 200Paul to Moira, Bank totalMoney:
Transfer failed, Moira has only $17.6041, but 18.1186 required
Transfer failed, Moira has only $17.6041, but 18.893 required
Transfer failed, Moira has only $17.6041, but 34.7078 required
Transfer failed, Moira has only $17.6041, but 33.9569 required
Transfer 12.7899 from 200
Moira to Paul, Bank totalMoney: 200
Transfer failed, Moira has only $63.9373, but 80.9038 required
Transfer 50.933 from Moira to Paul, Bank totalMoney: 200
Transfer failed, Moira has only $13.0043, but 30.2056 required
Transfer failed, Moira has only $Transfer 59.123 from Paul to Moira, Bank totalMoney: 200
Transfer 29.0486 from Paul to Moira, Bank totalMoney: 20013.0043, but 64.7307 required
如果你运行了这个程序,你会发现很快它就卡住不动了。为什么?
因为发生了死锁。
我们仔细思考一下这两个线程的逻辑:这两个线程可能会同时获取其中一个账号的锁,然后又想获取另外一个账号的锁,此时就发生了死锁。如下图所示:
当然,发生死锁的原因远不止上面这一种情况。如果两个线程互相join
就可能发生死锁。还有在一个线程中对一个不可重入的互斥体(例如mutex
而非recursive_mutex
)多次加锁也会死锁。
你可能会觉得,我可不会这么傻,写出这样的代码。但实际上,很多时候是由于代码的深层次嵌套导致了死锁的发生,由于调用关系的复杂导致发现这类问题并不容易。
如果仔细看一下上面的输出,我们会发现还有另外一个问题:这里的输出是乱的。两个线程的输出混杂在一起了。究其原因也很容易理解:两个线程可能会同时输出,没有做好隔离。
下面我们就来逐步解决上面的问题。
对于输出混乱的问题很好解决,专门用一把锁来保护输出逻辑即可:
cpp
// 10_improved_bank_transfer.cpp
mutex sCoutLock;
void randomTransfer(Bank* bank, Account* accountA, Account* accountB) {
while(true) {
double randomMoney = ((double)rand() / RAND_MAX) * 100;
if (bank->transferMoney(accountA, accountB, randomMoney)) {
sCoutLock.lock();
cout << "Transfer " << randomMoney << " from " << accountA->getName()
<< " to " << accountB->getName()
<< ", Bank totalMoney: " << bank->totalMoney() << endl;
sCoutLock.unlock();
} else {
sCoutLock.lock();
cout << "Transfer failed, "
<< accountA->getName() << " has only " << accountA->getMoney() << ", but "
<< randomMoney << " required" << endl;
sCoutLock.unlock();
}
}
}
请思考一下两处
lock
和unlock
调用,并考虑为什么不在while(true)
下面写一次整体的加锁和解锁。
通用锁定算法
- 主要API
API | C++标准 | 说明 |
---|---|---|
lock | C++11 | 锁定指定的互斥体,若任何一个不可用则阻塞 |
try_lock | C++11 | 试图通过重复调用 try_lock 获得互斥体的所有权 |
要避免死锁,需要仔细的思考和设计业务逻辑。
有一个比较简单的原则可以避免死锁,即:对所有的锁进行排序,每次一定要按照顺序来获取锁,不允许乱序。例如:要获取某个玩具,一定要先拿到锁A,再拿到锁B,才能玩玩具。这样就不会死锁了。
接下来我们用它来改造之前死锁的转账系统:
cpp
// 10_improved_bank_transfer.cpp
bool transferMoney(Account* accountA, Account* accountB, double amount) {
lock(*accountA->getLock(), *accountB->getLock()); // ①
lock_guard lockA(*accountA->getLock(), adopt_lock); // ②
lock_guard lockB(*accountB->getLock(), adopt_lock); // ③
if (amount > accountA->getMoney()) {
return false;
}
accountA->changeMoney(-amount);
accountB->changeMoney(amount);
return true;
}
这里只改动了3行代码。
- 这里通过
lock
函数来获取两把锁,标准库的实现会保证不会发生死锁。 lock_guard
在下面我们还会详细介绍。这里只要知道它会在自身对象生命周期的范围内锁定互斥体即可。创建lock_guard
的目的是为了在transferMoney
结束的时候释放锁,lockB
也是一样。但需要注意的是,这里传递了adopt_lock
表示:现在是已经获取到互斥体了的状态了,不用再次加锁(如果不加adopt_lock
就是二次锁定了)。
运行一下这个改造后的程序,其输出如下所示:
swift
Transfer failed, Paul has only $1.76243, but 17.5974 required
Transfer failed, Paul has only $1.76243, but 59.2104 required
Transfer failed, Paul has only $1.76243, but 49.6379 required
Transfer failed, Paul has only $1.76243, but 63.6373 required
Transfer failed, Paul has only $1.76243, but 51.8742 required
Transfer failed, Paul has only $1.76243, but 50.0081 required
Transfer failed, Paul has only $1.76243, but 86.1041 required
Transfer failed, Paul has only $1.76243, but 51.3278 required
Transfer failed, Paul has only $1.76243, but 66.5754 required
Transfer failed, Paul has only $1.76243, but 32.1867 required
Transfer failed, Paul has only $1.76243, but 62.0039 required
Transfer failed, Paul has only $1.76243, but 98.7819 required
Transfer failed, Paul has only $1.76243, but 27.046 required
Transfer failed, Paul has only $1.76243, but 62.9155 required
Transfer 98.8478 from Moira to Paul, Bank totalMoney: 200
Transfer 80.0722 from Moira to Paul, Bank totalMoney: 200
Transfer 73.7035 from Moira to Paul, Bank totalMoney: 200
Transfer 34.4476 from Moira to Paul, Bank totalMoney: 200
Transfer failed, Moira has only $10.0142, but 61.3033 required
Transfer failed, Moira has only $10.0142, but 24.5595 required
现在这个转账程序会一直运行下去,不会再死锁了。输出也是正常的了。
通用互斥管理
- 主要API
API | C++标准 | 说明 |
---|---|---|
lock_guard | C++11 | 实现严格基于作用域的互斥体所有权包装器 |
unique_lock | C++11 | 实现可移动的互斥体所有权包装器 |
shared_lock | C++14 | 实现可移动的共享互斥体所有权封装器 |
scoped_lock | C++17 | 用于多个互斥体的免死锁 RAII 封装器 |
锁定策略 | C++标准 | 说明 |
---|---|---|
defer_lock | C++11 | 类型为 defer_lock_t ,不获得互斥的所有权 |
try_to_lock | C++11 | 类型为try_to_lock_t ,尝试获得互斥的所有权而不阻塞 |
adopt_lock | C++11 | 类型为adopt_lock_t ,假设调用方已拥有互斥的所有权 |
互斥体(mutex
相关类)提供了对于资源的保护功能,但是手动的锁定(调用lock
或者try_lock
)和解锁(调用unlock
)互斥体是要耗费比较大的精力的,我们需要精心考虑和设计代码才行。因为我们需要保证,在任何情况下,解锁要和加锁配对,因为假设出现一条路径导致获取锁之后没有正常释放,就会影响整个系统。如果考虑方法还可能会抛出异常,这样的代码写起来会很费劲。
鉴于这个原因,标准库就提供了上面的这些API。它们都使用了叫做RAII的编程技巧,来简化我们手动加锁和解锁的"体力活"。
请看下面的例子:
cpp
// https://en.cppreference.com/w/cpp/thread/lock_guard
#include <thread>
#include <mutex>
#include <iostream>
int g_i = 0;
std::mutex g_i_mutex; // ①
void safe_increment()
{
std::lock_guard<std::mutex> lock(g_i_mutex); // ②
++g_i;
std::cout << std::this_thread::get_id() << ": " << g_i << '\n';
// ③
}
int main()
{
std::cout << "main: " << g_i << '\n';
std::thread t1(safe_increment); // ④
std::thread t2(safe_increment);
t1.join();
t2.join();
std::cout << "main: " << g_i << '\n';
}
这段代码中:
- 全局的互斥体
g_i_mutex
用来保护全局变量g_i
- 这是一个设计为可以被多线程环境使用的方法。因此需要通过互斥体来进行保护。这里没有调用
lock
方法,而是直接使用lock_guard
来锁定互斥体。 - 在方法结束的时候,局部变量
std::lock_guard<std::mutex> lock
会被销毁,它对互斥体的锁定也就解除了。 - 在多个线程中使用这个方法。
条件变量
API | C++标准 | 说明 |
---|---|---|
condition_variable | C++ 11 | 提供与 std::unique_lock 关联的条件变量 |
condition_variable_any | C++ 11 | 提供与任何锁类型关联的条件变量 |
notify_all_at_thread_exit | C++ 11 | 安排到在此线程完全结束时对 notify_all 的调用 |
cv_status | C++ 11 | 列出条件变量上定时等待的可能结果 |
至此,我们还有一个地方可以改进。那就是:转账金额不足的时候,程序直接返回了false
。这很难说是一个好的策略。因为,即便虽然当前账号金额不足以转账,但只要别的账号又转账进来之后,当前这个转账操作也许就可以继续执行了。
这在很多业务中是很常见的一个需求:每一次操作都要正确执行,如果条件不满足就停下来等待,直到条件满足之后再继续。而不是直接返回。
条件变量提供了一个可以让多个线程间同步协作的功能。这对于生产者-消费者模型很有意义。在这个模型下:
- 生产者和消费者共享一个工作区。这个区间的大小是有限的。
- 生产者总是产生数据放入工作区中,当工作区满了。它就停下来等消费者消费一部分数据,然后继续工作。
- 消费者总是从工作区中拿出数据使用。当工作区中的数据全部被消费空了之后,它也会停下来等待生产者往工作区中放入新的数据。
从上面可以看到,无论是生产者还是消费者,当它们工作的条件不满足时,它们并不是直接报错返回,而是停下来等待,直到条件满足。
下面我们就借助于条件变量,再次改造之前的银行转账系统。
这个改造主要在于账号类。我们重点是要调整changeMoney
方法。
csharp
// 11_bank_transfer_wait_notify.cpp
class Account {
public:
Account(string name, double money): mName(name), mMoney(money) {};
public:
void changeMoney(double amount) {
unique_lock lock(mMoneyLock); // ②
mConditionVar.wait(lock, [this, amount] { // ③
return mMoney + amount > 0; // ④
});
mMoney += amount;
mConditionVar.notify_all(); // ⑤
}
string getName() {
return mName;
}
double getMoney() {
return mMoney;
}
private:
string mName;
double mMoney;
mutex mMoneyLock;
condition_variable mConditionVar; // ①
};
这几处改动说明如下:
- 这里声明了一个条件变量,用来在多个线程之间协作。
- 这里使用的是
unique_lock
,这是为了与条件变量相配合。因为条件变量会解锁和重新锁定互斥体。 - 这里是比较重要的一个地方:通过条件变量进行等待。此时:会通过后面的lambda表达式判断条件是否满足。如果满足则继续;如果不满足,则此处会解锁互斥体,并让当前线程等待 。解锁这一点非常重要,因为只有这样,才能让其他线程获取互斥体。
- 这里是条件变量等待的条件。如果不熟悉lambda表达式,请自行网上学习,或者阅读这篇文章。
- 此处也很重要。当金额发生变动之后,我们需要通知所有在条件变量上等待的其他线程。此时所有调用
wait
线程都会再次唤醒,然后尝试获取锁(当然,只有一个能获取到)并再次判断条件是否满足。除了notify_all
还有notify_one
,它只通知一个等待的线程。wait
和notify
就构成了线程间互相协作的工具。
请注意:wait
和notify_all
虽然是写在一个函数中的,但是在运行时它们是在多线程环境中执行的,因此对于这段代码,需要能够从不同线程的角度去思考代码的逻辑。这也是开发并发系统比较难的地方。
有了上面的改动之后,银行的转账方法实现起来就很简单了,不用再考虑数据保护的问题了:
cpp
// 11_bank_transfer_wait_notify.cpp
void Bank::transferMoney(Account* accountA, Account* accountB, double amount) {
accountA->changeMoney(-amount);
accountB->changeMoney(amount);
}
当然,转账逻辑也会变得简单,不用再管转账失败的情况发生。
cpp
// 11_bank_transfer_wait_notify.cpp
mutex sCoutLock;
void randomTransfer(Bank* bank, Account* accountA, Account* accountB) {
while(true) {
double randomMoney = ((double)rand() / RAND_MAX) * 100;
{
lock_guard guard(sCoutLock);
cout << "Try to Transfer " << randomMoney
<< " from " << accountA->getName() << "(" << accountA->getMoney()
<< ") to " << accountB->getName() << "(" << accountB->getMoney()
<< "), Bank totalMoney: " << bank->totalMoney() << endl;
}
bank->transferMoney(accountA, accountB, randomMoney);
}
}
修改完之后的程序运行输出如下:
scss
Try to Transfer 13.72 from Moira(10.9287) to Paul(189.071), Bank totalMoney: 200
Try to Transfer 28.6579 from Paul(189.071) to Moira(10.9287), Bank totalMoney: 200
Try to Transfer 91.8049 from Paul(160.413) to Moira(39.5866), Bank totalMoney: 200
Try to Transfer 5.56383 from Paul(82.3285) to Moira(117.672), Bank totalMoney: 200
Try to Transfer 11.3594 from Paul(76.7646) to Moira(123.235), Bank totalMoney: 200
Try to Transfer 16.9557 from Paul(65.4053) to Moira(134.595), Bank totalMoney: 200
Try to Transfer 74.998 from Paul(48.4495) to Moira(151.55), Bank totalMoney: 200
Try to Transfer 65.3005 from Moira(151.55) to Paul(48.4495), Bank totalMoney: 200
Try to Transfer 90.6084 from Moira(86.25) to Paul(113.75), Bank totalMoney: 125.002
Try to Transfer 99.6425 from Moira(70.6395) to Paul(129.36), Bank totalMoney: 200
Try to Transfer 55.2091 from Paul(129.36) to Moira(70.6395), Bank totalMoney: 200
Try to Transfer 92.259 from Paul(74.1513) to Moira(125.849), Bank totalMoney: 200
这下比之前都要好了。
但是细心的读者会发现,Bank totalMoney的输出有时候是200,有时候不是。但不管怎样,即便这一次不是,下一次又是了。关于这一点,请读者自行思考一下为什么,以及如何改进。
future
API | C++标准 | 说明 |
---|---|---|
async | C++11 | 异步运行一个函数,并返回保有其结果的std::future |
future | C++11 | 等待被异步设置的值 |
packaged_task | C++11 | 打包一个函数,存储其返回值以进行异步获取 |
promise | C++11 | 存储一个值以进行异步获取 |
shared_future | C++11 | 等待被异步设置的值(可能为其他 future 所引用) |
这一小节中,我们来熟悉更多的可以在并发环境中使用的工具,它们都位于<future>
头文件中。
async
很多语言都提供了异步的机制。异步使得耗时的操作不影响当前主线程的执行流。
在C++11中,async
便是完成这样的功能的。下面是一个代码示例:
cpp
// 12_async_task.cpp
static const int MAX = 10e8;
static double sum = 0;
void worker(int min, int max) {
for (int i = min; i <= max; i++) {
sum += sqrt(i);
}
}
int main() {
sum = 0;
auto f1 = async(worker, 0, MAX);
cout << "Async task triggered" << endl;
f1.wait();
cout << "Async task finish, result: " << sum << endl << endl;
}
这仍然是我们之前熟悉的例子。这里有两个地方需要说明:
- 这里以异步的方式启动了任务。它会返回一个
future
对象。future
用来存储异步任务的执行结果,关于future
我们在后面packaged_task
的例子中再详细说明。在这个例子中我们仅仅用它来等待任务执行完成。 - 此处是等待异步任务执行完成。
需要注意的是,默认情况下,async
是启动一个新的线程,还是以同步的方式(不启动新的线程)运行任务,这一点标准是没有指定的,由具体的编译器决定。如果希望一定要以新的线程来异步执行任务,可以通过launch::async
来明确说明。launch
中有两个常量:
async
:运行新线程,以异步执行任务。deferred
:调用方线程上第一次请求其结果时才执行任务,即惰性求值。
除了通过函数来指定异步任务,还可以lambda表达式的方式来指定。如下所示:
cpp
// 12_async_task.cpp
int main() {
double result = 0;
cout << "Async task with lambda triggered, thread: " << this_thread::get_id() << endl;
auto f2 = async(launch::async, [&result]() {
cout << "Lambda task in thread: " << this_thread::get_id() << endl;
for (int i = 0; i <= MAX; i++) {
result += sqrt(i);
}
});
f2.wait();
cout << "Async task with lambda finish, result: " << result << endl << endl;
return 0;
}
在上面这段代码中,我们使用一个lambda表达式来编写异步任务的逻辑,并通过launch::async
明确指定要通过独立的线程来执行任务,同时我们打印出了线程的id。
这段代码输出如下:
python
Async task with lambda triggered, thread: 0x11290d5c0
Lambda task in thread: 0x700007aa1000
Async task with lambda finish, result: 2.10819e+13
对于面向对象编程来说,很多时候肯定希望以对象的方法来指定异步任务。下面是一个示例:
cpp
// 12_async_task.cpp
class Worker {
public:
Worker(int min, int max): mMin(min), mMax(max) {} // ①
double work() { // ②
mResult = 0;
for (int i = mMin; i <= mMax; i++) {
mResult += sqrt(i);
}
return mResult;
}
double getResult() {
return mResult;
}
private:
int mMin;
int mMax;
double mResult;
};
int main() {
Worker w(0, MAX);
cout << "Task in class triggered" << endl;
auto f3 = async(&Worker::work, &w); // ③
f3.wait();
cout << "Task in class finish, result: " << w.getResult() << endl << endl;
return 0;
}
这段代码有三处需要说明:
- 这里通过一个类来描述任务。这个类是对前面提到的任务的封装。它包含了任务的输入参数,和输出结果。
work
函数是任务的主体逻辑。- 通过
async
执行任务:这里指定了具体的任务函数以及相应的对象。请注意这里是&w
,因此传递的是对象的指针。如果不写&
将传入w
对象的临时复制。
packaged_task
在一些业务中,我们可能会有很多的任务需要调度。这时我们常常会设计出任务队列和线程池的结构。此时,就可以使用packaged_task
来包装任务。
如果你了解设计模式,你应该会知道命令模式。
packaged_task
绑定到一个函数或者可调用对象上。当它被调用时,它就会调用其绑定的函数或者可调用对象。并且,可以通过与之相关联的future
来获取任务的结果。调度程序只需要处理packaged_task
,而非各个函数。
packaged_task
对象是一个可调用对象,它可以被封装成一个std::fucntion
,或者作为线程函数传递给std::thread
,或者直接调用。
下面是一个代码示例:
cpp
// 13_packaged_task.cpp
double concurrent_worker(int min, int max) {
double sum = 0;
for (int i = min; i <= max; i++) {
sum += sqrt(i);
}
return sum;
}
double concurrent_task(int min, int max) {
vector<future<double>> results; // ①
unsigned concurrent_count = thread::hardware_concurrency();
min = 0;
for (int i = 0; i < concurrent_count; i++) { // ②
packaged_task<double(int, int)> task(concurrent_worker); // ③
results.push_back(task.get_future()); // ④
int range = max / concurrent_count * (i + 1);
thread t(std::move(task), min, range); // ⑤
t.detach();
min = range + 1;
}
cout << "threads create finish" << endl;
double sum = 0;
for (auto& r : results) {
sum += r.get(); // ⑥
}
return sum;
}
int main() {
auto start_time = chrono::steady_clock::now();
double r = concurrent_task(0, MAX);
auto end_time = chrono::steady_clock::now();
auto ms = chrono::duration_cast<chrono::milliseconds>(end_time - start_time).count();
cout << "Concurrent task finish, " << ms << " ms consumed, Result: " << r << endl;
return 0;
}
在这段代码中:
- 首先创建一个集合来存储
future
对象。我们将用它来获取任务的结果。 - 同样的,根据CPU的情况来创建线程的数量。
- 将任务包装成
packaged_task
。请注意,由于concurrent_worker
被包装成了任务,我们无法直接获取它的return
值。而是要通过future
对象来获取。 - 获取任务关联的
future
对象,并将其存入集合中。 - 通过一个新的线程来执行任务,并传入需要的参数。
- 通过
future
集合,逐个获取每个任务的计算结果,将其累加。这里r.get()
获取到的就是每个任务中concurrent_worker
的返回值。
为了简单起见,这里的示例只使用了我们熟悉的例子和结构。但在实际上的工程中,调用关系通常更复杂,你可以借助于packaged_task
将任务组装成队列,然后通过线程池的方式进行调度:
promise与future
在上面的例子中,concurrent_task
的结果是通过return
返回的。但在一些时候,我们可能不能这么做:在得到任务结果之后,可能还有一些事情需要继续处理,例如清理工作。
这个时候,就可以将promise
与future
配对使用。这样就可以将返回结果和任务结束两个事情分开。
下面是对上面代码示例的改写:
cpp
// 14_promise_future.cpp
double concurrent_worker(int min, int max) {
double sum = 0;
for (int i = min; i <= max; i++) {
sum += sqrt(i);
}
return sum;
}
void concurrent_task(int min, int max, promise<double>* result) { // ①
vector<future<double>> results;
unsigned concurrent_count = thread::hardware_concurrency();
min = 0;
for (int i = 0; i < concurrent_count; i++) {
packaged_task<double(int, int)> task(concurrent_worker);
results.push_back(task.get_future());
int range = max / concurrent_count * (i + 1);
thread t(std::move(task), min, range);
t.detach();
min = range + 1;
}
cout << "threads create finish" << endl;
double sum = 0;
for (auto& r : results) {
sum += r.get();
}
result->set_value(sum); // ②
cout << "concurrent_task finish" << endl;
}
int main() {
auto start_time = chrono::steady_clock::now();
promise<double> sum; // ③
concurrent_task(0, MAX, &sum);
auto end_time = chrono::steady_clock::now();
auto ms = chrono::duration_cast<chrono::milliseconds>(end_time - start_time).count();
cout << "Concurrent task finish, " << ms << " ms consumed." << endl;
cout << "Result: " << sum.get_future().get() << endl; // ④
return 0;
}
这段代码和上面的示例在很大程度上是一样的。只有小部分内容做了改动:
concurrent_task
不再直接返回计算结果,而是增加了一个promise
对象来存放结果。- 在任务计算完成之后,将总结过设置到
promise
对象上。一旦这里调用了set_value
,其相关联的future
对象就会就绪。 - 这里是在
main
中创建一个promoise
来存放结果,并以指针的形式传递进concurrent_task
中。 - 通过
sum.get_future().get()
来获取结果。第2点中已经说了:一旦调用了set_value
,其相关联的future
对象就会就绪。
需要注意的是,future
对象只有被一个线程获取值。并且在调用get()
之后,就没有可以获取的值了。如果从多个线程调用get()
会出现数据竞争,其结果是未定义的。
如果真的需要在多个线程中获取future
的结果,可以使用shared_future
。
总结
本文介绍了C++语言中的并发编程API。虽然这部分内容已经不少了,但还有一个重要的话题并没有提到,那就是"内存模型"。
C++内存模型是C++11标准中最重要的特性之一。它是多线程环境能够可靠工作的基础。后续文章会记录关于C++内存模型的学习记录。