相对于asio事件等待池aiop的reactor模式,基于proactor模式的事件回调池aicp封转的更加的上层。
-
在类unix系统上
底层是基于aiop的实现,在一个线程里面进行事件等待,然后分发所有事件,在worker中处理完后调用回调返回到上层。 并对不同系统的aiop支持力度,进行针对性优化。
- 如果aiop支持边缘触发(例如:epoll、kqueue),尽量启用边缘触发,以减少系统api的频繁调用。
- 使用sendfile对发送文件进行优化
- 针对linux系统,启用native file io,实现file的dma读写,节省cpu的时间。(目前还没实现)
-
在windows系统上
直接基于iocp进行封装,并针对windows的一些扩展socket api进行针对性优化。
- 使用DisconnectEx对socket的进行重用,实现socket池来管理,优化整体性能
- 使用TransmitFile对发送文件进行优化
- 在高版本系统上,优先使用GetQueuedCompletionStatusEx来批量获取事件,减少系统调用
不管在哪个平台上,只需要两个线程(worker线程+timer线程),就能实现高性能并发io读写。
其中timer线程主要处理投递事件的超时维护,如果io事件长时间不响应,则会超时取消,超时事件是可以根据不同事件,自己设置。 如果确实想要快速取消,也有接口安全的强制kill掉,并在对应的回调里面监听到killed事件。
针对timer,aicp中了两种定时器:
- tb_ltimer_t:低精度定时器,精度为1s,主要用于超时维护,效率很高,采用简化的timing-wheel算法
- tb_timer_t:通用高精度定时器,精度为1ms,使用最小堆维护,主要用于维护所有定时任务,以及各种io限速操作
并且整个aicp参考nginx对于gettimeofday的优化,也对其进行了缓存,只在master loop中进行更新,其他地方直接使用缓存的值。
虽然aicp只需要一个worker线程进行loop就足够了,但是同时它也支持多个线程同时开启loop,来提高分发处理效率。
具体的aicp架构,参见:asio架构
下面看看aicp是如何使用的:
所有aicp事件投递,都是由aico对象完成,每个aico对象一个事件对象,目前支持三种事件对象:
- socket
- file
- task(用于投递定时任务)
具体aico的事件投递接口,参见:asio的事件投递接口说明
/* //////////////////////////////////////////////////////////////////////////////////////
* includes
*/
#include "tbox/tbox.h"
/* //////////////////////////////////////////////////////////////////////////////////////
* types
*/
typedef struct __tb_demo_context_t
{
// the file
tb_file_ref_t file;
// the aico
tb_aico_ref_t aico;
// the size
tb_hize_t size;
}tb_demo_context_t;
/* //////////////////////////////////////////////////////////////////////////////////////
* implementation
*/
// aico对象关闭回调函数
static tb_bool_t tb_demo_aico_clos(tb_aice_t const* aice)
{
// check
tb_assert_and_check_return_val(aice && aice->aico && aice->code == TB_AICE_CODE_CLOS, tb_false);
// trace
tb_trace_d("aico[%p]: clos: %s", aice->aico, tb_state_cstr(aice->state));
// exit aico
tb_aico_exit(aice->aico);
// ok
return tb_true;
}
static tb_void_t tb_demo_context_exit(tb_demo_context_t* context)
{
if (context)
{
// clos aico
if (context->aico) tb_aico_clos(context->aico, tb_demo_aico_clos, tb_null);
context->aico = tb_null;
// exit
tb_free(context);
}
}
// 发送文件事件回调函数
static tb_bool_t tb_demo_sock_sendf_func(tb_aice_t const* aice)
{
// check
tb_assert_and_check_return_val(aice && aice->code == TB_AICE_CODE_SENDF, tb_false);
// the context
tb_demo_context_t* context = (tb_demo_context_t*)aice->priv;
tb_assert_and_check_return_val(context, tb_false);
// ok?
if (aice->state == TB_STATE_OK)
{
// trace
tb_trace_d("sendf[%p]: real: %lu, size: %llu", aice->aico, aice->u.sendf.real, aice->u.sendf.size);
// save size
context->size += aice->u.sendf.real;
// 如果还没有发送完,则继续发送剩余文件数据
if (aice->u.sendf.real < aice->u.sendf.size)
{
// post sendf from file
if (!tb_aico_sendf(aice->aico, context->file, context->size, aice->u.sendf.size - aice->u.sendf.real, tb_demo_sock_sendf_func, context)) return tb_false;
}
else
{
tb_trace_i("sendf[%p]: finished", aice->aico);
tb_demo_context_exit(context);
}
}
// closed or failed?
else
{
tb_trace_i("sendf[%p]: state: %s", aice->aico, tb_state_cstr(aice->state));
tb_demo_context_exit(context);
}
// ok
return tb_true;
}
// accept事件回调函数
static tb_bool_t tb_demo_sock_acpt_func(tb_aice_t const* aice)
{
// check
tb_assert_and_check_return_val(aice && aice->code == TB_AICE_CODE_ACPT, tb_false);
// the file path
tb_char_t const* path = (tb_char_t const*)aice->priv;
tb_assert_and_check_return_val(path, tb_false);
// the aicp
tb_aicp_ref_t aicp = tb_aico_aicp(aice->aico);
tb_assert_and_check_return_val(aicp, tb_false);
// acpt ok?
if (aice->state == TB_STATE_OK)
{
// trace
tb_trace_i("acpt[%p]: %p", aice->aico, aice->u.acpt.aico);
// done
tb_bool_t ok = tb_false;
tb_demo_context_t* context = tb_null;
do
{
// make context
context = tb_malloc0_type(tb_demo_context_t);
tb_assert_and_check_break(context);
// init file
context->file = tb_file_init(path, TB_FILE_MODE_RO | TB_FILE_MODE_ASIO);
tb_assert_and_check_break(context->file);
// 获取客户端连接的aico对象,用于发送数据
context->aico = aice->u.acpt.aico;
tb_assert_and_check_break(context->aico);
// 投递一个发送文件事件
if (!tb_aico_sendf(context->aico, context->file, 0ULL, tb_file_size(context->file), tb_demo_sock_sendf_func, context)) break;
// ok
ok = tb_true;
} while (0);
// failed?
if (!ok)
{
// exit context
if (context) tb_demo_context_exit(context);
}
}
// failed?
else
{
// exit loop
tb_trace_i("acpt[%p]: state: %s", aice->aico, tb_state_cstr(aice->state));
// accept失败,关闭用于监听的aico对象
if (aice->aico) tb_aico_clos(aice->aico, tb_demo_aico_clos, tb_null);
}
// ok
return tb_true;
}
/* //////////////////////////////////////////////////////////////////////////////////////
* main
*/
tb_int_t main(tb_int_t argc, tb_char_t** argv)
{
// check
tb_assert_and_check_return_val(argv[1], 0);
// done
tb_aico_ref_t aico = tb_null;
do
{
// 初始化tbox库
if (!tb_init(tb_null, tb_null, 0)) break;
/* 初始化一个用于监听的aico对象
*
* 注:这里为了简化代码,直接使用了全局的tb_aicp()对象,
* 全局的aicp对象,用起来更加方便,内部回去自己开一个线程运行loop来驱动
* 一般用于客户端应用。
*
* 如果想要更高的并发性能,启用更多的线程去驱动loop,需要手动调用tb_aicp_init,指定需要的并发量,来创建。
* 并且需要手动运行tb_aicp_loop
*/
aico = tb_aico_init(tb_aicp());
tb_assert_and_check_break(aico);
// 打开这个aico对象,并为其创建一个tcp socket
if (!tb_aico_open_sock_from_type(aico, TB_SOCKET_TYPE_TCP)) break;
// 绑定监听端口
if (!tb_socket_bind(tb_aico_sock(aico), tb_null, 9090)) break;
// 设置监听
if (!tb_socket_listen(tb_aico_sock(aico), 20)) break;
/* 投递accept事件,仅需一次投递
*
* 注:
* 只有accept事件是一次投递,长期有效,只要有事件过来,就回去调用对应的回调函数
* 不需要重复投递,这样设计也是为了尽可能的接受更多地并发连接
*/
if (!tb_aico_acpt(aico, tb_demo_sock_acpt_func, argv[1])) break;
// 等待
getchar();
} while (0);
// exit tbox
tb_exit();
return 0;
}