上文介绍了简单的问题场景,现在来分析下产生的原因。 consumer进程里面调用file:write和gen_tcp:send来处理消息:
- handle_msg(Type, Msg, #state{file = File, socket = Socket}) when is_binary(Msg) ->
- case Type of
- file -> file:write(File, Msg);
- net -> gen_tcp:send(Socket, Msg)
- end;
- handle_msg(Type, Msg, State) ->
- handle_msg(Type, term_to_binary(Msg), State).
复制代码
这两个函数都是通过erlang的port体系实现的: filepen返回一个文件描述符,如果选项包含raw,那么这个描述符将是一个record,定义为: kernel/include/file.hrl
- -record(file_descriptor,
- {module :: module(), % Module that handles this kind of file
- data :: term()}). % Module dependent data
复制代码
通常为#file_descriptor{module = prim_file, data = {Port, Number}},其中Port为文件对应的erlang port,Number为文件在erlang虚拟机进程中的描述符,原进程内部调用prim_file的各个接口; 如果选项不包含raw,这个描述符为pid(),这个描述符Pid对应了一个file_io_server进程,该进程代理原进程调用prim_file的各个接口; gen_tcp:connect返回一个套接字描述符,这个套接字本身就是一个erlang port。 在erlang虚拟机中,文件对应的port_driver为efile,描述符为efile_driver_entry,而tcp套接字对应的port_driver为tcp_inet,描述符为tcp_inet_driver_entry。 通过port体系实现的接口,都需要先打开port,在实现具体功能时,都需要两步动作完成一个请求: - erlang:port_command(Port, Data).
- receive
- {MsgType, MsgBody} -> handle_port_return(MsgType, MsgBody)
- end.
复制代码
上述动作都需要在调用者进程中完成。 例如,file:write最终定位到prim_file:write,其实现如下: prim_file.erl - write(#file_descriptor{module = ?MODULE, data = {Port, _}}, Bytes) ->
- case drv_command(Port, [?FILE_WRITE,Bytes]) of
- {ok, _Size} ->
- ok;
- Error ->
- Error
- end.
- drv_command(Port, Command) -> drv_command(Port, Command, undefined).
- drv_command(Port, Command, R) when is_binary(Command) ->
- drv_command(Port, Command, true, R);
- drv_command(Port, Command, R) ->
- try erlang:iolist_size(Command) of
- _ -> drv_command(Port, Command, true, R)
- catch error:Reason -> {error, Reason}
- end.
- drv_command(Port, Command, Validated, R) when is_port(Port) ->
- try erlang:port_command(Port, Command) of
- true -> drv_get_response(Port, R)
- catch
- error:badarg when Validated -> {error, einval};
- error:badarg ->
- try erlang:iolist_size(Command) of
- _ -> {error, einval}
- catch error:_ -> {error, badarg}
- end;
- error:Reason -> {error, Reason}
- end;
- drv_command({Driver, Portopts}, Command, Validated, R) ->
- case drv_open(Driver, Portopts) of
- {ok, Port} ->
- Result = drv_command(Port, Command, Validated, R),
- drv_close(Port),
- Result;
- Error ->
- Error
- end.
-
- drv_get_response(Port, R) when is_list(R) ->
- case drv_get_response(Port) of
- ok ->
- {ok, R};
- {ok, Name} ->
- drv_get_response(Port, [Name|R]);
- Error ->
- Error
- end;
- drv_get_response(Port, _) ->
- drv_get_response(Port).
- drv_get_response(Port) ->
- erlang:bump_reductions(100),
- receive
- {Port, {data, [Response|Rest] = Data}} ->
- try translate_response(Response, Rest)
- catch
- error:Reason ->
- {error, {bad_response_from_port, Data, {Reason, erlang:get_stacktrace()}}}
- end;
- {'EXIT', Port, Reason} -> {error, {port_died, Reason}}
- end.
复制代码
而gen_tcp:send最终定位到prim_inet:send,其实现如下:
- send(S, Data, OptList) when is_port(S), is_list(OptList) ->
- ?DBG_FORMAT("prim_inet:send(~p, ~p)~n", [S,Data]),
- try erlang:port_command(S, Data, OptList) of
- false -> % Port busy and nosuspend option passed
- ?DBG_FORMAT("prim_inet:send() -> {error,busy}~n", []),
- {error,busy};
- true ->
- receive
- {inet_reply,S,Status} ->
- ?DBG_FORMAT("prim_inet:send() -> ~p~n", [Status]),
- Status
- end
- catch
- error:_Error ->
- ?DBG_FORMAT("prim_inet:send() -> {error,einval}~n", []),
- {error,einval}
- end.
- send(S, Data) ->
- send(S, Data, []).
复制代码
他们都遵从了上面的编写模式。这个模式看起来并没有什么,但是应用在异步环境里面,却会引起一些问题。 上述模式最根本的问题在于,port发送完命令后,紧接着进行了一次receive,而该receive过程中包含了一个match过程,这个match过程是对进程的消息队列进行遍历,直到找到可以匹配到的消息。 为了更清晰的看清楚这个问题,编写两段段简单的代码,使用erlc +"'S'" x.erl编译,生成它们的抽象码:
- receive_match() ->
- receive
- {Type, Data} -> {Type, Data}
- end.
-
- receive_fetch() ->
- receive
- Msg -> Msg
- end.
复制代码
抽象码为:
01{function, receive_match, 0, 2}. 02 {label,1}. 03 {func_info,{atom,rc},{atom,receive_match},0}. 04 {label,2}. 05 {loop_rec,{f,4},{x,0}}. 06 {test,is_tuple,{f,3},[{x,0}]}. 07 {test,test_arity,{f,3},[{x,0},2]}. 08 {get_tuple_element,{x,0},0,{x,1}}. 09 {get_tuple_element,{x,0},1,{x,2}}. 10 remove_message. 11 {test_heap,3,3}. 12 {put_tuple,2,{x,0}}. 13 {put,{x,1}}. 14 {put,{x,2}}. 15 return. 16 {label,3}. 17 {loop_rec_end,{f,2}}. 18 {label,4}. 19 {wait,{f,2}}. 20 21{function, receive_fetch, 0, 6}. 22 {label,5}. 23 {func_info,{atom,rc},{atom,receive_fetch},0}. 24 {label,6}. 25 {loop_rec,{f,7},{x,0}}. 26 remove_message. 27 return. 28 {label,7}. 29 {wait,{f,6}}.
首先看receive_match的抽象码,其抽象码解释如下: 05 loop_rec指令接收消息,若进程消息队列没有消息,跳至{label,4}处wait,若有消息,将消息移动到进程堆上,绑定到变量{x,0} 06 测试消息是否为元组tuple,若不是跳至{label,3}处 07 测试消息是否为二元元组,若不是跳至{label,3}处 08-09 此时消息已经匹配,可以做后续处理,将元组的两个元绑定到{x,1}和{x,2}上 10 消息已经匹配,将其从消息队列中移除 11-15 正常处理流程 16-17 此处表示,消息队列中有消息,但是并不是最近一次receive需要的消息,此时要做的是将该消息放回到进程消息队列上,并跳转回05的{label,2}处重新取下一条消息 18-19 此处表示,消息队列中没有消息,需要重新跳转回05的{label,2}处取下一条消息 这里可以发现,receive_match函数需要扫描一遍进程消息队列,从中取出符合要求的消息; 接着看receive_fetch的抽象码,其抽象码解释如下: 24-29 若消息队列中没有消息,则继续等待,若有消息,则取出消息,将消息移动到进程堆上,绑定到变量{x,0}; 这里可以发现,receive_fetch不会扫描进程消息队列,直接取出下一条消息。 上述抽象码对应的erlang虚拟机c代码此处不再分析,其执行过程即如上所述,有兴趣的读者可以自行查阅。
这里便可以解释之前场景的问题了: consumer的进程内部调用file:write或gen_tcp:send,然后将形成一个receive_match的模式,遍历进程消息队列,然后取出需要的消息;另一方面,生产者却没有任何顾忌的往consumer进程中投递消息,如果处理(也即调用file:write或gen_tcp:send)速度慢于消息投递速度(通常情况下总是如此,gen_server:cast的qps在本地可以轻松达到40-80w),则consumer的消息队列将不断增大,receive_match模式却仍然需要遍历整个消息队列,从而导致处理速度进一步下降,消息队列进一步增大,陷入一个恶性循环。 实际应用中,也有会遭遇这种典型的场景:进程允许异步投递, 但进程内部有调用port(receive_match)的模式出现 。
未完待续...
|