socket i/o模型全接触

来源:互联网 发布:mac口红dareyou试色 编辑:程序博客网 时间:2024/06/11 20:55

socket i/o模型全接触

作者:未知 本文简单介绍了当前windows支持的各种socket i/o模型,如果你发现其中存在什么错误请务必赐教。
  一:select模型
  二:wsaasyncselect模型
  三:wsaeventselect模型
  四:overlapped i/o 事件通知模型
  五:overlapped i/o 完成例程模型
  六:iocp模型
  老陈有一个在外地工作的女儿,不能经常回来,老陈和她通过信件联系。他们的信会被邮递员投递到他们的信箱里。
  这和socket模型非常类似。下面我就以老陈接收信件为例讲解socket i/o模型~~~
  一:select模型
  老陈非常想看到女儿的信。以至于他每隔10分钟就下楼检查信箱,看是否有女儿的信~~~~~
  在这种情况下,“下楼检查信箱”然后回到楼上耽误了老陈太多的时间,以至于老陈无法做其他工作。
  select模型和老陈的这种情况非常相似:周而复始地去检查......如果有数据......接收/发送.......
  使用线程来select应该是通用的做法:
  procedure tlistenthread.execute;
  var
  addr     : tsockaddrin;
  fd_read  : tfdset;
  timeout  : ttimeval;
  asock,
  mainsock : tsocket;
  len, i   : integer;
  begin
  mainsock := socket( af_inet, sock_stream, ipproto_tcp );
  addr.sin_family := af_inet;
  addr.sin_port := htons(5678);
  addr.sin_addr.s_addr := htonl(inaddr_any);
  bind( mainsock, @addr, sizeof(addr) );
  listen( mainsock, 5 );
  while (not terminated) do
  begin
  fd_zero( fd_read );
  fd_set( mainsock, fd_read );
  timeout.tv_sec  := 0;
  timeout.tv_usec := 500;
  if select( 0, @fd_read, nil, nil, @timeout ) > 0 then //至少有1个等待accept的connection
  begin
  if fd_isset( mainsock, fd_read ) then
  begin
  for i:=0 to fd_read.fd_count-1 do //注意,fd_count <= 64,也就是说select只能同时管理最多64个连接
  begin
  len := sizeof(addr);
  asock := accept( mainsock, addr, len );
  if asock <> invalid_socket then
  ....//为asock创建一个新的线程,在新的线程中再不停地select
  end;
  end;
  end;
  end; //while (not self.terminated)
  shutdown( mainsock, sd_both );
  closesocket( mainsock );
  end;
  二:wsaasyncselect模型
  后来,老陈使用了微软公司的新式信箱。这种信箱非常先进,一旦信箱里有新的信件,盖茨就会给老陈打电话:喂,大爷,你有新的信件了!从此,老陈再也不必频繁上下楼检查信箱了,牙也不疼了,你瞅准了,蓝天......不是,微软~~~~~~~~
  微软提供的wsaasyncselect模型就是这个意思。
  wsaasyncselect模型是windows下最简单易用的一种socket i/o模型。使用这种模型时,windows会把网络事件以消息的形势通知应用程序。
  首先定义一个消息标示常量:
  const wm_socket = wm_user + 55;
  再在主form的private域添加一个处理此消息的函数声明:
  private
  procedure wmsocket(var msg: tmessage); message wm_socket;
  然后就可以使用wsaasyncselect了:
  var
  addr  : tsockaddr;
  sock  : tsocket;
  sock := socket( af_inet, sock_stream, ipproto_tcp );
  addr.sin_family := af_inet;
  addr.sin_port := htons(5678);
  addr.sin_addr.s_addr := htonl(inaddr_any);
  bind( m_sock, @addr, sizeof(sockaddr) );
  wsaasyncselect( m_sock, handle, wm_socket, fd_accept or fd_close );
  listen( m_sock, 5 );
  ....
  应用程序可以对收到wm_socket消息进行分析,判断是哪一个socket产生了网络事件以及事件类型:
  procedure tfmmain.wmsocket(var msg: tmessage);
  var
  sock    : tsocket;
  addr    : tsockaddrin;
  addrlen : integer;
  buf     : array [0..4095] of char;
  begin
  //msg的wparam是产生了网络事件的socket句柄,lparam则包含了事件类型
  case wsagetselectevent( msg.lparam ) of
  fd_accept :
  begin
  addrlen := sizeof(addr);
  sock := accept( msg.wparam, addr, addrlen );
  if sock <> invalid_socket then
  wsaasyncselect( sock, handle, wm_socket, fd_read or fd_write or fd_close );
  end;
  fd_close : closesocket( msg.wparam );
  fd_read  : recv( msg.wparam, buf[0], 4096, 0 );
  fd_write : ;
  end;
  end;
  三:wsaeventselect模型
  后来,微软的信箱非常畅销,购买微软信箱的人以百万计数......以至于盖茨每天24小时给客户打电话,累得腰酸背痛,喝蚁力神都不好使~~~~~~
  微软改进了他们的信箱:在客户的家中添加一个附加装置,这个装置会监视客户的信箱,每当新的信件来临,此装置会发出“新信件到达”声,提醒老陈去收信。盖茨终于可以睡觉了。
  同样要使用线程:
  procedure tlistenthread.execute;
  var
  hevent : wsaevent;
  ret    : integer;
  ne     : twsanetworkevents;
  sock   : tsocket;
  adr    : tsockaddrin;
  smsg   : string;
  index,
  eventtotal : dword;
  eventarray : array [0..wsa_maximum_wait_events-1] of wsaevent;
  begin
  ...socket...bind...
  hevent := wsacreateevent();
  wsaeventselect( listensock, hevent, fd_accept or fd_close );
  ...listen...
  while ( not terminated ) do
  begin
  index := wsawaitformultipleevents( eventtotal, @eventarray[0], false, wsa_infinite, false );
  fillchar( ne, sizeof(ne), 0 );
  wsaenumnetworkevents( sockarray[index-wsa_wait_event_0],  eventarray[index-wsa_wait_event_0], @ne );
  if ( ne.lnetworkevents and fd_accept ) > 0 then
  begin
  if ne.ierrorcode[fd_accept_bit] <> 0 then
  continue;
  ret := sizeof(adr);
  sock := accept( sockarray[index-wsa_wait_event_0], adr, ret );
  if eventtotal > wsa_maximum_wait_events-1 then//这里wsa_maximum_wait_events同样是64
  begin
  closesocket( sock );
  continue;
  end;
  hevent := wsacreateevent();
  wsaeventselect( sock, hevent, fd_read or fd_write or fd_close );
  sockarray[eventtotal] := sock;
  eventarray[eventtotal] := hevent;
  inc( eventtotal );
  end;
  if ( ne.lnetworkevents and fd_read ) > 0 then
  begin
  if ne.ierrorcode[fd_read_bit] <> 0 then
  continue;
  fillchar( recvbuf[0], pack_size_receive, 0 );
  ret := recv( sockarray[index-wsa_wait_event_0], recvbuf[0], pack_size_receive, 0 );
  ......
  end;
  end;
  end;
  四:overlapped i/o 事件通知模型
  后来,微软通过调查发现,老陈不喜欢上下楼收发信件,因为上下楼其实很浪费时间。于是微软再次改进他们的信箱。新式的信箱采用了更为先进的技术,只要用户告诉微软自己的家在几楼几号,新式信箱会把信件直接传送到用户的家中,然后告诉用户,你的信件已经放到你的家中了!老陈很高兴,因为他不必再亲自收发信件了!
  overlapped i/o 事件通知模型和wsaeventselect模型在实现上非常相似,主要区别在“overlapped”,overlapped模型是让应用程序使用重叠数据结构(wsaoverlapped),一次投递一个或多个winsock i/o请求。这些提交的请求完成后,应用程序会收到通知。什么意思呢?就是说,如果你想从socket上接收数据,只需要告诉系统,由系统为你接收数据,而你需要做的只是为系统提供一个缓冲区~~~~~
  listen线程和wsaeventselect模型一模一样,recv/send线程则完全不同:
  procedure toverlapthread.execute;
  var
  dwtemp : dword;
  ret    : integer;
  index  : dword;
  begin
  ......
  while ( not terminated ) do
  begin
  index := wsawaitformultipleevents( flinks.count, @flinks.events[0], false, recv_time_out, false );
  dec( index, wsa_wait_event_0 );
  if index > wsa_maximum_wait_events-1 then //超时或者其他错误
  continue;
  wsaresetevent( flinks.events[index] );
  wsagetoverlappedresult( flinks.sockets[index], flinks.poverlaps[index], @dwtemp, false, flinks.pdwflags[index]^ );
  if dwtemp = 0 then //连接已经关闭
  begin
  ......
  continue;
  end else
  begin
  fmmain.listbox1.items.add( flinks.pbufs[index]^.buf );
  end;
  //初始化缓冲区
  flinks.pdwflags[index]^ := 0;
  fillchar( flinks.poverlaps[index]^, sizeof(wsaoverlapped), 0 );
  flinks.poverlaps[index]^.hevent := flinks.events[index];
  fillchar( flinks.pbufs[index]^.buf^, buffer_size, 0 );
  //递一个接收数据请求
  wsarecv( flinks.sockets[index], flinks.pbufs[index], 1, flinks.pdwrecvd[index]^, flinks.pdwflags[index]^, flinks.poverlaps[index], nil );
  end;
  end;
  五:overlapped i/o 完成例程模型
  老陈接收到新的信件后,一般的程序是:打开信封----掏出信纸----阅读信件----回复信件......为了进一步减轻用户负担,微软又开发了一种新的技术:用户只要告诉微软对信件的操作步骤,微软信箱将按照这些步骤去处理信件,不再需要用户亲自拆信/阅读/回复了!老陈终于过上了小资生活!
  overlapped i/o 完成例程要求用户提供一个回调函数,发生新的网络事件的时候系统将执行这个函数:
  procedure workerroutine( const dwerror, cbtransferred : dword; const
  lpoverlapped : lpwsaoverlapped; const dwflags : dword ); stdcall;
  然后告诉系统用workerroutine函数处理接收到的数据:
  wsarecv( m_socket, @fbuf, 1, dwtemp, dwflag, @m_overlap, workerroutine );
  然后......没有什么然后了,系统什么都给你做了!微软真实体贴!
  while ( not terminated ) do//这就是一个recv/send线程要做的事情......什么都不用做啊!!!
  begin
  if sleepex( recv_time_out, true ) = wait_io_completion then //
  begin
  ;
  end else
  begin
  continue;
  end;
  end;
  六:iocp模型
  微软信箱似乎很完美,老陈也很满意。但是在一些大公司情况却完全不同!这些大公司有数以万计的信箱,每秒钟都有数以百计的信件需要处理,以至于微软信箱经常因超负荷运转而崩溃!需要重新启动!微软不得不使出杀手锏......
  微软给每个大公司派了一名名叫“completion port”的超级机器人,让这个机器人去处理那些信件!
  “windows nt小组注意到这些应用程序的性能没有预料的那么高。特别的,处理很多同时的客户请求意味着很多线程并发地运行在系统中。因为所有这些线程都是可运行的[没有被挂起和等待发生什么事],microsoft意识到nt内核花费了太多的时间来转换运行线程的上下文[context],线程就没有得到很多cpu时间来做它们的工作。大家可能也都感觉到并行模型的瓶颈在于它为每一个客户请求都创建了一个新线程。创建线程比起创建进程开销要小,但也远不是没有开销的。我们不妨设想一下:如果事先开好n个线程,让它们在那hold[堵塞],然后可以将所有用户的请求都投递到一个消息队列中去。然后那n个线程逐一从消息队列中去取出消息并加以处理。就可以避免针对每一个用户请求都开线程。不仅减少了线程的资源,也提高了线程的利用率。理论上很不错,你想我等泛泛之辈都能想出来的问题,microsoft又怎会没有考虑到呢?”-----摘自nonocast的《理解i/o completion port》
  先看一下iocp模型的实现:
  //创建一个完成端口
  fcompletport := createiocompletionport( invalid_handle_value, 0,0,0 );
  //接受远程连接,并把这个连接的socket句柄绑定到刚才创建的iocp上
  aconnect := accept( flistensock, addr, len);
  createiocompletionport( aconnect, fcompletport, nil, 0 );
  //创建cpu数*2 + 2个线程
  for i:=1 to si.dwnumberofprocessors*2+2 do
  begin
  athread := trecvsendthread.create( false );
  athread.completport := fcompletport;//告诉这个线程,你要去这个iocp去访问数据
  end;
  ok,就这么简单,我们要做的就是建立一个iocp,把远程连接的socket句柄绑定到刚才创建的iocp上,最后创建n个线程,并告诉这n个线程到这个iocp上去访问数据就可以了。
  再看一下trecvsendthread线程都干些什么:
  procedure trecvsendthread.execute;
  var
  ......
  begin
  while (not self.terminated) do
  begin
  //查询iocp状态(数据读写操作是否完成)
  getqueuedcompletionstatus( completport, bytestransd, completkey, poverlapped(pperiodat), time_out );
  if bytestransd <> 0  then
  ....;//数据读写操作完成
  //再投递一个读数据请求
  wsarecv( completkey, @(pperiodat^.bufdata), 1, bytesrecv, flags, @(pperiodat^.overlap), nil );
  end;
  end;
  读写线程只是简单地检查iocp是否完成了我们投递的读写操作,如果完成了则再投递一个新的读写请求。
  应该注意到,我们创建的所有trecvsendthread都在访问同一个iocp(因为我们只创建了一个iocp),并且我们没有使用临界区!难道不会产生冲突吗?不用考虑同步问题吗?
  呵呵,这正是iocp的奥妙所在。iocp不是一个普通的对象,不需要考虑线程安全问题。它会自动调配访问它的线程:如果某个socket上有一个线程a正在访问,那么线程b的访问请求会被分配到另外一个socket。这一切都是由系统自动调配的,我们无需过问。
  呵呵,终于写完了,好累......以上所有的源代码可以从这里看到:
  http://community.csdn.net/expert/topic/3844/3844679.xml?temp=5.836123e-02
  不过代码写的很简陋,请多包涵!