lichao
2021-04-01 d26327b3cde043a9470dcd7fea8e704ea517fdae
utest/speed_test.cpp
@@ -24,9 +24,9 @@
{
   const std::string shm_name("ShmSpeed");
   ShmRemover auto_remove(shm_name);
   const int mem_size       = 1024 * 1024 * 50;
   MQId id                  = boost::uuids::random_generator()();
   const int timeout        = 100;
   const int mem_size = 1024 * 1024 * 50;
   MQId id = boost::uuids::random_generator()();
   const int timeout = 100;
   const uint32_t data_size = 4000;
   auto Writer = [&](int writer_id, uint64_t n) {
@@ -35,7 +35,7 @@
      std::string str(data_size, 'a');
      MsgI msg;
      DEFER1(msg.Release(shm););
      msg.MakeRC(shm, MakeRequest(mq.Id(), str.data(), str.size()));
      msg.MakeRC(shm, MakeRequest(mq.Id(), "topic", str.data(), str.size()));
      for (uint64_t i = 0; i < n; ++i) {
         // mq.Send(id, str.data(), str.size(), timeout);
         mq.Send(id, msg, timeout);
@@ -70,7 +70,7 @@
   auto Test = [&](auto &www, auto &rrr, bool isfork) {
      for (auto nreader : nreaders) {
         for (auto nwriter : nwriters) {
            const uint64_t nmsg      = 1000 * 1000 * 10 / nwriter;
            const uint64_t nmsg = 1000 * 1000 * 10 / nwriter;
            const uint64_t total_msg = nmsg * nwriter;
            std::atomic<bool> run(true);
            std::this_thread::sleep_for(10ms);
@@ -104,26 +104,26 @@
   run.store(false);
}
// Request Reply Test
BOOST_AUTO_TEST_CASE(RRTest)
// Send Recv Test
BOOST_AUTO_TEST_CASE(SRTest)
{
   const std::string shm_name("ShmReqRep");
   const std::string shm_name("ShmSendRecv");
   ShmRemover auto_remove(shm_name);
   const int qlen          = 64;
   const int qlen = 64;
   const size_t msg_length = 1000;
   std::string msg_content(msg_length, 'a');
   msg_content[20] = '\0';
   SharedMemory shm(shm_name, 1024 * 1024 * 50);
   auto Avail      = [&]() { return shm.get_free_memory(); };
   auto Avail = [&]() { return shm.get_free_memory(); };
   auto init_avail = Avail();
   ShmMsgQueue srv(shm, qlen);
   ShmMsgQueue cli(shm, qlen);
   MsgI request_rc;
   request_rc.MakeRC(shm, MakeRequest(cli.Id(), msg_content.data(), msg_content.size()));
   request_rc.MakeRC(shm, MakeRequest(cli.Id(), "topic", msg_content.data(), msg_content.size()));
   MsgI reply_rc;
   reply_rc.MakeRC(shm, MakeReply(msg_content.data(), msg_content.size()));
   reply_rc.MakeRC(shm, MakeReply("fakemsgid", msg_content.data(), msg_content.size()));
   std::atomic<uint64_t> count(0);
@@ -133,7 +133,7 @@
   auto Client = [&](int cli_id, int nmsg) {
      for (int i = 0; i < nmsg; ++i) {
         auto Req = [&]() {
            return cli.Send(srv.Id(), MakeRequest(cli.Id(), msg_content.data(), msg_content.size()), 100);
            return cli.Send(srv.Id(), MakeRequest(cli.Id(), "topic", msg_content.data(), msg_content.size()), 100);
         };
         auto ReqRC = [&]() { return cli.Send(srv.Id(), request_rc, 1000); };
@@ -165,7 +165,7 @@
            MQId src_id;
            memcpy(&src_id, mqid.data(), sizeof(src_id));
            auto Reply = [&]() {
               return srv.Send(src_id, MakeReply(msg_content.data(), msg_content.size()), 100);
               return srv.Send(src_id, MakeReply(req.msg_id(), msg_content.data(), msg_content.size()), 100);
            };
            auto ReplyRC = [&]() { return srv.Send(src_id, reply_rc, 100); };
@@ -180,7 +180,7 @@
   ThreadManager clients, servers;
   for (int i = 0; i < qlen; ++i) { servers.Launch(Server); }
   int ncli      = 100 * 1;
   int ncli = 100 * 1;
   uint64_t nmsg = 100 * 100 * 2;
   printf("client threads: %d, msgs : %ld, total msg: %ld\n", ncli, nmsg, ncli * nmsg);
   for (int i = 0; i < ncli; ++i) { clients.Launch(Client, i, nmsg); }