frontend_net: dynamic thread pool MP-629
[metaproxy-moved-to-github.git] / src / thread_pool_observer.cpp
index f018bf9..bf60e73 100644 (file)
@@ -1,5 +1,5 @@
 /* This file is part of Metaproxy.
-   Copyright (C) 2005-2008 Index Data
+   Copyright (C) Index Data
 
 Metaproxy is free software; you can redistribute it and/or modify it under
 the terms of the GNU General Public License as published by the Free
@@ -22,6 +22,10 @@ Foundation, Inc., 51 Franklin St, Fifth Floor, Boston, MA  02110-1301  USA
 #include <unistd.h>
 #endif
 
+#ifdef WIN32
+#include <windows.h>
+#include <winsock.h>
+#endif
 #include <boost/thread/thread.hpp>
 #include <boost/thread/mutex.hpp>
 #include <boost/thread/condition.hpp>
@@ -30,6 +34,7 @@ Foundation, Inc., 51 Franklin St, Fifth Floor, Boston, MA  02110-1301  USA
 #include <stdio.h>
 
 #include <deque>
+#include <sstream>
 
 #include <yazpp/socket-observer.h>
 #include <yaz/log.h>
@@ -64,6 +69,9 @@ namespace metaproxy_1 {
         std::deque<IThreadPoolMsg *> m_output;
         bool m_stop_flag;
         unsigned m_no_threads;
+        unsigned m_min_threads;
+        unsigned m_max_threads;
+        unsigned m_waiting_threads;
     };
     const unsigned int queue_size_per_thread = 64;
 }
@@ -88,16 +96,19 @@ IThreadPoolMsg::~IThreadPoolMsg()
 }
 
 ThreadPoolSocketObserver::ThreadPoolSocketObserver(
-    yazpp_1::ISocketObservable *obs, int no_threads)
+    yazpp_1::ISocketObservable *obs,
+    unsigned min_threads, unsigned max_threads)
     : m_p(new Rep(obs))
 {
     obs->addObserver(m_p->m_pipe.read_fd(), this);
     obs->maskObserver(this, SOCKET_OBSERVE_READ);
 
     m_p->m_stop_flag = false;
-    m_p->m_no_threads = no_threads;
-    int i;
-    for (i = 0; i<no_threads; i++)
+    m_p->m_min_threads = m_p->m_no_threads = min_threads;
+    m_p->m_max_threads = max_threads;
+    m_p->m_waiting_threads = 0;
+    unsigned i;
+    for (i = 0; i < m_p->m_no_threads; i++)
     {
         Worker w(this);
         m_p->m_thrds.add_thread(new boost::thread(w));
@@ -112,7 +123,6 @@ ThreadPoolSocketObserver::~ThreadPoolSocketObserver()
         m_p->m_cond_input_data.notify_all();
     }
     m_p->m_thrds.join_all();
-
     m_p->m_socketObservable->deleteObserver(this);
 }
 
@@ -124,7 +134,16 @@ void ThreadPoolSocketObserver::socketNotify(int event)
 #ifdef WIN32
         recv(m_p->m_pipe.read_fd(), buf, 1, 0);
 #else
-        read(m_p->m_pipe.read_fd(), buf, 1);
+        ssize_t r = read(m_p->m_pipe.read_fd(), buf, 1);
+        if (r != 1)
+        {
+            if (r == (ssize_t) (-1))
+                yaz_log(YLOG_WARN|YLOG_ERRNO,
+                        "ThreadPoolSocketObserver::socketNotify. read fail");
+            else
+                yaz_log(YLOG_WARN,
+                        "ThreadPoolSocketObserver::socketNotify. read returned 0");
+        }
 #endif
         IThreadPoolMsg *out;
         {
@@ -133,10 +152,27 @@ void ThreadPoolSocketObserver::socketNotify(int event)
             m_p->m_output.pop_front();
         }
         if (out)
-            out->result();
+        {
+            std::ostringstream os;
+            {
+                boost::mutex::scoped_lock input_lock(m_p->m_mutex_input_data);
+                os  << "tbusy/total " <<
+                    m_p->m_no_threads - m_p->m_waiting_threads <<
+                    "/" << m_p->m_no_threads
+                    << " queue in/out " << m_p->m_input.size() << "/"
+                    << m_p->m_output.size();
+            }
+            out->result(os.str().c_str());
+        }
     }
 }
 
+void ThreadPoolSocketObserver::get_thread_info(int &tbusy, int &total)
+{
+    tbusy = m_p->m_no_threads - m_p->m_waiting_threads;
+    total = m_p->m_no_threads;
+}
+
 void ThreadPoolSocketObserver::run(void *p)
 {
     while(1)
@@ -144,13 +180,15 @@ void ThreadPoolSocketObserver::run(void *p)
         IThreadPoolMsg *in = 0;
         {
             boost::mutex::scoped_lock input_lock(m_p->m_mutex_input_data);
+            m_p->m_waiting_threads++;
             while (!m_p->m_stop_flag && m_p->m_input.size() == 0)
                 m_p->m_cond_input_data.wait(input_lock);
+            m_p->m_waiting_threads--;
             if (m_p->m_stop_flag)
                 break;
-            
+
             in = m_p->m_input.front();
-            m_p->m_input.pop_front(); 
+            m_p->m_input.pop_front();
             m_p->m_cond_input_full.notify_all();
         }
         IThreadPoolMsg *out = in->handle();
@@ -160,20 +198,54 @@ void ThreadPoolSocketObserver::run(void *p)
 #ifdef WIN32
             send(m_p->m_pipe.write_fd(), "", 1, 0);
 #else
-            write(m_p->m_pipe.write_fd(), "", 1);
+            ssize_t r = write(m_p->m_pipe.write_fd(), "", 1);
+            if (r != 1)
+            {
+                if (r == (ssize_t) (-1))
+                    yaz_log(YLOG_WARN|YLOG_ERRNO,
+                            "ThreadPoolSocketObserver::run. write fail");
+                else
+                    yaz_log(YLOG_WARN,
+                            "ThreadPoolSocketObserver::run. write returned 0");
+            }
 #endif
         }
     }
 }
 
+void ThreadPoolSocketObserver::cleanup(IThreadPoolMsg *m, void *info)
+{
+    boost::mutex::scoped_lock input_lock(m_p->m_mutex_input_data);
+
+    std::deque<IThreadPoolMsg *>::iterator it = m_p->m_input.begin();
+    while (it != m_p->m_input.end())
+    {
+        if ((*it)->cleanup(info))
+        {
+            delete *it;
+            it = m_p->m_input.erase(it);
+        }
+        else
+            it++;
+    }
+}
+
 void ThreadPoolSocketObserver::put(IThreadPoolMsg *m)
 {
     boost::mutex::scoped_lock input_lock(m_p->m_mutex_input_data);
+    if (m_p->m_waiting_threads == 0 &&
+        m_p->m_no_threads < m_p->m_max_threads)
+    {
+        m_p->m_no_threads++;
+        Worker w(this);
+        m_p->m_thrds.add_thread(new boost::thread(w));
+    }
     while (m_p->m_input.size() >= m_p->m_no_threads * queue_size_per_thread)
         m_p->m_cond_input_full.wait(input_lock);
     m_p->m_input.push_back(m);
     m_p->m_cond_input_data.notify_one();
 }
+
 /*
  * Local variables:
  * c-basic-offset: 4