//
|
// Copyright 2020 Staysail Systems, Inc. <info@staysail.tech>
|
// Copyright 2018 Capitar IT Group BV <info@capitar.com>
|
// Copyright 2019 Devolutions <info@devolutions.net>
|
//
|
// This software is supplied under the terms of the MIT License, a
|
// copy of which should be located in the distribution where this
|
// file was obtained (LICENSE.txt). A copy of the license may also be
|
// found online at https://opensource.org/licenses/MIT.
|
//
|
|
#include <stdio.h>
|
#include <stdlib.h>
|
|
#include "core/nng_impl.h"
|
|
#include <nng/transport/ipc/ipc.h>
|
|
// IPC transport. Platform specific IPC operations must be
|
// supplied as well. Normally the IPC is UNIX domain sockets or
|
// Windows named pipes. Other platforms could use other mechanisms,
|
// but all implementations on the platform must use the same mechanism.
|
|
typedef struct ipc_pipe ipc_pipe;
|
typedef struct ipc_ep ipc_ep;
|
|
// ipc_pipe is one end of an IPC connection.
|
struct ipc_pipe {
|
nng_stream * conn;
|
uint16_t peer;
|
uint16_t proto;
|
size_t rcv_max;
|
bool closed;
|
nni_sockaddr sa;
|
ipc_ep * ep;
|
nni_pipe * pipe;
|
nni_list_node node;
|
nni_atomic_flag reaped;
|
nni_reap_node reap;
|
uint8_t tx_head[1 + sizeof(uint64_t)];
|
uint8_t rx_head[1 + sizeof(uint64_t)];
|
size_t got_tx_head;
|
size_t got_rx_head;
|
size_t want_tx_head;
|
size_t want_rx_head;
|
nni_list recv_q;
|
nni_list send_q;
|
nni_aio tx_aio;
|
nni_aio rx_aio;
|
nni_aio neg_aio;
|
nni_msg * rx_msg;
|
nni_mtx mtx;
|
};
|
|
struct ipc_ep {
|
nni_mtx mtx;
|
nni_sockaddr sa;
|
size_t rcv_max;
|
uint16_t proto;
|
bool started;
|
bool closed;
|
bool fini;
|
int ref_cnt;
|
nng_stream_dialer * dialer;
|
nng_stream_listener *listener;
|
nni_aio * user_aio;
|
nni_aio * conn_aio;
|
nni_aio * time_aio;
|
nni_list busy_pipes; // busy pipes -- ones passed to socket
|
nni_list wait_pipes; // pipes waiting to match to socket
|
nni_list neg_pipes; // pipes busy negotiating
|
nni_reap_node reap;
|
#ifdef NNG_ENABLE_STATS
|
nni_stat_item st_rcv_max;
|
#endif
|
};
|
|
static void ipc_pipe_send_start(ipc_pipe *p);
|
static void ipc_pipe_recv_start(ipc_pipe *p);
|
static void ipc_pipe_send_cb(void *);
|
static void ipc_pipe_recv_cb(void *);
|
static void ipc_pipe_neg_cb(void *);
|
static void ipc_pipe_fini(void *);
|
static void ipc_ep_fini(void *);
|
|
static nni_reap_list ipc_ep_reap_list = {
|
.rl_offset = offsetof(ipc_ep, reap),
|
.rl_func = ipc_ep_fini,
|
};
|
|
static nni_reap_list ipc_pipe_reap_list = {
|
.rl_offset = offsetof(ipc_pipe, reap),
|
.rl_func = ipc_pipe_fini,
|
};
|
|
static void
|
ipc_tran_init(void)
|
{
|
}
|
|
static void
|
ipc_tran_fini(void)
|
{
|
}
|
|
static void
|
ipc_pipe_close(void *arg)
|
{
|
ipc_pipe *p = arg;
|
|
nni_mtx_lock(&p->mtx);
|
p->closed = true;
|
nni_mtx_unlock(&p->mtx);
|
|
nni_aio_close(&p->rx_aio);
|
nni_aio_close(&p->tx_aio);
|
nni_aio_close(&p->neg_aio);
|
|
nng_stream_close(p->conn);
|
}
|
|
static void
|
ipc_pipe_stop(void *arg)
|
{
|
ipc_pipe *p = arg;
|
|
nni_aio_stop(&p->rx_aio);
|
nni_aio_stop(&p->tx_aio);
|
nni_aio_stop(&p->neg_aio);
|
}
|
|
static int
|
ipc_pipe_init(void *arg, nni_pipe *pipe)
|
{
|
ipc_pipe *p = arg;
|
p->pipe = pipe;
|
return (0);
|
}
|
|
static void
|
ipc_pipe_fini(void *arg)
|
{
|
ipc_pipe *p = arg;
|
ipc_ep * ep;
|
|
ipc_pipe_stop(p);
|
if ((ep = p->ep) != NULL) {
|
nni_mtx_lock(&ep->mtx);
|
nni_list_node_remove(&p->node);
|
ep->ref_cnt--;
|
if (ep->fini && (ep->ref_cnt == 0)) {
|
nni_reap(&ipc_ep_reap_list, ep);
|
}
|
nni_mtx_unlock(&ep->mtx);
|
}
|
nni_aio_fini(&p->rx_aio);
|
nni_aio_fini(&p->tx_aio);
|
nni_aio_fini(&p->neg_aio);
|
nng_stream_free(p->conn);
|
if (p->rx_msg) {
|
nni_msg_free(p->rx_msg);
|
}
|
nni_mtx_fini(&p->mtx);
|
NNI_FREE_STRUCT(p);
|
}
|
|
static void
|
ipc_pipe_reap(ipc_pipe *p)
|
{
|
if (!nni_atomic_flag_test_and_set(&p->reaped)) {
|
if (p->conn != NULL) {
|
nng_stream_close(p->conn);
|
}
|
nni_reap(&ipc_pipe_reap_list, p);
|
}
|
}
|
|
static int
|
ipc_pipe_alloc(ipc_pipe **pipe_p)
|
{
|
ipc_pipe *p;
|
|
if ((p = NNI_ALLOC_STRUCT(p)) == NULL) {
|
return (NNG_ENOMEM);
|
}
|
nni_mtx_init(&p->mtx);
|
nni_aio_init(&p->tx_aio, ipc_pipe_send_cb, p);
|
nni_aio_init(&p->rx_aio, ipc_pipe_recv_cb, p);
|
nni_aio_init(&p->neg_aio, ipc_pipe_neg_cb, p);
|
nni_aio_list_init(&p->send_q);
|
nni_aio_list_init(&p->recv_q);
|
nni_atomic_flag_reset(&p->reaped);
|
*pipe_p = p;
|
return (0);
|
}
|
|
static void
|
ipc_ep_match(ipc_ep *ep)
|
{
|
nni_aio * aio;
|
ipc_pipe *p;
|
|
if (((aio = ep->user_aio) == NULL) ||
|
((p = nni_list_first(&ep->wait_pipes)) == NULL)) {
|
return;
|
}
|
nni_list_remove(&ep->wait_pipes, p);
|
nni_list_append(&ep->busy_pipes, p);
|
ep->user_aio = NULL;
|
p->rcv_max = ep->rcv_max;
|
nni_aio_set_output(aio, 0, p);
|
nni_aio_finish(aio, 0, 0);
|
}
|
|
static void
|
ipc_pipe_neg_cb(void *arg)
|
{
|
ipc_pipe *p = arg;
|
ipc_ep * ep = p->ep;
|
nni_aio * aio = &p->neg_aio;
|
nni_aio * user_aio;
|
int rv;
|
|
nni_mtx_lock(&ep->mtx);
|
if ((rv = nni_aio_result(aio)) != 0) {
|
goto error;
|
}
|
|
// We start transmitting before we receive.
|
if (p->got_tx_head < p->want_tx_head) {
|
p->got_tx_head += nni_aio_count(aio);
|
} else if (p->got_rx_head < p->want_rx_head) {
|
p->got_rx_head += nni_aio_count(aio);
|
}
|
if (p->got_tx_head < p->want_tx_head) {
|
nni_iov iov;
|
iov.iov_len = p->want_tx_head - p->got_tx_head;
|
iov.iov_buf = &p->tx_head[p->got_tx_head];
|
nni_aio_set_iov(aio, 1, &iov);
|
// send it down...
|
nng_stream_send(p->conn, aio);
|
nni_mtx_unlock(&p->ep->mtx);
|
return;
|
}
|
if (p->got_rx_head < p->want_rx_head) {
|
nni_iov iov;
|
iov.iov_len = p->want_rx_head - p->got_rx_head;
|
iov.iov_buf = &p->rx_head[p->got_rx_head];
|
nni_aio_set_iov(aio, 1, &iov);
|
nng_stream_recv(p->conn, aio);
|
nni_mtx_unlock(&p->ep->mtx);
|
return;
|
}
|
// We have both sent and received the headers. Lets check the
|
// receive side header.
|
if ((p->rx_head[0] != 0) || (p->rx_head[1] != 'S') ||
|
(p->rx_head[2] != 'P') || (p->rx_head[3] != 0) ||
|
(p->rx_head[6] != 0) || (p->rx_head[7] != 0)) {
|
rv = NNG_EPROTO;
|
goto error;
|
}
|
|
NNI_GET16(&p->rx_head[4], p->peer);
|
|
// We are all ready now. We put this in the wait list, and
|
// then try to run the matcher.
|
nni_list_remove(&ep->neg_pipes, p);
|
nni_list_append(&ep->wait_pipes, p);
|
|
ipc_ep_match(ep);
|
nni_mtx_unlock(&ep->mtx);
|
return;
|
|
error:
|
|
nng_stream_close(p->conn);
|
// If we are waiting to negotiate on a client side, then a failure
|
// here has to be passed to the user app.
|
if ((user_aio = ep->user_aio) != NULL) {
|
ep->user_aio = NULL;
|
nni_aio_finish_error(user_aio, rv);
|
}
|
nni_mtx_unlock(&ep->mtx);
|
ipc_pipe_reap(p);
|
}
|
|
static void
|
ipc_pipe_send_cb(void *arg)
|
{
|
ipc_pipe *p = arg;
|
int rv;
|
nni_aio * aio;
|
size_t n;
|
nni_msg * msg;
|
nni_aio * tx_aio = &p->tx_aio;
|
|
nni_mtx_lock(&p->mtx);
|
if ((rv = nni_aio_result(tx_aio)) != 0) {
|
nni_pipe_bump_error(p->pipe, rv);
|
// Intentionally we do not queue up another transfer.
|
// There's an excellent chance that the pipe is no longer
|
// usable, with a partial transfer.
|
// The protocol should see this error, and close the
|
// pipe itself, we hope.
|
|
while ((aio = nni_list_first(&p->send_q)) != NULL) {
|
nni_aio_list_remove(aio);
|
nni_aio_finish_error(aio, rv);
|
}
|
nni_mtx_unlock(&p->mtx);
|
return;
|
}
|
|
n = nni_aio_count(tx_aio);
|
nni_aio_iov_advance(tx_aio, n);
|
if (nni_aio_iov_count(tx_aio) != 0) {
|
nng_stream_send(p->conn, tx_aio);
|
nni_mtx_unlock(&p->mtx);
|
return;
|
}
|
|
aio = nni_list_first(&p->send_q);
|
nni_aio_list_remove(aio);
|
ipc_pipe_send_start(p);
|
|
msg = nni_aio_get_msg(aio);
|
n = nni_msg_len(msg);
|
nni_pipe_bump_tx(p->pipe, n);
|
nni_mtx_unlock(&p->mtx);
|
|
nni_aio_set_msg(aio, NULL);
|
nni_msg_free(msg);
|
nni_aio_finish_sync(aio, 0, n);
|
}
|
|
static void
|
ipc_pipe_recv_cb(void *arg)
|
{
|
ipc_pipe *p = arg;
|
nni_aio * aio;
|
int rv;
|
size_t n;
|
nni_msg * msg;
|
nni_aio * rx_aio = &p->rx_aio;
|
|
nni_mtx_lock(&p->mtx);
|
|
if ((rv = nni_aio_result(rx_aio)) != 0) {
|
// Error on receive. This has to cause an error back
|
// to the user. Also, if we had allocated an rx_msg, lets
|
// toss it.
|
goto error;
|
}
|
|
n = nni_aio_count(rx_aio);
|
nni_aio_iov_advance(rx_aio, n);
|
if (nni_aio_iov_count(rx_aio) != 0) {
|
// Was this a partial read? If so then resubmit for the rest.
|
nng_stream_recv(p->conn, rx_aio);
|
nni_mtx_unlock(&p->mtx);
|
return;
|
}
|
|
// If we don't have a message yet, we were reading the message
|
// header, which is just the length. This tells us the size of the
|
// message to allocate and how much more to expect.
|
if (p->rx_msg == NULL) {
|
uint64_t len;
|
|
// Check to make sure we got msg type 1.
|
if (p->rx_head[0] != 1) {
|
rv = NNG_EPROTO;
|
goto error;
|
}
|
|
// We should have gotten a message header.
|
NNI_GET64(p->rx_head + 1, len);
|
|
// Make sure the message payload is not too big. If it is
|
// the caller will shut down the pipe.
|
if ((len > p->rcv_max) && (p->rcv_max > 0)) {
|
rv = NNG_EMSGSIZE;
|
goto error;
|
}
|
|
// Note that all IO on this pipe is blocked behind this
|
// allocation. We could possibly look at using a separate
|
// lock for the read side in the future, so that we allow
|
// transmits to proceed normally. In practice this is
|
// unlikely to be much of an issue though.
|
if ((rv = nni_msg_alloc(&p->rx_msg, (size_t) len)) != 0) {
|
goto error;
|
}
|
|
if (len != 0) {
|
nni_iov iov;
|
// Submit the rest of the data for a read -- we want to
|
// read the entire message now.
|
iov.iov_buf = nni_msg_body(p->rx_msg);
|
iov.iov_len = (size_t) len;
|
|
nni_aio_set_iov(rx_aio, 1, &iov);
|
nng_stream_recv(p->conn, rx_aio);
|
nni_mtx_unlock(&p->mtx);
|
return;
|
}
|
}
|
|
// Otherwise we got a message read completely. Let the user know the
|
// good news.
|
|
aio = nni_list_first(&p->recv_q);
|
nni_aio_list_remove(aio);
|
msg = p->rx_msg;
|
p->rx_msg = NULL;
|
n = nni_msg_len(msg);
|
nni_pipe_bump_rx(p->pipe, n);
|
ipc_pipe_recv_start(p);
|
nni_mtx_unlock(&p->mtx);
|
|
nni_aio_set_msg(aio, msg);
|
nni_aio_finish_sync(aio, 0, n);
|
return;
|
|
error:
|
while ((aio = nni_list_first(&p->recv_q)) != NULL) {
|
nni_aio_list_remove(aio);
|
nni_aio_finish_error(aio, rv);
|
}
|
msg = p->rx_msg;
|
p->rx_msg = NULL;
|
nni_pipe_bump_error(p->pipe, rv);
|
// Intentionally, we do not queue up another receive.
|
// The protocol should notice this error and close the pipe.
|
nni_mtx_unlock(&p->mtx);
|
|
nni_msg_free(msg);
|
}
|
|
static void
|
ipc_pipe_send_cancel(nni_aio *aio, void *arg, int rv)
|
{
|
ipc_pipe *p = arg;
|
|
nni_mtx_lock(&p->mtx);
|
if (!nni_aio_list_active(aio)) {
|
nni_mtx_unlock(&p->mtx);
|
return;
|
}
|
// If this is being sent, then cancel the pending transfer.
|
// The callback on the tx_aio will cause the user aio to
|
// be canceled too.
|
if (nni_list_first(&p->send_q) == aio) {
|
nni_aio_abort(&p->tx_aio, rv);
|
nni_mtx_unlock(&p->mtx);
|
return;
|
}
|
nni_aio_list_remove(aio);
|
nni_mtx_unlock(&p->mtx);
|
|
nni_aio_finish_error(aio, rv);
|
}
|
|
static void
|
ipc_pipe_send_start(ipc_pipe *p)
|
{
|
nni_aio *aio;
|
nni_msg *msg;
|
int nio;
|
nni_iov iov[3];
|
uint64_t len;
|
|
if (p->closed) {
|
while ((aio = nni_list_first(&p->send_q)) != NULL) {
|
nni_list_remove(&p->send_q, aio);
|
nni_aio_finish_error(aio, NNG_ECLOSED);
|
}
|
return;
|
}
|
if ((aio = nni_list_first(&p->send_q)) == NULL) {
|
return;
|
}
|
|
// This runs to send the message.
|
msg = nni_aio_get_msg(aio);
|
len = nni_msg_len(msg) + nni_msg_header_len(msg);
|
|
p->tx_head[0] = 1; // message type, 1.
|
NNI_PUT64(p->tx_head + 1, len);
|
|
nio = 0;
|
iov[0].iov_buf = p->tx_head;
|
iov[0].iov_len = sizeof(p->tx_head);
|
nio++;
|
if (nni_msg_header_len(msg) > 0) {
|
iov[nio].iov_buf = nni_msg_header(msg);
|
iov[nio].iov_len = nni_msg_header_len(msg);
|
nio++;
|
}
|
if (nni_msg_len(msg) > 0) {
|
iov[nio].iov_buf = nni_msg_body(msg);
|
iov[nio].iov_len = nni_msg_len(msg);
|
nio++;
|
}
|
nni_aio_set_iov(&p->tx_aio, nio, iov);
|
nng_stream_send(p->conn, &p->tx_aio);
|
}
|
|
static void
|
ipc_pipe_send(void *arg, nni_aio *aio)
|
{
|
ipc_pipe *p = arg;
|
int rv;
|
|
if (nni_aio_begin(aio) != 0) {
|
return;
|
}
|
nni_mtx_lock(&p->mtx);
|
if ((rv = nni_aio_schedule(aio, ipc_pipe_send_cancel, p)) != 0) {
|
nni_mtx_unlock(&p->mtx);
|
nni_aio_finish_error(aio, rv);
|
return;
|
}
|
nni_list_append(&p->send_q, aio);
|
if (nni_list_first(&p->send_q) == aio) {
|
ipc_pipe_send_start(p);
|
}
|
nni_mtx_unlock(&p->mtx);
|
}
|
|
static void
|
ipc_pipe_recv_cancel(nni_aio *aio, void *arg, int rv)
|
{
|
ipc_pipe *p = arg;
|
|
nni_mtx_lock(&p->mtx);
|
if (!nni_aio_list_active(aio)) {
|
nni_mtx_unlock(&p->mtx);
|
return;
|
}
|
// If receive in progress, then cancel the pending transfer.
|
// The callback on the rx_aio will cause the user aio to
|
// be canceled too.
|
if (nni_list_first(&p->recv_q) == aio) {
|
nni_aio_abort(&p->rx_aio, rv);
|
nni_mtx_unlock(&p->mtx);
|
return;
|
}
|
nni_aio_list_remove(aio);
|
nni_mtx_unlock(&p->mtx);
|
nni_aio_finish_error(aio, rv);
|
}
|
|
static void
|
ipc_pipe_recv_start(ipc_pipe *p)
|
{
|
nni_iov iov;
|
NNI_ASSERT(p->rx_msg == NULL);
|
|
if (p->closed) {
|
nni_aio *aio;
|
while ((aio = nni_list_first(&p->recv_q)) != NULL) {
|
nni_list_remove(&p->recv_q, aio);
|
nni_aio_finish_error(aio, NNG_ECLOSED);
|
}
|
return;
|
}
|
if (nni_list_empty(&p->recv_q)) {
|
return;
|
}
|
|
// Schedule a read of the IPC header.
|
iov.iov_buf = p->rx_head;
|
iov.iov_len = sizeof(p->rx_head);
|
nni_aio_set_iov(&p->rx_aio, 1, &iov);
|
|
nng_stream_recv(p->conn, &p->rx_aio);
|
}
|
|
static void
|
ipc_pipe_recv(void *arg, nni_aio *aio)
|
{
|
ipc_pipe *p = arg;
|
int rv;
|
|
if (nni_aio_begin(aio) != 0) {
|
return;
|
}
|
nni_mtx_lock(&p->mtx);
|
if (p->closed) {
|
nni_mtx_unlock(&p->mtx);
|
nni_aio_finish_error(aio, NNG_ECLOSED);
|
return;
|
}
|
if ((rv = nni_aio_schedule(aio, ipc_pipe_recv_cancel, p)) != 0) {
|
nni_mtx_unlock(&p->mtx);
|
nni_aio_finish_error(aio, rv);
|
return;
|
}
|
|
nni_list_append(&p->recv_q, aio);
|
if (nni_list_first(&p->recv_q) == aio) {
|
ipc_pipe_recv_start(p);
|
}
|
nni_mtx_unlock(&p->mtx);
|
}
|
|
static uint16_t
|
ipc_pipe_peer(void *arg)
|
{
|
ipc_pipe *p = arg;
|
|
return (p->peer);
|
}
|
|
static void
|
ipc_pipe_start(ipc_pipe *p, nng_stream *conn, ipc_ep *ep)
|
{
|
nni_iov iov;
|
|
ep->ref_cnt++;
|
|
p->conn = conn;
|
p->ep = ep;
|
p->proto = ep->proto;
|
|
p->tx_head[0] = 0;
|
p->tx_head[1] = 'S';
|
p->tx_head[2] = 'P';
|
p->tx_head[3] = 0;
|
NNI_PUT16(&p->tx_head[4], p->proto);
|
NNI_PUT16(&p->tx_head[6], 0);
|
|
p->got_rx_head = 0;
|
p->got_tx_head = 0;
|
p->want_rx_head = 8;
|
p->want_tx_head = 8;
|
iov.iov_len = 8;
|
iov.iov_buf = &p->tx_head[0];
|
nni_aio_set_iov(&p->neg_aio, 1, &iov);
|
nni_list_append(&ep->neg_pipes, p);
|
|
nni_aio_set_timeout(&p->neg_aio, 10000); // 10 sec timeout to negotiate
|
nng_stream_send(p->conn, &p->neg_aio);
|
}
|
|
static void
|
ipc_ep_close(void *arg)
|
{
|
ipc_ep * ep = arg;
|
ipc_pipe *p;
|
|
nni_mtx_lock(&ep->mtx);
|
ep->closed = true;
|
nni_aio_close(ep->time_aio);
|
if (ep->dialer != NULL) {
|
nng_stream_dialer_close(ep->dialer);
|
}
|
if (ep->listener != NULL) {
|
nng_stream_listener_close(ep->listener);
|
}
|
NNI_LIST_FOREACH (&ep->neg_pipes, p) {
|
ipc_pipe_close(p);
|
}
|
NNI_LIST_FOREACH (&ep->wait_pipes, p) {
|
ipc_pipe_close(p);
|
}
|
NNI_LIST_FOREACH (&ep->busy_pipes, p) {
|
ipc_pipe_close(p);
|
}
|
if (ep->user_aio != NULL) {
|
nni_aio_finish_error(ep->user_aio, NNG_ECLOSED);
|
ep->user_aio = NULL;
|
}
|
nni_mtx_unlock(&ep->mtx);
|
}
|
|
static void
|
ipc_ep_fini(void *arg)
|
{
|
ipc_ep *ep = arg;
|
|
nni_mtx_lock(&ep->mtx);
|
ep->fini = true;
|
if (ep->ref_cnt != 0) {
|
nni_mtx_unlock(&ep->mtx);
|
return;
|
}
|
nni_mtx_unlock(&ep->mtx);
|
nni_aio_stop(ep->time_aio);
|
nni_aio_stop(ep->conn_aio);
|
nng_stream_dialer_free(ep->dialer);
|
nng_stream_listener_free(ep->listener);
|
nni_aio_free(ep->time_aio);
|
nni_aio_free(ep->conn_aio);
|
nni_mtx_fini(&ep->mtx);
|
NNI_FREE_STRUCT(ep);
|
}
|
|
static void
|
ipc_ep_timer_cb(void *arg)
|
{
|
ipc_ep *ep = arg;
|
nni_mtx_lock(&ep->mtx);
|
if (nni_aio_result(ep->time_aio) == 0) {
|
nng_stream_listener_accept(ep->listener, ep->conn_aio);
|
}
|
nni_mtx_unlock(&ep->mtx);
|
}
|
|
static void
|
ipc_ep_accept_cb(void *arg)
|
{
|
ipc_ep * ep = arg;
|
nni_aio * aio = ep->conn_aio;
|
ipc_pipe * p;
|
int rv;
|
nng_stream *conn;
|
|
nni_mtx_lock(&ep->mtx);
|
if ((rv = nni_aio_result(aio)) != 0) {
|
goto error;
|
}
|
|
conn = nni_aio_get_output(aio, 0);
|
if ((rv = ipc_pipe_alloc(&p)) != 0) {
|
nng_stream_free(conn);
|
goto error;
|
}
|
if (ep->closed) {
|
ipc_pipe_fini(p);
|
nng_stream_free(conn);
|
rv = NNG_ECLOSED;
|
goto error;
|
}
|
ipc_pipe_start(p, conn, ep);
|
nng_stream_listener_accept(ep->listener, ep->conn_aio);
|
nni_mtx_unlock(&ep->mtx);
|
return;
|
|
error:
|
// When an error here occurs, let's send a notice up to the consumer.
|
// That way it can be reported properly.
|
if ((aio = ep->user_aio) != NULL) {
|
ep->user_aio = NULL;
|
nni_aio_finish_error(aio, rv);
|
}
|
|
switch (rv) {
|
|
case NNG_ENOMEM:
|
case NNG_ENOFILES:
|
nng_sleep_aio(10, ep->time_aio);
|
break;
|
|
default:
|
if (!ep->closed) {
|
nng_stream_listener_accept(ep->listener, ep->conn_aio);
|
}
|
break;
|
}
|
nni_mtx_unlock(&ep->mtx);
|
}
|
|
static void
|
ipc_ep_dial_cb(void *arg)
|
{
|
ipc_ep * ep = arg;
|
nni_aio * aio = ep->conn_aio;
|
ipc_pipe * p;
|
int rv;
|
nng_stream *conn;
|
|
if ((rv = nni_aio_result(aio)) != 0) {
|
goto error;
|
}
|
|
conn = nni_aio_get_output(aio, 0);
|
if ((rv = ipc_pipe_alloc(&p)) != 0) {
|
nng_stream_free(conn);
|
goto error;
|
}
|
nni_mtx_lock(&ep->mtx);
|
if (ep->closed) {
|
ipc_pipe_fini(p);
|
nng_stream_free(conn);
|
rv = NNG_ECLOSED;
|
nni_mtx_unlock(&ep->mtx);
|
goto error;
|
} else {
|
ipc_pipe_start(p, conn, ep);
|
}
|
nni_mtx_unlock(&ep->mtx);
|
return;
|
|
error:
|
// Error connecting. We need to pass this straight back
|
// to the user.
|
nni_mtx_lock(&ep->mtx);
|
if ((aio = ep->user_aio) != NULL) {
|
ep->user_aio = NULL;
|
nni_aio_finish_error(aio, rv);
|
}
|
nni_mtx_unlock(&ep->mtx);
|
}
|
|
static int
|
ipc_ep_init(ipc_ep **epp, nni_sock *sock)
|
{
|
ipc_ep *ep;
|
|
if ((ep = NNI_ALLOC_STRUCT(ep)) == NULL) {
|
return (NNG_ENOMEM);
|
}
|
nni_mtx_init(&ep->mtx);
|
NNI_LIST_INIT(&ep->busy_pipes, ipc_pipe, node);
|
NNI_LIST_INIT(&ep->wait_pipes, ipc_pipe, node);
|
NNI_LIST_INIT(&ep->neg_pipes, ipc_pipe, node);
|
|
ep->proto = nni_sock_proto_id(sock);
|
|
#ifdef NNG_ENABLE_STATS
|
static const nni_stat_info rcv_max_info = {
|
.si_name = "rcv_max",
|
.si_desc = "maximum receive size",
|
.si_type = NNG_STAT_LEVEL,
|
.si_unit = NNG_UNIT_BYTES,
|
.si_atomic = true,
|
};
|
nni_stat_init(&ep->st_rcv_max, &rcv_max_info);
|
#endif
|
|
*epp = ep;
|
return (0);
|
}
|
|
static int
|
ipc_ep_init_dialer(void **dp, nni_url *url, nni_dialer *dialer)
|
{
|
ipc_ep * ep;
|
int rv;
|
nni_sock *sock = nni_dialer_sock(dialer);
|
|
if ((rv = ipc_ep_init(&ep, sock)) != 0) {
|
return (rv);
|
}
|
|
if (((rv = nni_aio_alloc(&ep->conn_aio, ipc_ep_dial_cb, ep)) != 0) ||
|
((rv = nng_stream_dialer_alloc_url(&ep->dialer, url)) != 0)) {
|
ipc_ep_fini(ep);
|
return (rv);
|
}
|
#ifdef NNG_ENABLE_STATS
|
nni_dialer_add_stat(dialer, &ep->st_rcv_max);
|
#endif
|
*dp = ep;
|
return (0);
|
}
|
|
static int
|
ipc_ep_init_listener(void **dp, nni_url *url, nni_listener *listener)
|
{
|
ipc_ep * ep;
|
int rv;
|
nni_sock *sock = nni_listener_sock(listener);
|
|
if ((rv = ipc_ep_init(&ep, sock)) != 0) {
|
return (rv);
|
}
|
|
if (((rv = nni_aio_alloc(&ep->conn_aio, ipc_ep_accept_cb, ep)) != 0) ||
|
((rv = nni_aio_alloc(&ep->time_aio, ipc_ep_timer_cb, ep)) != 0) ||
|
((rv = nng_stream_listener_alloc_url(&ep->listener, url)) != 0)) {
|
ipc_ep_fini(ep);
|
return (rv);
|
}
|
|
#ifdef NNG_ENABLE_STATS
|
nni_listener_add_stat(listener, &ep->st_rcv_max);
|
#endif
|
*dp = ep;
|
return (0);
|
}
|
|
static void
|
ipc_ep_cancel(nni_aio *aio, void *arg, int rv)
|
{
|
ipc_ep *ep = arg;
|
nni_mtx_lock(&ep->mtx);
|
if (aio == ep->user_aio) {
|
ep->user_aio = NULL;
|
nni_aio_finish_error(aio, rv);
|
}
|
nni_mtx_unlock(&ep->mtx);
|
}
|
|
static void
|
ipc_ep_connect(void *arg, nni_aio *aio)
|
{
|
ipc_ep *ep = arg;
|
int rv;
|
|
if (nni_aio_begin(aio) != 0) {
|
return;
|
}
|
nni_mtx_lock(&ep->mtx);
|
if (ep->closed) {
|
nni_mtx_unlock(&ep->mtx);
|
nni_aio_finish_error(aio, NNG_ECLOSED);
|
return;
|
}
|
if (ep->user_aio != NULL) {
|
nni_mtx_unlock(&ep->mtx);
|
nni_aio_finish_error(aio, NNG_EBUSY);
|
return;
|
}
|
|
if ((rv = nni_aio_schedule(aio, ipc_ep_cancel, ep)) != 0) {
|
nni_mtx_unlock(&ep->mtx);
|
nni_aio_finish_error(aio, rv);
|
return;
|
}
|
ep->user_aio = aio;
|
nng_stream_dialer_dial(ep->dialer, ep->conn_aio);
|
nni_mtx_unlock(&ep->mtx);
|
}
|
|
static int
|
ipc_ep_get_recv_max_sz(void *arg, void *v, size_t *szp, nni_type t)
|
{
|
ipc_ep *ep = arg;
|
int rv;
|
nni_mtx_lock(&ep->mtx);
|
rv = nni_copyout_size(ep->rcv_max, v, szp, t);
|
nni_mtx_unlock(&ep->mtx);
|
return (rv);
|
}
|
|
static int
|
ipc_ep_set_recv_max_sz(void *arg, const void *v, size_t sz, nni_type t)
|
{
|
ipc_ep *ep = arg;
|
size_t val;
|
int rv;
|
if ((rv = nni_copyin_size(&val, v, sz, 0, NNI_MAXSZ, t)) == 0) {
|
|
ipc_pipe *p;
|
nni_mtx_lock(&ep->mtx);
|
ep->rcv_max = val;
|
NNI_LIST_FOREACH (&ep->wait_pipes, p) {
|
p->rcv_max = val;
|
}
|
NNI_LIST_FOREACH (&ep->neg_pipes, p) {
|
p->rcv_max = val;
|
}
|
NNI_LIST_FOREACH (&ep->busy_pipes, p) {
|
p->rcv_max = val;
|
}
|
nni_mtx_unlock(&ep->mtx);
|
#ifdef NNG_ENABLE_STATS
|
nni_stat_set_value(&ep->st_rcv_max, val);
|
#endif
|
}
|
return (rv);
|
}
|
|
static int
|
ipc_ep_bind(void *arg)
|
{
|
ipc_ep *ep = arg;
|
int rv;
|
|
nni_mtx_lock(&ep->mtx);
|
rv = nng_stream_listener_listen(ep->listener);
|
nni_mtx_unlock(&ep->mtx);
|
return (rv);
|
}
|
|
static void
|
ipc_ep_accept(void *arg, nni_aio *aio)
|
{
|
ipc_ep *ep = arg;
|
int rv;
|
|
if (nni_aio_begin(aio) != 0) {
|
return;
|
}
|
nni_mtx_lock(&ep->mtx);
|
if (ep->closed) {
|
nni_aio_finish_error(aio, NNG_ECLOSED);
|
nni_mtx_unlock(&ep->mtx);
|
return;
|
}
|
if (ep->user_aio != NULL) {
|
nni_aio_finish_error(aio, NNG_EBUSY);
|
nni_mtx_unlock(&ep->mtx);
|
return;
|
}
|
if ((rv = nni_aio_schedule(aio, ipc_ep_cancel, ep)) != 0) {
|
nni_mtx_unlock(&ep->mtx);
|
nni_aio_finish_error(aio, rv);
|
return;
|
}
|
ep->user_aio = aio;
|
if (!ep->started) {
|
ep->started = true;
|
nng_stream_listener_accept(ep->listener, ep->conn_aio);
|
} else {
|
ipc_ep_match(ep);
|
}
|
|
nni_mtx_unlock(&ep->mtx);
|
}
|
|
static int
|
ipc_pipe_get(void *arg, const char *name, void *buf, size_t *szp, nni_type t)
|
{
|
ipc_pipe *p = arg;
|
|
return (nni_stream_get(p->conn, name, buf, szp, t));
|
}
|
|
static nni_sp_pipe_ops ipc_tran_pipe_ops = {
|
.p_init = ipc_pipe_init,
|
.p_fini = ipc_pipe_fini,
|
.p_stop = ipc_pipe_stop,
|
.p_send = ipc_pipe_send,
|
.p_recv = ipc_pipe_recv,
|
.p_close = ipc_pipe_close,
|
.p_peer = ipc_pipe_peer,
|
.p_getopt = ipc_pipe_get,
|
};
|
|
static const nni_option ipc_ep_options[] = {
|
{
|
.o_name = NNG_OPT_RECVMAXSZ,
|
.o_get = ipc_ep_get_recv_max_sz,
|
.o_set = ipc_ep_set_recv_max_sz,
|
},
|
// terminate list
|
{
|
.o_name = NULL,
|
},
|
};
|
|
static int
|
ipc_dialer_get(void *arg, const char *name, void *buf, size_t *szp, nni_type t)
|
{
|
ipc_ep *ep = arg;
|
int rv;
|
|
rv = nni_getopt(ipc_ep_options, name, ep, buf, szp, t);
|
if (rv == NNG_ENOTSUP) {
|
rv = nni_stream_dialer_get(ep->dialer, name, buf, szp, t);
|
}
|
return (rv);
|
}
|
|
static int
|
ipc_dialer_set(
|
void *arg, const char *name, const void *buf, size_t sz, nni_type t)
|
{
|
ipc_ep *ep = arg;
|
int rv;
|
|
rv = nni_setopt(ipc_ep_options, name, ep, buf, sz, t);
|
if (rv == NNG_ENOTSUP) {
|
rv = nni_stream_dialer_set(ep->dialer, name, buf, sz, t);
|
}
|
return (rv);
|
}
|
|
static int
|
ipc_listener_get(
|
void *arg, const char *name, void *buf, size_t *szp, nni_type t)
|
{
|
ipc_ep *ep = arg;
|
int rv;
|
|
rv = nni_getopt(ipc_ep_options, name, ep, buf, szp, t);
|
if (rv == NNG_ENOTSUP) {
|
rv = nni_stream_listener_get(ep->listener, name, buf, szp, t);
|
}
|
return (rv);
|
}
|
|
static int
|
ipc_listener_set(
|
void *arg, const char *name, const void *buf, size_t sz, nni_type t)
|
{
|
ipc_ep *ep = arg;
|
int rv;
|
|
rv = nni_setopt(ipc_ep_options, name, ep, buf, sz, t);
|
if (rv == NNG_ENOTSUP) {
|
rv = nni_stream_listener_set(ep->listener, name, buf, sz, t);
|
}
|
return (rv);
|
}
|
|
static nni_sp_dialer_ops ipc_dialer_ops = {
|
.d_init = ipc_ep_init_dialer,
|
.d_fini = ipc_ep_fini,
|
.d_connect = ipc_ep_connect,
|
.d_close = ipc_ep_close,
|
.d_getopt = ipc_dialer_get,
|
.d_setopt = ipc_dialer_set,
|
};
|
|
static nni_sp_listener_ops ipc_listener_ops = {
|
.l_init = ipc_ep_init_listener,
|
.l_fini = ipc_ep_fini,
|
.l_bind = ipc_ep_bind,
|
.l_accept = ipc_ep_accept,
|
.l_close = ipc_ep_close,
|
.l_getopt = ipc_listener_get,
|
.l_setopt = ipc_listener_set,
|
};
|
|
static nni_sp_tran ipc_tran = {
|
.tran_scheme = "ipc",
|
.tran_dialer = &ipc_dialer_ops,
|
.tran_listener = &ipc_listener_ops,
|
.tran_pipe = &ipc_tran_pipe_ops,
|
.tran_init = ipc_tran_init,
|
.tran_fini = ipc_tran_fini,
|
};
|
|
#ifdef NNG_PLATFORM_POSIX
|
static nni_sp_tran ipc_tran_unix = {
|
.tran_scheme = "unix",
|
.tran_dialer = &ipc_dialer_ops,
|
.tran_listener = &ipc_listener_ops,
|
.tran_pipe = &ipc_tran_pipe_ops,
|
.tran_init = ipc_tran_init,
|
.tran_fini = ipc_tran_fini,
|
};
|
#endif
|
|
#ifdef NNG_HAVE_ABSTRACT_SOCKETS
|
static nni_sp_tran ipc_tran_abstract = {
|
.tran_scheme = "abstract",
|
.tran_dialer = &ipc_dialer_ops,
|
.tran_listener = &ipc_listener_ops,
|
.tran_pipe = &ipc_tran_pipe_ops,
|
.tran_init = ipc_tran_init,
|
.tran_fini = ipc_tran_fini,
|
};
|
#endif
|
|
|
#ifndef NNG_ELIDE_DEPRECATED
|
int
|
nng_ipc_register(void)
|
{
|
return (nni_init());
|
}
|
#endif
|
|
void
|
nni_sp_ipc_register(void)
|
{
|
nni_sp_tran_register(&ipc_tran);
|
#ifdef NNG_PLATFORM_POSIX
|
nni_sp_tran_register(&ipc_tran_unix);
|
#endif
|
#ifdef NNG_HAVE_ABSTRACT_SOCKETS
|
nni_sp_tran_register(&ipc_tran_abstract);
|
#endif
|
}
|