<div dir="ltr"><div>I repeated the tests. (Of course, I have thousands of lines like these. I just got a few that seemed to be representative).<br><br></div><div>These are the results:<br></div><div><div><div><br>
<div><div><div>TDP -
ndncatchunks -d fixed /cesar 



--pipeline-type fixed<br>All segments have been received.<br>Time elapsed: 942.802 milliseconds<br>Total # of segments received: 954<br>Total size: 4194.3kB<br>Goodput: 35.590116 Mbit/s<br><br></div>TcP - 
ndncatchunks -d fixed /cesar

<br>All segments have been received.<br>Time elapsed: 590.845 milliseconds<br>Total # of segments received: 954<br>Total size: 4194.3kB<br>Goodput: 56.790550 Mbit/s<br>Total # of lost/retransmitted segments: 168 (caused 0 window decreases)<br>Packet loss rate: 14.9866%<br>Total # of received congestion marks: 2<br>RTT min/avg/max = 0.857/90.039/285.858 ms<br><br></div>UDP -
ndncatchunks -d fixed /cesar 








--pipeline-type fixed

<br>All segments have been received.<br>Time elapsed: 922.561 milliseconds<br>Total # of segments received: 954<br>Total size: 4194.3kB<br>Goodput: 36.370948 Mbit/s<br><br></div>UDP - ndncatchunks -d fixed /cesar<br>All segments have been received.<br>Time elapsed: 620.587 milliseconds<br>Total # of segments received: 954<br>Total size: 4194.3kB<br>Goodput: 54.068881 Mbit/s<br>Total # of lost/retransmitted segments: 381 (caused 0 window decreases)<br>Packet loss rate: 28.5607%<br>Total # of received congestion marks: 1<br>RTT min/avg/max = 0.922/32.706/50.670 ms<br><br></div><div>Cheers,<br></div><div>

<br></div></div></div></div><div class="gmail_extra"><br><div class="gmail_quote">2018-04-25 9:17 GMT+02:00 Klaus Schneider <span dir="ltr"><<a href="mailto:klaus@cs.arizona.edu" target="_blank">klaus@cs.arizona.edu</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class=""><br>
<br>
On 25/04/18 00:09, César A. Bernardini wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi Junxiao,<br>
<br>
Thanks for the comments, I have tried running NDN and exchange contents over udp at this time -- with and without the --pipeline-type fixed option. The results were super poor to exchange 1mb file:<br>
<br>
The end-user delay that before I measured at 0.200s with NDN/TCP, now become 0.770 seconds over UDP (and by adding the --pipeline-type fixed it increased to 0.95). I repeated the experiments on different days, but I am still getting this numbers.<br>
<br>
Any idea?<br>
</blockquote>
<br></span>
The fixed pipeline is expected to get worse results than pipeline-aimd, since it's not adjusting to the available link bandwidth.<br>
<br>
Either the pipeline size is too high, then you'll see high delay and many packet drops. Or the pipeline size is too low, the you're not using the fulling bandwidth.<br>
<br>
For you it seems to be the former case. Maybe reduce it with the "--pipeline-size" option. if --pipeline-size=1 is still too high, you might want to add some link delay.<br>
<br>
Best regards,<br>
Klaus<br>
<br>
<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
2018-04-23 16:16 GMT+02:00 Junxiao Shi <<a href="mailto:shijunxiao@email.arizona.edu" target="_blank">shijunxiao@email.arizona.edu</a> <mailto:<a href="mailto:shijunxiao@email.arizona.edu" target="_blank">shijunxiao@email.arizo<wbr>na.edu</a>>>:<span class=""><br>
<br>
    Hi Cesar<br>
<br>
        I kept checking on the example and find out that the problem of<br>
        speed is due to an optimization that happens in the ESXi host.<br>
        The ESXi converts all the traffic into local traffic and<br>
        everything becomes just copies of memory. that explains one of<br>
        the problems I had.<br>
<br>
    That's a trick in hypervisor. It won't happen in a real network<br>
    across devices.<br>
<br>
<br>
        I went a bit further also with the analysis of the NDN traffic<br>
        and I figure out that there are two congestion protocols: TCP +<br>
        the Arizona Univ's provided cogestion protocol. I understand<br>
        that it has been developed because TCP was not optimized for<br>
        ICN. But is this protocol as necessary that is included by<br>
        default for all the ICN users?<br>
<br>
    NDN is not meant to be used over TCP.  Use Ethernet or UDP instead.<br>
<br>
<br>
        Shouldn't we create a patch and enable at compilation time it<br>
        only in case of need?<br>
<br>
    You can disable AIMD congestion control in ndncatchunks at runtime<br>
    with a command line option: --pipeline-type fixed . There's no need<br>
    for re-compiling.<br>
<br>
    Yours, Junxiao<br>
<br>
<br>
</span></blockquote>
</blockquote></div><br></div>