<div dir="ltr">Thank you very much David,<br>I have converted all the dataset in all the machines to pvd. Now it works very very better. I think there will be no problem as &quot;Error: insuficiant memory&quot;.<br><br>     Salman<br>
<br><div class="gmail_quote">2010/3/4 David E DeMarle <span dir="ltr">&lt;<a href="mailto:dave.demarle@kitware.com">dave.demarle@kitware.com</a>&gt;</span><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div class="im">Yep, the reader for legacy vtk format is not parallel compliant.<br>
<br>
In that case what _should_ happen is that each of the n nodes in your<br>
ad-hoc cluster will read the whole file, and then the pipeline will<br>
crop out on each node the other (n-1)/n&#39;th of the cells. So<br>
temporarily the memory consumption will be very high, but most of that<br>
will be freed right away.<br>
<br>
If you can read the file, you could convert it to a parallel compliant<br>
format with paraview by reading it in, then saving the data in either<br>
paraview (pvd), ensight, or exodus format. All of those are better<br>
parallelized and won&#39;t have the temporary memory consumption behavior<br>
of the legacy format.<br>
<br>
</div><div class="im">David E DeMarle<br>
Kitware, Inc.<br>
R&amp;D Engineer<br>
28 Corporate Drive<br>
Clifton Park, NY 12065-8662<br>
Phone: 518-371-3971 x109<br>
<br>
<br>
<br>
</div><div><div></div><div class="h5">On Thu, Mar 4, 2010 at 12:24 PM, Salman SHAHIDI &lt;<a href="mailto:salshahidi@gmail.com">salshahidi@gmail.com</a>&gt; wrote:<br>
&gt; The file format is VTK (filename is MyTest129.vtk).<br>
&gt;<br>
&gt; 2010/3/4 David E DeMarle &lt;<a href="mailto:dave.demarle@kitware.com">dave.demarle@kitware.com</a>&gt;<br>
&gt;&gt;<br>
&gt;&gt; ParaView tries hard NOT to ship data over the network, so every<br>
&gt;&gt; machine potentially has to read the whole file.<br>
&gt;&gt;<br>
&gt;&gt; So, if the file format itself isn&#39;t partitioned into multiple files<br>
&gt;&gt; (in which case you could possibly get by with putting the right sub<br>
&gt;&gt; file on each disk), and unless you have a shared filesystem,<br>
&gt;&gt; replication onto each disk is your only option.<br>
&gt;&gt;<br>
&gt;&gt; Again, which file format are you reading? What is the filename<br>
&gt;&gt; including the extension.<br>
&gt;&gt;<br>
&gt;&gt; David E DeMarle<br>
&gt;&gt; Kitware, Inc.<br>
&gt;&gt; R&amp;D Engineer<br>
&gt;&gt; 28 Corporate Drive<br>
&gt;&gt; Clifton Park, NY 12065-8662<br>
&gt;&gt; Phone: 518-371-3971 x109<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Thu, Mar 4, 2010 at 11:33 AM, Salman SHAHIDI &lt;<a href="mailto:salshahidi@gmail.com">salshahidi@gmail.com</a>&gt;<br>
&gt;&gt; wrote:<br>
&gt;&gt; &gt; Each time i should copy the same data in all the workstations in order<br>
&gt;&gt; &gt; to<br>
&gt;&gt; &gt; use all them. In your opinion is it the good way?<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; 2010/3/4 David E DeMarle &lt;<a href="mailto:dave.demarle@kitware.com">dave.demarle@kitware.com</a>&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; An ad-hoc cluster like you&#39;ve got is fine, as long as you have MPI set<br>
&gt;&gt; &gt;&gt; up on the machines and are running a copy of paraview&#39;s pvserver on it<br>
&gt;&gt; &gt;&gt; that has been compiled to use MPI. (Our binaries do not.)<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; The data type (Unstructured Grid) doesn&#39;t matter, I think all VTK data<br>
&gt;&gt; &gt;&gt; structure types can be split up (aka streamed). It is the file format<br>
&gt;&gt; &gt;&gt; (*.vtk, *.vt?, *.xdmf, *.exo, *.case etc) that determines what reader<br>
&gt;&gt; &gt;&gt; is invoked and thus whether the data will be read in in parallel or<br>
&gt;&gt; &gt;&gt; not.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; David E DeMarle<br>
&gt;&gt; &gt;&gt; Kitware, Inc.<br>
&gt;&gt; &gt;&gt; R&amp;D Engineer<br>
&gt;&gt; &gt;&gt; 28 Corporate Drive<br>
&gt;&gt; &gt;&gt; Clifton Park, NY 12065-8662<br>
&gt;&gt; &gt;&gt; Phone: 518-371-3971 x109<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; On Thu, Mar 4, 2010 at 11:00 AM, Salman SHAHIDI &lt;<a href="mailto:salshahidi@gmail.com">salshahidi@gmail.com</a>&gt;<br>
&gt;&gt; &gt;&gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt; Thank you David,<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; My dataset is of type: &quot;Unstructured Grid&quot;<br>
&gt;&gt; &gt;&gt; &gt; Otherwise, i have 2 other questions:<br>
&gt;&gt; &gt;&gt; &gt; 1) what are the datasets that the readers are able to break up them?<br>
&gt;&gt; &gt;&gt; &gt; 2) I have not a cluster, thus i copied the same dataset in all WS. Is<br>
&gt;&gt; &gt;&gt; &gt; it<br>
&gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt; correct manner to have parallel computations?<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; Faithfully yours,<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;      Salman<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; 2010/3/4 David E DeMarle &lt;<a href="mailto:dave.demarle@kitware.com">dave.demarle@kitware.com</a>&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Which data file format?<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Not all readers are able to break up the data well, in which case<br>
&gt;&gt; &gt;&gt; &gt;&gt; paraview handles it in one of several ways, none of which is ideal.<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; David E DeMarle<br>
&gt;&gt; &gt;&gt; &gt;&gt; Kitware, Inc.<br>
&gt;&gt; &gt;&gt; &gt;&gt; R&amp;D Engineer<br>
&gt;&gt; &gt;&gt; &gt;&gt; 28 Corporate Drive<br>
&gt;&gt; &gt;&gt; &gt;&gt; Clifton Park, NY 12065-8662<br>
&gt;&gt; &gt;&gt; &gt;&gt; Phone: 518-371-3971 x109<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; On Thu, Mar 4, 2010 at 9:36 AM, Salman SHAHIDI<br>
&gt;&gt; &gt;&gt; &gt;&gt; &lt;<a href="mailto:salshahidi@gmail.com">salshahidi@gmail.com</a>&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Hi All,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; I have 8 debian workstation (WS) A,B,C,D,E,F,G, and H with<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; paraview<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; 3.6.1. I<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; have configured all them by ssh without need to passeword. Each WS<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; has 2<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; cores, thus 16 processors are accessible.  In WS A i have a<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; machine<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; file<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; consisting of all the machine names. I have copied the same<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; dataset<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; in<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; all<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; the machines too (I am not sure if this is correct or not). The<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; problem<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; is<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; the memory consumption of ParaView. By 8 WS there is not 8 times<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; memory<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; disponibility. I hoped, when I run on 8 machines, that the memory<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; consumption is 1/8 of the size on each machine, than when I use<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; only<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; one<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; machine. So what is the reason for this? Do I need special<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; configuration<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; to<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; minimize memory consumption?<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Thank you all,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;         Salman<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; ----------------------------------------<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Note:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Command line in the first workstation A:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; mpirun --mca btl_tcp_if_include eth0 -machinefile<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; mymachinefile.txt<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; -np<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; 16<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; /usr/local/bin/pvserver  --use-offscreen-rendering<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Listen on port: 11111<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Waiting for client...<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Client connected.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Then in paraview executed also in WS A i add a localhost that<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; refers<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; to<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; all<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; the 8 servers.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; _______________________________________________<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Powered by <a href="http://www.kitware.com" target="_blank">www.kitware.com</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Visit other Kitware open-source projects at<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; <a href="http://www.kitware.com/opensource/opensource.html" target="_blank">http://www.kitware.com/opensource/opensource.html</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Please keep messages on-topic and check the ParaView Wiki at:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; <a href="http://paraview.org/Wiki/ParaView" target="_blank">http://paraview.org/Wiki/ParaView</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Follow this link to subscribe/unsubscribe:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; <a href="http://www.paraview.org/mailman/listinfo/paraview" target="_blank">http://www.paraview.org/mailman/listinfo/paraview</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;<br>
&gt;<br>
</div></div></blockquote></div><br></div>