glise 发表于 2005-7-21 17:51

[讨论]计算出现网格负密度的理论根源

商用软件计算中,经常会碰到迭代计算出现负密度的情况,导致计算过程自动跳出!~~~~<BR><BR>一般解决这个方法是通过减小时间步长,减少压力松驰因子,增加收敛允许公差等手段来消除!~~~<BR><BR>其中最住要的是网格的优劣!~~~~瞬态中减少时间步长就是减少一个时间步长内网格的畸变程度!~~~<BR><BR>当遇到一些几何模型比较复杂的情况时,划分的网格,难免质量比较差,面积率,内部角都有很多不合格.<BR><BR>我想了解一下出现负密度这种情况,单单来至网格的影响有哪些(不考虑边界条件的设定因素)?其理论根源是什么?<BR><BR>希望能与大家一同探讨!~~~~<BR>

wangjiaqi4 发表于 2005-8-3 09:01

<P>同意讨论,我也不懂,希望dx能给点观点。</P>

zhjberry 发表于 2005-11-4 16:17

我认为这仅仅是因为数值计算中由于离散才出现的问题。因为离散,就算在离散节点上的结果相当准确,在时间步内的细节还是无法预料的。在时间导数或者梯度很大的地方,就会出现一些奇怪的数值现象。比如在下一个时间步,一些节点就进入了另外的网格内部。这时候,可能只有靠减小时间步和增加网格密度来消除这些数值奇异现象。
页: [1]
查看完整版本: [讨论]计算出现网格负密度的理论根源