1.?HPC基本配置方法(本方法不適用于SIwave)
軟件安裝完成后,用戶就可以使用軟件進(jìn)行建模、仿真計(jì)算了。但是,若要充分調(diào)用計(jì)算機(jī)的資源,還需對(duì)HPC并行計(jì)算進(jìn)行一定的配置。
1.1.?HPC的類型
HPC license分為兩種,HPC與HPC Pack,它們?cè)谲浖械呐渲梅椒?,略有區(qū)別。
1.2.?HPC類型的配置
打開軟件菜單欄,選擇ToolsOptionsHPC and Analysis Options,打開如下對(duì)話框,選中“Options”選項(xiàng)卡,見下圖。
圖中藍(lán)色部分“HPC License”項(xiàng),包含“Pool”、“Pack”與“None”三個(gè)子選項(xiàng)。HPC License對(duì)應(yīng)于“Pool”,HPC Pack對(duì)應(yīng)于“Pack”。選擇與License匹配的類型即可。
1.3.?本地電腦Local的多處理器設(shè)置
1)打開軟件菜單欄,選擇ToolsOptionsHPC and Analysis Options,打開如下對(duì)話框,默認(rèn)為“Configurations”選項(xiàng)卡。
2)點(diǎn)擊“Edit”,打開Local設(shè)置對(duì)話框,設(shè)置CPU總數(shù)與task任務(wù)數(shù)(分的域數(shù))。
設(shè)置的CPU總數(shù)不大于license授權(quán)文件支持的CPU數(shù)量,也不能超出計(jì)算機(jī)硬件的CPU數(shù)量。關(guān)于license授權(quán)文件支持的CPU數(shù)量,請(qǐng)與對(duì)應(yīng)的ANSYS銷售人員確認(rèn)。
1.4.?遠(yuǎn)程調(diào)用服務(wù)器的多處理器設(shè)置(RSM)
1)打開軟件菜單欄,選擇ToolsOptionsHPC and Analysis Options,打開如下對(duì)話框,點(diǎn)擊“Add”。
2)為本次HPC配置取個(gè)名字,通過添加服務(wù)器名稱、IP地址等,將服務(wù)器加入到列表中,并設(shè)置總的CPU數(shù);分的域數(shù)可手動(dòng)添加,也可選擇自動(dòng)設(shè)置選項(xiàng)。
3)通過點(diǎn)擊“Test”,測(cè)試遠(yuǎn)程服務(wù)器的設(shè)置是否成功。
4)點(diǎn)擊“OK”,回到HPC設(shè)置中的“Configurations”選項(xiàng)卡,通過“Make Active”,可以在Local與遠(yuǎn)程調(diào)用服務(wù)器之間進(jìn)行切換。
1.5.?完成HPC的基本配置
通過HPC的基本配置,可以實(shí)現(xiàn)本地電腦與RSM遠(yuǎn)程調(diào)用的多CPU并行運(yùn)算,以及域分解提高求解效率。必須說明的是,RSM遠(yuǎn)程調(diào)用,本地電腦并不參與運(yùn)算求解,而只顯示操作界面。
如果需要實(shí)現(xiàn)多電腦分布式并行運(yùn)算,以求解更大更復(fù)雜的問題,我們需要進(jìn)行高級(jí)HPC設(shè)置,即MPI的配置方法(僅適用于HFSS)。
2.?HPC高級(jí)配置 (僅HFSS) —— Message Passing Interface (MPI)
MPI即消息傳遞接接口,是目前使用最為廣泛的實(shí)現(xiàn)并行計(jì)算的一種方式。在消息傳遞模型中,計(jì)算由一個(gè)或者多個(gè)進(jìn)程構(gòu)成,進(jìn)程間的通信通過調(diào)用庫(kù)函數(shù)發(fā)送和接收消息來完成。通信是一種協(xié)同的行為。
ANSYS EM Suite 16.0包含兩種MPI方式,即IBM Platform MPI與Intel MPI。用戶可以自由選擇,取其中一種即可。
MPI配置前的準(zhǔn)備工作
對(duì)于需要參加分布式并行運(yùn)算的電腦,
1)都必須擁有一個(gè)相同的用戶名以及相同的密碼,該用戶屬性必須為管理員賬戶;
2)要確保每一臺(tái)電腦都安裝了相同版本的ANSYS EM 軟件,而且軟件都安裝在相同的目錄下(建議默認(rèn)安裝路徑);
3)各電腦之間是相互連通的,即“ping”命令可以在任意兩臺(tái)電腦間成功執(zhí)行,并完成數(shù)據(jù)的收發(fā)。
2.1.?Intel MPI安裝與配置
2.1.1.?運(yùn)行ANSYS EM Suite安裝包的“autorun.exe”,進(jìn)入安裝界面
2.1.2.?選擇“Install Distributed Simulation Technologies”,打開如下界面
2.1.3.?點(diǎn)擊“Install Intel MPI”,選擇解壓目錄,進(jìn)入MPI安裝界面
2.1.4.?點(diǎn)擊“下一步”,按照默認(rèn)安裝設(shè)置
2.1.5.?最后點(diǎn)擊“完成”
2.1.6.?通過ANSYS EM軟件的安裝目錄找到“wmpiregister.exe“文件,以管理員身份運(yùn)行,打開注冊(cè)對(duì)話框。
具體的文件目錄,可參考如下位置 “C:Program FilesAnsysEMAnsysEM16.0Win64commonfluent_mpimultiportmpiwin64intelbin”。
2.1.7.?輸入域名和多機(jī)共有的用戶名,若多機(jī)同域,域名可省略;另外,注冊(cè)成功后,會(huì)顯示成功提示信息“Password encrypted into the Registry“。
2.1.8.?在所有參加分布式計(jì)算的計(jì)算機(jī)上,重復(fù)步驟5.1.1至5.1.7,完成Intel MPI的配置。
2.2.?IBM Platform MPI 安裝與配置
2.2.1.?運(yùn)行ANSYS EM Suite安裝包的“autorun.exe”,進(jìn)入安裝界面
2.2.2.?選擇“Install Distributed Simulation Technologies”,打開如下界面
2.2.3.?選擇“Install IBM Platform MPI”,進(jìn)入MPI安裝界面
2.2.4.?選擇安裝目錄,默認(rèn)即可
2.2.5.?選擇對(duì)應(yīng)操作系統(tǒng)“for Windows XP/2003/Vista/2008/7”,如下圖
2.2.6.?安裝至下圖時(shí),切記勾選項(xiàng)要全部選中
2.2.7.?默認(rèn)安裝直至最后完成
2.2.8.?開始/運(yùn)行/cmd,打開DOS命令窗口
2.2.9.?利用cd命令,將當(dāng)前路徑切換至如下目錄
C:Program FilesAnsysEMAnsysEM16.0win64commonfluent_mpimultiportmpi
win64pcmpibin(軟件默認(rèn)安裝情況下)
2.2.10.?運(yùn)行命令“mpidiag –s <你的計(jì)算機(jī)名> -at -cache”,注冊(cè)密碼
命令是將用戶本機(jī)(用于界面操作與并行設(shè)置的本地電腦,控制并行運(yùn)算)的信息添加至MPI信息中。
具體操作,見下圖示例。其中“beigcao”為本地用戶的個(gè)人PC,注冊(cè)的密碼為多機(jī)共有用戶名對(duì)應(yīng)的密碼。注冊(cè)成功后會(huì)返回一條信息,并給出共有的用戶名“gcao”。
2.2.11.?重復(fù)步驟5.2.1至5.2.10,在每一臺(tái)參加運(yùn)算的電腦上配置一次(除計(jì)算機(jī)名外,與圖中配置完全一致),以實(shí)現(xiàn)最終的多機(jī)并行。
2.2.12.?完成IBM Platform MPI的配置。
2.3.?CPU資源配置
首先,獲取所有參加并行計(jì)算的電腦名稱與CPU數(shù)量,找開HFSS中的多處理器設(shè)置選項(xiàng)卡。具體操作請(qǐng)參照步驟4.4。
其次,添加各個(gè)電腦名稱,并配置每個(gè)電腦的CPU總數(shù)與分的域數(shù)。
最后,本地電腦應(yīng)作為主節(jié)點(diǎn),位置應(yīng)在最前方。
手動(dòng)方式與自動(dòng)方式的兩種配置結(jié)果,可參照下圖。(圖中為兩臺(tái)電腦并行計(jì)算,Local與beitech01)
2.4.?Profile中查看多機(jī)并行運(yùn)算的過程
打開一個(gè)工程文件,將求解器由默認(rèn)的“Direct Solver”更改為“Domain Decomposition”,即域分解法,進(jìn)行仿真計(jì)算。多機(jī)并行可在Profile中查看。
2.5.?MPI配置完成
當(dāng)仿真中看到步驟5.4的結(jié)果時(shí),就說明MPI配置成功。
需要注意的是,步驟5.4中而我們看到的有5個(gè)域,而其實(shí)共有6個(gè)域。這是因?yàn)樽鳛橹鞴?jié)點(diǎn)的本地電腦Beitech04,其中一個(gè)域用來進(jìn)行整體仿真的控制,即作了頭節(jié)點(diǎn)。
MPI配置成功之后,用戶可根據(jù)自己仿真資源消耗的情況,自由選擇由幾臺(tái)電腦并行計(jì)算;本地電腦也可只操作而不參加并行運(yùn)算等。