(最終更新日 2023.6.29)
(2023.6.29更新: 平日の1ユーザ当たり同時実行ジョブ数を72に緩和しておりましたが、7月より本来の30に戻します)
TSUBAME3における各種制限値の一覧です。想定を大きく上回る混雑や電力需給の逼迫など、その他の要因により変更される場合があります。上限値にかかわらず混雑時は混雑緩和にご協力をお願いいたします。
ジョブの実行
平日(*1) | 週末(*2) | |
---|---|---|
1ユーザあたり同時に実行状態になるジョブ数 | 30ジョブ | 100ジョブ |
1ユーザあたり同時に実行状態となるスロット数(CPUコア数) | 2016スロット | 4032スロット |
1ジョブあたりの最大並列度 | 144(*3) | 144 |
1ジョブあたりの最大実行時間 | 24時間 | 24時間 |
*1:平日: 毎週日曜 9:00 ~ 金曜 16:00 の間に開始するジョブ
*2:週末: 毎週金曜 16:00 ~ 日曜 9:00 の間に開始するジョブ。ただし処理の簡素化のため祝日は考慮しない
*3:実装上の理由により144並列としているが、2016スロットの制限があるためf_nodeでは72並列が最大となることに注意
ノード予約
4-9月の設定値 | 10-3月(繁忙期)の設定値 | |
---|---|---|
予約提供ノード数(全体) | 270ノード | 135ノード |
1予約の最大予約時間 | 168時間(7日間) | 96時間(4日間) |
1グループが同時に確保できる予約枠の合計 | 12960ノード時 | 6480ノード時 |
「ノード予約」には上記の「ジョブの実行」の制限はかかりません。
ログインノード
ログインノード(login, login0, login1)は多数のユーザに共有されているため、負荷のかかる処理は行わないでください。
ログインノードでCPUを占有する利用は行わないでください
インタラクティブジョブ専用キュー
- 割り当てられるリソース 物理CPUコア数 7コア, 60GBメモリ, 1GPU、ただし最大7名が同じリソースを共有します。
- 即時に実行可能な資源がない場合、ジョブ投入が失敗します(通常のqrshと同様)
- メモリの内容は混雑状況に応じてSSDにスワップアウトされるため、性能が大幅に低下する可能性があります。
- 1ユーザあたり同時に実行状態になるジョブ数 1ジョブ
- 最大利用時間 24時間
- ローカルスクラッチ領域(SSD)は予約・共有されており、利用可能な容量を保証できません。
- 予約による実行, Dockerコンテナジョブは利用できません。Singularityによるコンテナジョブは利用可能です。
- プロセッサの利用が間欠的な対話型プログラム(デバッガや可視化ツール、Jupyter Lab等)の実行を想定しており、連続的にプロセッサを占有し続ける計算はお控えください。
- プログラムの実行状況に応じて、他ユーザのプログラムの実行を大幅に阻害しているジョブを削除することがあります。
- 上記制限は予告なく見直されることがあります。また、サービス自体も予告なく終了・休止の可能性があります。