各種制限値一覧

(最終更新日 2020.7.16)

TSUBAME3における各種制限値の一覧です。想定を大きく上回る混雑や電力需給の逼迫など、その他の要因により変更される場合があります。上限値にかかわらず混雑時は混雑緩和にご協力をお願いいたします。

(2020.4.16追記) 計算ノードに余力があるため平日の1ユーザあたり同時に実行状態になるジョブ数「30」を一時的に「72」に緩和します。

(2020.7.2追記) 計算ノードが混雑してきたため平日の1ユーザあたり同時に実行状態になるジョブ数「72」を「50」まで制限します。

(2020.7.16追記) さらに計算ノードが混雑してきたため平日の1ユーザあたり同時に実行状態になるジョブ数を元の制限地である「30」に戻します。

ジョブの実行

  平日(*1) 週末(*2)
1ユーザあたり同時に実行状態になるジョブ数 30ジョブ 100ジョブ
1ユーザあたり同時に実行状態となるスロット数(CPUコア数) 2016スロット 4032スロット
1ジョブあたりの最大並列度 144(*3) 144
1ジョブあたりの最大実行時間 24時間 24時間

 *1:平日: 毎週日曜 9:00 ~ 金曜 16:00 の間に開始するジョブ
 *2:週末: 毎週金曜 16:00 ~ 日曜 9:00 の間に開始するジョブ。ただし処理の簡素化のため祝日は考慮しない
 *3:実装上の理由により144並列としているが、2016スロットの制限があるためf_nodeでは72並列が最大となることに注意

ノード予約

  4-9月の設定値 10-3月(繁忙期)の設定値
予約提供ノード数(全体) 270ノード 135ノード
1予約の最大予約時間 168時間(7日間) 96時間(4日間)
1グループが同時に確保できる予約枠の合計 12960ノード時 6480ノード時

「ノード予約」には上記の「ジョブの実行」の制限はかかりません。

ログインノード

ログインノード(login, login0, login1)は多数のユーザに共有されているため、負荷のかかる処理は行わないでください。
ログインノードでCPUを占有する利用は行わないでください

インタラクティブジョブ専用キュー(学内ユーザのみ)

  • 利用可能なユーザは東工大の学内ユーザーのみです。
  • 割り当てられるリソース 物理CPUコア数 7コア, 60GBメモリ, 1GPU、ただし最大7名が同じリソースを共有します。
    • 即時に実行可能な資源がない場合、ジョブ投入が失敗します(通常のqrshと同様)
    • メモリの内容は混雑状況に応じてSSDにスワップアウトされるため、性能が大幅に低下する可能性があります。
  • 1ユーザあたり同時に実行状態になるジョブ数 1ジョブ
  • 最大利用時間 24時間
  • ローカルスクラッチ領域(SSD)は予約・共有されており、利用可能な容量を保証できません。
  • 予約による実行, Dockerコンテナジョブは利用できません。Singularityによるコンテナジョブは利用可能です。
  • プログラムの実行状況に応じて、他ユーザのプログラムの実行を大幅に阻害しているジョブを削除することがあります。
  • 上記制限値は予告なく見直されることがあります。また、サービス自体も予告なく終了・休止の可能性があります。