Storage Operation Status History

2021.05.25 16:30 Following maintenance is completed as planned without problems.

2021.05.25 14:50 The cause of the storage failure has been found and the component has been replaced. We are currently experiencing performance degradation due to the degenerated state of the system, so we will be restoring the system to its original configuration (takeover) at 16:00 today. If the load on the file system is low, it will take about 5 minutes to complete, but if the load is high, it may take several tens of minutes. During this time, the entire file system will not stop, but the target disk group will stop responding, and I/O will continue after completion.

2021.05.24 18:50 障害情報をこちらに掲載しました。

2021.05.22 18:50 /gs/hs1 became available around 17:10. Details will be posted on next Monday.

2021.05.22 17:25  Access to /gs/hs1 seems failing. We'll update details when available.

2020.9.8 17:30  We found that some compute nodes are unable to access /gs/hs0. These nodes will not be assigned to new jobs and fixed once all jobs using them finish.

2020.9.8 16:15  The storage system of /gs/hs0 itself is fixed. However the access to them from the login nodes are still impossible. We are investigating the issue, including accesses from compute nodes.

2020.9.8 12:13 Group disk /gs/hs0 is unavailable. /gs/hs1 is not affected

2018.8.21 13:30  13:15頃に/gs/hs0, /gs/hs1の利用を再開しました。

2018.8.21 11:30  13:00頃にサービス再開予定です。

2018.8.21 10:30  本日、高速ストレージ/gs/hs0, /gs/hs1 のサービスインを予定しています。時刻は未定です。

2018.6.27 13:30    予定されていたメンテナンスは12:50頃終了しました。   

2018.6.25 14:20   本日、13:39頃に/gs/hs0の一部に障害が発生し、/gs/hs0 に一時的にアクセスできない状況が発生しました

2018.6.15 16:55    6月27日にメンテナンスが予定されています。

2018.6.6 14:15   メンテナンスは予定より早い14:10頃に終了しました。

2018.6.4 10:40   本日、01:52頃に/gs/hs0の一部に障害が発生し、/gs/hs0 に一時的にアクセスできない状況が発生しました。

2018.5.28 17:30  6月6日にメンテナンスが予定されています。

2018.5.25 10:15  昨日、5/14 19:18 に/gs/hs0 の一部に障害が発生し、/gs/hs0 に一時的にアクセスできない状況が発生しました。

2018.4.25 12:00  今日のメンテナンスは10:00頃に作業開始し、11:05頃に作業終了致しました。

2018.4.24 16:15  急ではありますが明日4/25 10:00 より/gs/hs1のメンテナンスを行います。詳しくはこちら

2018.4.24 15:10  現在、LustreファイルシステムのOmni_pathのリンクにおいてエラーがカウントされており、影響を確認しています。今後のアナウンスにご注意ください

2018.4.11 13:40  未購入のグループディスクのアクセスは4.17(火)12:00までとします。

2018.4.5 14:45  本日中に対象のグループに連絡をいたします。

2018.4.5 10:00  新年度からグループディスクのクオータ制御をプロジェクトクオータに切り替えましたが、一部のグループ(ファイル数が非常に多い[2グループ]、ファイル名に空白や特殊文字があった[7グループ])のファイルの切り替えが完了していない(=使用量としカウントされていない)状態にあることがわかり、対応を行なっています。順次バックグラウンドで切り替えを進めるのでストレージの利用には問題ありませんが、もしクオータ周りで明らかにおかしい等ありましたら相談フォームまでご連絡ください。

2017.12.4 13:45 教育システムのストレージのメンテナンスですが手違いにより想定より遅い13:40頃運用を再開しました。メンテナンスの間iMacを起動することができませんでした。

2017.11.6 12:25 11/5(日)に発生したLustre障害情報を掲載しました。

2017.11.6 9:50 先週のLustre (gs/hs0)障害は、同日11/2(木)の22:40頃復旧しました。詳細は後ほど掲載します。

2017.11.2 13:30 原因がわからず復旧時刻は未定となっています。

2017.11.2 10:20 本日、1:56 頃に Lustre (/gs/hs0 )に障害が発生し、/gs/hs0 にアクセスできない状況が発生しました。/gs/hs1,/gs/hs2へのアクセスは可能ですが、dfコマンドなど /gs/hs0を参照するようなものは、stuckします。

2017.10.31 10:00 Omni-Path network failure has been recovered.

2017.9.12 12:00 The Omni-Path network recovered around 10:50.

2017.9.11 20:30 The Omni-Path network problem has occurred. Can not access normally between about 200 nodes of compute nodes and storage (Luster, NFS).

2017.9.1 9:30 You need to set the TSUBAME point and group disk again with service start.