過去のストレージの情報

2022.11.24 8:50 23日(水)24:00頃に復旧しました。

2022.11.23 20:55 グループディスク /gs/hs0 にアクセスできない状態です。/gs/hs1 にはアクセス可能です。

2021.5.25 16:30 メンテナンスは数分で無事完了しました。

2021.5.25 14:50 ストレージ障害の原因がわかり部品の交換を行いました。現在、縮退状態の影響でパフォーマンスが低下が見られることから本日16:00に本来の構成に戻す作業(テイクオーバー)を行います。ファイルシステムの負荷が低い場合は5分程度で完了しますが、負荷が高い場合は数十分要する事が考えられます。その間、ファイルシステム全体は停止しませんが、対象のディスクグループは応答がなくなり、完了後、I/Oは継続されます。

2021.5.24 18:50 障害情報をこちらに掲載しました。

2021.5.22 18:50 /gs/hs1 障害は17:10頃に復旧しました。詳細は週明けに掲載します。

2021.5.22 17:25 グループディスク /gs/hs1 にアクセスできない状態です。詳細が分かり次第更新します。

2021.4.16 10:45 グループディスクの購入猶予期間が終了しました。引き続きアクセスするにはグループディスクの設定をお願いします。

2020.9.9 17:30 9.9 13:15頃に障害の影響が残っているノードの再起動が完了しております。

2020.9.8 17:30  一部の計算ノードからアクセス出来ない事を確認しました。対象の計算ノードは新規のジョブが入らないよう設定し、ジョブが終了後に復旧作業を行います。

2020.9.8 16:15  グループディスクを提供するストレージ装置そのものは復旧している状態ですが、現在も少なくともログインノード からアクセスが出来ません。そのため計算ノードからのI/Oに問題がないかも合わせて調査を行なっています。

2020.9.8 12:13  グループディスクに障害が発生し /gs/hs0 が利用できません。/gs/hs1には影響ありません。

2020.5.18 15:00 グループディスクへのCIFSアクセスが出来ない不具合の原因がわかり現在は復旧しております。復旧まで長時間かかったことをお詫びいたします。

2020.5.7 13:40 グループディスクへのCIFSアクセスが出来ないため現在調査を行なっています。

2019.4.16 本日AM9:00頃に未購入分のグループディスクにアクセス制限をいたしました。以後もアクセスする場合にはディスクの購入をお願いします。

2018.12.18 16:55   /gs/hs1の障害(応答が極端に遅くなる)は、12.17 17:20頃に発生し、23:16頃復旧しました。同時間帯に特定のユーザのinode(≒ファイル数)がquota値に達している事がわかり、単純に大量アクセスがあったというだけではなく、Lustreファイルシステムのquota処理に潜在的に何らかの不具合があった可能性を調査しています。

2018.12.18 13:30   /gs/hs1の障害は、特定の利用者が非常に大量のファイル操作し、高負荷になった事が原因の可能性が高く、引き続き調査を行っています。

2018.12.18 11:00   /gs/hs1の障害は12.17 23:16に終息しました。

2018.12.17 21:30 /gs/hs1にアクセスができないことを確認しています。

2018.8.21 13:30  13:15頃に/gs/hs0, /gs/hs1の利用を再開しました。

2018.8.21 11:30  13:00頃にサービス再開予定です。

2018.8.21 10:30  本日、高速ストレージ/gs/hs0, /gs/hs1 のサービスインを予定しています。時刻は未定です。

2018.6.27 13:30    予定されていたメンテナンスは12:50頃終了しました。   

2018.6.25 14:20   本日、13:39頃に/gs/hs0の一部に障害が発生し、/gs/hs0 に一時的にアクセスできない状況が発生しました

2018.6.15 16:55    6月27日にメンテナンスが予定されています。

2018.6.6 14:15   メンテナンスは予定より早い14:10頃に終了しました。

2018.6.4 10:40   本日、01:52頃に/gs/hs0の一部に障害が発生し、/gs/hs0 に一時的にアクセスできない状況が発生しました。

2018.5.28 17:30  6月6日にメンテナンスが予定されています。

2018.5.25 10:15  昨日、5/14 19:18 に/gs/hs0 の一部に障害が発生し、/gs/hs0 に一時的にアクセスできない状況が発生しました。

2018.4.25 12:00  今日のメンテナンスは10:00頃に作業開始し、11:05頃に作業終了致しました。

2018.4.24 16:15  急ではありますが明日4/25 10:00 より/gs/hs1のメンテナンスを行います。詳しくはこちら

2018.4.24 15:10  現在、LustreファイルシステムのOmni_pathのリンクにおいてエラーがカウントされており、影響を確認しています。今後のアナウンスにご注意ください

2018.4.11 13:40  未購入のグループディスクのアクセスは4.17(火)12:00までとします。

2018.4.5 14:45  本日中に対象のグループに連絡をいたします。

2018.4.5 10:00  新年度からグループディスクのクオータ制御をプロジェクトクオータに切り替えましたが、一部のグループ(ファイル数が非常に多い[2グループ]、ファイル名に空白や特殊文字があった[7グループ])のファイルの切り替えが完了していない(=使用量としカウントされていない)状態にあることがわかり、対応を行なっています。順次バックグラウンドで切り替えを進めるのでストレージの利用には問題ありませんが、もしクオータ周りで明らかにおかしい等ありましたら相談フォームまでご連絡ください。

2017.12.4 13:45 教育システムのストレージのメンテナンスですが手違いにより想定より遅い13:40頃運用を再開しました。メンテナンスの間iMacを起動することができませんでした。

2017.11.6 12:25 11/5(日)に発生したLustre障害情報を掲載しました。

2017.11.6 9:50 先週のLustre (gs/hs0)障害は、同日11/2(木)の22:40頃復旧しました。詳細は後ほど掲載します。

2017.11.2 13:30 原因がわからず復旧時刻は未定となっています。

2017.11.2 10:20 本日、1:56 頃に Lustre (/gs/hs0 )に障害が発生し、/gs/hs0 にアクセスできない状況が発生しました。/gs/hs1,/gs/hs2へのアクセスは可能ですが、dfコマンドなど /gs/hs0を参照するようなものは、stuckします。

2017.10.31 10:00 昨日OmniPathネットワークに障害が発生し復旧しました。

2017.9.12 12:00 Omni-Pathネットワークの障害は10:50ごろに復旧しました。

2017.9.11 20:30 Omni-Pathネットワークに障害が発生しており、約200ノードの計算ノードとストレージ(Lustre,NFS) 間において正常にアクセスできない現象が発生しております。

2017.9.1 9:30 運用開始に伴い改めてTSUBAMEポイントとグループディスクを設定する必要があります。

2017.8.9 10:50 グループディスクが追加購入できないバグが発生している可能性があります。(解決済み)

2017.8.2 11:00 CIFS接続ができないことを確認しています。(解決済み)