タグ

障害に関するt-cyrillのブックマーク (13)

  • パッチ盤からケーブルを引っこ抜いてしまいCloudflareに障害発生。ケーブルにラベリングされておらずどれを戻すべきかすぐに分からず

    パッチ盤からケーブルを引っこ抜いてしまいCloudflareに障害発生。ケーブルにラベリングされておらずどれを戻すべきかすぐに分からず CDNプロバイダのCloudflareは、世界協定時4月15日の午後3時31分から午後7時52分(日時間4月午前0時31分から午前4時52分)まで、ダッシュボードおよびAPIが使えなくなるという障害を発生していました。 Cloudflare Dashboard and API Outage on April 15, 2020https://t.co/zJctsOomVf — Cloudflare | #BuiltForThis (@Cloudflare) April 16, 2020 同社のブログ「Cloudflare Dashboard and API Outage on April 15, 2020」によると、同社の2つのコアデータセンターのうちの1

    パッチ盤からケーブルを引っこ抜いてしまいCloudflareに障害発生。ケーブルにラベリングされておらずどれを戻すべきかすぐに分からず
    t-cyrill
    t-cyrill 2020/04/20
    ラベリングしてないの謎すぎるんだが
  • Amazonのクラウドサービスで日本に続きアメリカで障害が発生し顧客データが全損する事態が発生

    by Bethany Drouin 日では2019年8月23日(金)、Amazonが提供するクラウドサービス「アマゾン・ウェブ・サービス(AWS)」に大規模な障害が発生し、多数のサービスやウェブサイトなどが影響を受けました。これに引き続き、アメリカでも8月31日(土)に同様の障害が発生し、顧客のデータが損失するという事態が発生していることが分かりました。 AWS celebrates Labor Day weekend by roasting customer data in US-East-1 BBQ • The Register https://www.theregister.co.uk/2019/09/04/aws_power_outage_data_loss/ 2019年8月23日にAWSの東京リージョンで発生した障害についてAmazonは、「空調設備の管理システム障害が原因」だ

    Amazonのクラウドサービスで日本に続きアメリカで障害が発生し顧客データが全損する事態が発生
    t-cyrill
    t-cyrill 2019/09/06
    一部EBSが復旧できなかった。オレもオレも
  • AWS障害、大部分の復旧完了 原因は「サーバの過熱」

    8月23日午後1時ごろに発生した、米Amazon Web Servicesのクラウドサービス「AWS」の東京リージョンでの障害について、同社は午後8時18分、クラウドサーバの復旧がほぼ完了したことを明らかにした。制御システムの障害により、サーバの温度が上がりすぎたことが原因だったという。 同社によると問題が起きたのは、「Amazon Elastic Compute Cloud」(EC2)の東京リージョンを構成する4つのデータセンター(アベイラビリティーゾーン、AZ)の内の1カ所。AZ内の制御システムに問題が発生し、複数の冗長化冷却システムに障害が起きたという。結果として、AZ内の少数のEC2サーバが過熱状態となり、障害として表面化したとしている。 冷却システムは午後3時21分に復旧。午後6時30分までに、ほぼ全てのストレージ(EBSボリューム)とインスタンスが復旧したという。 同社は、障害

    AWS障害、大部分の復旧完了 原因は「サーバの過熱」
    t-cyrill
    t-cyrill 2019/08/23
    クーラーが単一障害点🔥
  • 8月23日のAWSの大規模障害でMultiAZでもALB(ELB)が特定条件で500エラーを返すことがあったという話 - Make組ブログ

    このブログ記事で 「MultiAZ」にしていたら何事も全て大丈夫という認識を変えられると嬉しいです (当該の時点で障害起こした人はちゃんとMultiAZにしてなかったんでしょ?という人の認識も変えられると嬉しいです)。 MultiAZにしておくことは基 です。 その上でも、 安心しきらずに監視は必要 という話をしています。 MultiAZ構成にしておきましょう そのうえで監視、検知、トレーサビリティを大切にしましょう MultiAZ要らないという見当外れの解釈はしないでください (一部、間違えた解釈をしてるコメントも見受けられましたが、大いに違います)。 前提 2019-08-23、AWSで大規模な障害が起こりました。 障害の一般的な内容は以下のとおりです。 まとめのブログ https://piyolog.hatenadiary.jp/entry/2019/08/23/174801 AW

    8月23日のAWSの大規模障害でMultiAZでもALB(ELB)が特定条件で500エラーを返すことがあったという話 - Make組ブログ
    t-cyrill
    t-cyrill 2019/08/23
    これは嫌な動作だ。考えてみるとありえそうで、ELBもEC2と同じような仕組みであるなら落ちてるゾーンのALBはハズレで機能しなさそう
  • Engadget | Technology News & Reviews

    Parrots in captivity seem to enjoy video-chatting with their friends on Messenger

    Engadget | Technology News & Reviews
    t-cyrill
    t-cyrill 2019/08/23
    きっとみんな知見が溜まったに違いない。3azにしてないと片落ちした時に50%使えなくなるしまあまあ辛そう。
  • システム障害との向き合い方 @sinamon129 #tokyogirlsrb

    これまで大小様々なシステム障害に遭遇してきましたが、障害対応から学ぶことは沢山あります。 いろんな習熟度のフェーズで障害発生を学びに変えるための行動事例や、webアプリケーション開発において障害対応を減らすためにできることなどをお話しできればと思います。 TokyoGirls.rb Meetup vol.1 https://techplay.jp/event/716251

    システム障害との向き合い方 @sinamon129 #tokyogirlsrb
    t-cyrill
    t-cyrill 2019/03/02
    ちょっと読んだけどいい話だった。若い子に流そう
  • 9月06日03時09分頃に発生した地震による弊社サービスへの影響について - メンテナンス・障害情報・機能追加|さくらインターネット公式サポートサイト

    2018年09月06日掲載 障 害 発 生 の お 知 ら せ さくらインターネット株式会社 平素よりさくらインターネットをご利用いただき、誠にありがとうございます。 9月06日 03時08分頃に北海道地方を中心に発生した地震により、弊社サービスの 一部に影響が発生しておりますので、以下の通りご報告いたします。 ご利用中のお客様には大変ご迷惑をおかけいたしましたことを深くお詫び 申し上げます。 < 記 > 発生日時 : 2018年09月06日03時08分 - 2018年09月08日14時30分 影響範囲 : 石狩データセンター収容サービス 影響内容 : 現在、弊社石狩データセンターへの北海道電力による特別高圧送電が 停止(停電)しております。石狩データセンター収容サービスにつきま しては、自家発電設備により正常に稼働を継続しております。 なお 09月06日03時08分 - 07時44分 に

  • Zenlogicサポートサイト[IDCフロンティア]

    TOP サービス IDCFクラウド コンピュート コンテナ RDB CacheDB クラウドストレージ DNS GSLB(広域負荷分散) インフィニットLB CDN イメージオプティマイザー 連携サービス プライベートクラウド NSXオプション ベアメタルサーバー パートナーサービス Fastly CDN Fastly 次世代 WAF SiteGuard Server Edition Google Cloud 構成例 事例 料金シミュレーション ウェビナー開催情報 今後の機能強化予定 English

    Zenlogicサポートサイト[IDCフロンティア]
    t-cyrill
    t-cyrill 2018/07/17
    オブストこんなんばっかなんだけどやっぱりユーザへの提供だと負荷コントロールが難しいんだろうか
  • みずほ、新勘定系システムへの移行開始 障害起きず - 日本経済新聞

    みずほフィナンシャルグループ(FG)は11日午前8時、入出金や口座管理を処理する次期勘定系システムへの移行を始めた。2019年度上期まで計9回計画する作業の初回で、この日は顧客名などの基礎情報を移行した。みずほでは大規模なシステム障害が過去に2回発生したが、11日午前9時時点では大きな混乱は起きていない。傘下のみずほ銀行とみずほ信託銀行のシステムを刷新する作業の一環で、9日夜から着手していた。

    みずほ、新勘定系システムへの移行開始 障害起きず - 日本経済新聞
    t-cyrill
    t-cyrill 2018/06/11
    これは凄いことなのでは
  • 三菱UFJニコスのシステム障害の原因が判明、3個のHDDが同時に故障

    マスターデータから中間加工ファイルを作成するバッチ処理のシステムでHDDが故障し、障害が発生した。三菱UFJニコスによれば、HDD15個で一連の機能を果たしており、そのうち3個が同時に故障した。「2個までの同時障害は自動復旧可能な仕組みを設けていたが、3個の故障は想定外だった」(広報)。同社はシステムやHDDの開発企業を明らかにしていないものの、「発生確率は極めて低いとの報告を受けている」という。 故障したHDDは、障害が発生した2017年12月26日中に交換したが、利用会員の売上データ処理などに遅れが発生した。一部の利用会員に2重請求が発生したほか、請求が遅れるなどの事態につながった。同社はシステム機器の監視体制を強化するなどして対策を講じるという。

    三菱UFJニコスのシステム障害の原因が判明、3個のHDDが同時に故障
    t-cyrill
    t-cyrill 2018/02/08
    ちょっと前までHDDいっぱい積んだサーバの運用してたけど、メーカーと型番は分けてましたね。ロット単位で当たり外れはあると今でも思ってる。
  • 【復旧済み】はてなブックマークでブックマークの追加ができない障害が発生しています

    2018年1月24日(水)16:03頃から、はてなブックマークにてブックマークの追加ができない障害が発生しております。 原因はアプリケーションの不具合で、現在復旧作業中です。 申し訳ございませんが、復旧までいましばらくお待ちください。 追記 2018年1月24日(水)16:38頃、復旧いたしました。 なお、下記に該当されます場合には、お手数ですが再度操作をお試しください。 該当期間に編集のみした場合:再度編集をお願いします 該当期間に削除のみした場合:ブラウザより再度削除をお願いします http://b.hatena.ne.jp/my/bookmark ご迷惑をおかけして、大変申し訳ございませんでした。再発防止に努めてまいります。

    【復旧済み】はてなブックマークでブックマークの追加ができない障害が発生しています
    t-cyrill
    t-cyrill 2018/01/24
    ブクマできてるかなーっと
  • メンテナンス・障害情報・機能追加|さくらインターネット公式サポートサイト

    2017年09月09日 障 害 発 生 の お 知 ら せ さくらインターネット株式会社 平素よりさくらインターネットをご利用いただき、誠にありがとうございます。 9月9日より、ご提供サービスにおきまして、以下の通り障害が発生いたしました が、収束いたしました。 ご利用中のお客様には大変ご迷惑をおかけいたしましたことを深くお詫び申し上 げます。 障害が収束いたしましたので、障害について報告書として下記にご説明いたし ます。 < 記 > 発生日時 : 2017年9月9日10時27分 影響範囲 : さくらのクラウド(オブジェクトストレージ) 障害内容 : バケットに接続しにくくなる障害が発生いたしました --------------------------------------------------------------------- 2017年10月11日 さくらのクラウドサービスに

    t-cyrill
    t-cyrill 2017/09/20
    ずっとメンテ、10日経ってて大変そう。さくらさんのオブストはSwiftなのかな。
  • 経済産業省の旅費等システムのデータ消失について : 富士通

    2017年9月15日 富士通株式会社 経済産業省の旅費等システムのデータ消失について このたび弊社が、経済産業省と契約を締結している「旅費等内部管理業務共通システムの運用業務」に関し、9月8日(金曜日)に実施したシステムの定期メンテナンス作業において、弊社の作業ミスにより旅費精算業務に関するデータの一部を消失する事態となりました。 現在、弊社から同システムを管理・運営する経済産業省および関係府省庁等の職員様に電話・電子メール等で問い合わせをするなどして、消失したデータの再登録と正常処理に向けた対応を進めております。 弊社は、このような事態を招いた事実を厳粛に受け止め、消失したデータの正常な処理が完了するまで体制を強化して対応を行うとともに、早期の信頼回復を目指して再発防止の徹底に努めて参ります。 同システムを管理・運営する経済産業省および関係府省庁等の皆様に多大なるご迷惑をおかけしましたこ

  • 1