タグ

システム障害に関するyogasaのブックマーク (34)

  • [独自記事]大阪市システム障害で新事実、破損したDBMSはOracle RAC

    大阪市で2019年6月7日から翌8日にかけて発生していた基幹系システムの障害について2019年6月10日、原因となったデータベース管理システム(DBMS)が米オラクル(Oracle)の「Oracle Database」であることが日経 xTECHの取材で明らかになった。 システム障害があったのは、住民票や税務、国民健康保険、福祉、介護保険など市民向けサービスを提供している基幹系システムの「大阪市統合基盤システム」で、2015年1月に運用を開始している。同システムの内部にあるDBMSはログイン時の認証に必要なデータや印刷履歴などを管理している。 データベースサーバーはOracle Databaseのクラスタ技術である「Oracle Real Application Clusters(Oracle RAC)」により、アクティブ/アクティブ構成で2重化している。データベースを格納するストレージは

    [独自記事]大阪市システム障害で新事実、破損したDBMSはOracle RAC
  • CDN切り替え作業における、Web版メルカリの個人情報流出の原因につきまして - Mercari Engineering Blog

    日コーポレートサイトでお知らせした通り、Web版のメルカリにおいて一部のお客さまの個人情報が他者から閲覧できる状態になっていたことが判明しました。原因はすでに判明して修正が完了しております。また、個人情報を閲覧された可能性のあるお客さまには、メルカリ事務局より、メルカリ内の個別メッセージにてご連絡させていただきました。 お客さまの大切な個人情報をお預かりしているにも関わらず、このような事態に至り、深くお詫びを申し上げます。 エントリでは技術的観点から詳細をお伝えさせていただきます。 2017年6月27日 CDNのキャッシュの動作について、CDNプロバイダと仕様について確認し検証を行いました。その結果一部記述に実際と異なる箇所があり、加筆修正いたしました。 概要 メルカリWeb版のコンテンツキャッシュをしているCDNのプロバイダ切り替えを行いました。 その際来キャッシュされるべきでない

    CDN切り替え作業における、Web版メルカリの個人情報流出の原因につきまして - Mercari Engineering Blog
  • JALシステム障害、前週に追加の排他制御がデッドロックを誘発

    航空(JAL)は2016年4月6日、4月1日に発生した重量管理システムの障害について公表した。開発元から適用されたパッチの中に、キャッシュの排他制御を追加する設計変更があり、もともと実装されていたディスクの排他制御との間でデッドロックが発生したことが引き金になった。 システムはルフトハンザ子会社製 問題となった重量管理システムは、独航空大手Lufthansaの子会社である独Lufthansa Systems(LHS)製の「NetLine/Load」。乗客の人数や座席配置、貨物や燃料の量を基に重心を計算し、貨物の最適な搭載位置を算出して指示を出す役割を担う。JALのほか独LufthansaやカナダのAir Canadaなどが導入している。JALの場合、サーバーは東京都内のJAL拠点にあり、主要9空港からアクセスして業務に使っている。 JALは自社開発の重量管理システムをメインフレーム上で

    JALシステム障害、前週に追加の排他制御がデッドロックを誘発
  • ANAシステム障害の原因判明、シスコ製スイッチの「世界初のバグ」でDBサーバーがダウン

    同期処理が失敗した原因は、4台をつなぐスイッチの不具合。具体的には、スイッチが故障状態であるにもかからず、故障を知らせる「故障シグナル」を発信しなかった。国内線システムは故障シグナルを検知するとスイッチを予備機に切り替えるが、今回はその機能そのものを作動できなかった。 スイッチは完全に停止したわけではなく、「不安定ながらも動作していたようだ」(同)。そのため、DBサーバー間の同期は順次失敗し、停止していったと見られる。 ANA広報によると、スイッチは米シスコシステムズ製「Catalyst 4948E」という。「2010年6月の発売開始以降、世界で4万3000台、うち日で8700台を販売しているが、今回の不具合は初めての事象と聞いている」(ANA広報)。なぜ「故障シグナル」が発信できなかったかは分かっていない。 1台での縮退運転を決断 4台の完全停止から37分後、ANAは1台のDBサーバー

    ANAシステム障害の原因判明、シスコ製スイッチの「世界初のバグ」でDBサーバーがダウン
    yogasa
    yogasa 2016/03/31
    中途半端にしなられるの困るよな。それと世界初バグあるある(´・ω・`)
  • ANAのシステム障害、イーサネットスイッチが故障 篠辺社長ら減給

    3月22日に国内線旅客システム「エイブル」で発生した障害について、全日空輸(ANA/NH)は3月30日、4台あるデータベース(DB)サーバーの同期処理を中継する「ネットワーク中継機」の故障が原因だったと発表した。障害発生により、篠辺修社長ら経営陣3人の報酬を1カ月間減額する処分を下した。 —記事の概要— ・同期処理に障害 ・7万人以上に影響 同期処理に障害 ANAによると、日ユニシス(8056)が構築した国内線旅客システムのうち、故障したのはネットワーク中継機として使用していた、米シスコシステムズ製イーサネットスイッチ「Catalyst 4948E」。一般的に、有線LANによるネットワーク上の機器などを接続するために使用するもので、障害が発生したシステムでは、4台あるDBサーバー同士を接続するのに使われていた。ネットワーク用語では、「スイッチ」と略されることが多い。 スイッチが故障した

    ANAのシステム障害、イーサネットスイッチが故障 篠辺社長ら減給
    yogasa
    yogasa 2016/03/31
    機器故障で報酬減額処分…… 別に人が死んだわけでもないのに
  • スーパーいなげや、システム障害=増税対応で130店中半数閉店 (時事通信) - Yahoo!ニュース

    東京、神奈川、埼玉、千葉を地盤とするスーパーの「いなげや」で、消費税増税に伴うシステムの切り替え作業中にトラブルが発生し、同社が展開する136店舗のうち、1日午後2時現在で半数近くが開店できない状態であることが分かった。同日未明に、レジのシステム変更やデジタル式の店頭価格表示のデータを、部から各店舗に一斉送信した際にサーバーがダウンした。 全店復旧のめどは立っておらず、いなげやは「お客さまにご迷惑をお掛けして申し訳ない」(広報)と話している。

    スーパーいなげや、システム障害=増税対応で130店中半数閉店 (時事通信) - Yahoo!ニュース
    yogasa
    yogasa 2014/04/01
    増税がわるいわ~
  • 原因は不適合装置 JR九州のシステム障害 - 日本経済新聞

    JR九州は22日、18日に起きた列車運行管理システムの障害について、システムの機器に適合しない記憶装置を使っていたことが原因だったと発表した。この記憶装置は2010年7月、システムを構築した日立製作所が定期交換で取り付けていた。JR九州は今後、機器のプログラムを修正して障害が起きないようにする。「装置の確認が不足していた」として、日立側に損害賠償を請求することも検討する。システム障害は信号機を

    原因は不適合装置 JR九州のシステム障害 - 日本経済新聞
  • 予備系統もダウン JR九州障害、訓練用システム使い復旧 [福岡県] - 西日本新聞

    予備系統もダウン JR九州障害、訓練用システム使い復旧 [福岡県] 2013年07月19日(最終更新 2013年07月19日 00時06分) 大混乱を招いたシステム障害について、JR九州は18日、記者会見を開き、1997年のシステム導入以降、初めて行った通信用部品の交換中に不具合が発生したことを明らかにした。危機管理上用意していた別の1系統もダウンし、訓練用システムを活用して復旧。訓練用がなかったり、使えなかったりした場合、運転再開はさらに遅れていたことになり、危機管理への認識不足を露呈した格好だ。 同社によると、今回取り換えていた部品は、電気回路が埋め込まれている縦15センチ、横40センチほどの基板。システム上で、列車番号や運行を自動制御する「自動列車進路制御装置」の一部という。 午前4時、システムメーカーの社員2人とJR九州の社員2人が部品の交換作業を始めると、アラームが鳴動。この部品

  • auの障害について | 無線にゃん

    またまたauがやらかしたみたいで、いろいろ解説希望のメールをもらっているわけですが。 今回の故障個所は「基地局制御装置」みたいに発表されていますが、具体的にどこと言うのはよくわかりません。が、LTEのシステムの中でそれに相当しそうなのは、たぶんMMEかなぁ、と言う気がします。もちろん、基地局の監視制御用のシステムとかの独自装置の可能性もあります。 で、確か前回もMMEが障害って言ってたなぁと考えた時にふと思った件があって。こちらの基地局数で見ると、2013/05/30現在の総基地局数(バンドごと(細かいことを言うとキャリアごとだけど現在は実質1バンド1キャリアしか入らないので)に別のノードなので「制御装置」から見えるノードの数という観点で数えた時)は、ドコモが27716局、auが46575局、SBMが23249局と、auはほぼダブルスコアで他よりも局数が多いんですよ。しかも、建設開始からの

  • 月末なのに法人用ネットバンクが繋がらない、みずほ銀行の「みずほビジネスWEB」にシステム障害か : 市況かぶ全力2階建

    業務停止命令から巻き返しを図るみんなで大家さん、問題の成田プロジェクトにポンペオ元米国務長官が広告塔の無名投資会社ロイズ・キャピタルが1.5兆円の大金を出しそうだと言い出す

    月末なのに法人用ネットバンクが繋がらない、みずほ銀行の「みずほビジネスWEB」にシステム障害か : 市況かぶ全力2階建
  • 「フェールセーフが不十分だった」 KDDI、iPhone/iPadメール障害を説明 新機能の準備中に発生

    「フェールセーフが不十分だった」 KDDI、iPhoneiPadメール障害を説明 新機能の準備中に発生(1/2 ページ) KDDI(au)のiPhoneiPadで4月16日~19日にかけてメール送受信が利用しづらい状態が続き、一部ユーザーで連絡先が正しく表示できないケースが起きた問題について、同社は4月25日、原因を説明した。同社の嶋谷吉治 取締役執行役員専務 技術統括部長は「フェールセーフの考え方が不十分だった」と反省を述べ、「顧客に多大なる迷惑をかけ、心よりおわび申し上げます」と謝罪した。 不具合は、iPhone専用に構築しているメールのリアルタイム送受信システムで発生。夏に提供予定の新機能を準備するため、システムをバージョンアップ中に、コマンドの誤りやハードウェア障害、サービス復旧手順の問題などが連続で起き、長期間にわたる不具合に発展したという。 今後は、事前の検証内容の見直し

    「フェールセーフが不十分だった」 KDDI、iPhone/iPadメール障害を説明 新機能の準備中に発生
  • [続報]東証トラブル、原因はL3スイッチの障害

    東京証券取引所は2012年8月7日夜、全派生商品(デリバティブ)銘柄の取引が一時できなくなったトラブル(関連記事1、関連記事2)について会見を開いた。トラブル発生の原因がネットワーク機器であることを明かし、東証の宇治浩明 IT開発部トレーディングシステム部長は「大変なご迷惑をおかけしたことをお詫び申し上げる」と陳謝した。 原因はデリバティブ取引システム「Tdex+システム」と、構内ネットワーク「arrownet」の間に設置しているアラクサラネットワークス製レイヤー3(L3)スイッチ。L3スイッチは二重化していたが、「番系から待機系への自動切り替えに失敗した」(宇治部長)という。 午前9時18分、該当のL3スイッチに障害が発生。東証は同9時22分に売買を停止した。応急策として、同10時17分に手動による待機系への切り替えを実施し、10時55分に取引を再開した。後場は正常に取引を終えた。 8

    [続報]東証トラブル、原因はL3スイッチの障害
  • ファーストサーバ最終報告書、ベテラン担当者のマニュアル無視を黙認

    ヤフー子会社のファーストサーバは2012年7月31日、6月20日に発生した大規模障害(関連記事)についての調査報告書(最終報告書)を公表した(写真)。報告書は、ファーストサーバに利害関係のない3人の委員による「第三者調査委員会」(関連記事)が作成した。同社Webサイトに「要約版」を掲載している。 報告書は調査対象とする事故を、6月20日に発生した「第1事故」と、第1事故で消失したデータが想定外の場所に復元された「第2事故」(関連記事)の2つとしている。 1人だけ自作プログラムでメンテナンス 報告書は、第1事故の事実関係について次のように言及している。ファーストサーバではシステム変更を実行する際、社内マニュアルに沿って実行することになっており、第1事故の原因となったシステム変更の担当者(A氏)以外は社内マニュアルに従っていた。 ところが、A氏だけはマニュアルに従わず、自作の「更新プログラム」

    ファーストサーバ最終報告書、ベテラン担当者のマニュアル無視を黙認
  • 第三者調査委員会による調査報告書の受領について | ファーストサーバ株式会社プレスリリース詳細

    【デジサート登壇】Webビジネス最前線:Webサイトの安全と信頼を守る取り組み ~デジサートの... その他 2022年08月22日 【新タイプ】IDCFクラウドのハードウェア専用マシンにスペックを大幅強化した「7XL」登場 クラウド 2022年07月27日 【サイバートラスト登壇】最新ITセキュリティ動向と対策 その他 2022年07月05日 【45分で解説】先端AIプラットフォームの構築・活用術をエヌビディアとIDCフロンティアが徹底... その他 2022年06月29日 ユニアデックスウェビナー「オンプレそっくりさんなクラウドサービスで良いとこ取りをしませんか!!... その他 2022年06月29日 【無料ウェビナー】情報セキュリティの確認ポイント 身近に潜むリスクと、すぐにできる対策とは その他 2022年06月09日 【無料ウェビナー】XaaSビジネスにおけるクラウドインフラ構

    第三者調査委員会による調査報告書の受領について | ファーストサーバ株式会社プレスリリース詳細
  • 株式会社IDCフロンティア

    IDCフロンティアのクラウドサービスが政府情報システムのためのセキュリティ評価制度(ISMAP... データセンター 2024年01月10日 【接続先追加】「バーチャルブリッジ」に主要IX事業者などの他事業者接続が追加 データセンター 2024年01月10日 令和6年能登半島地震の影響により、被災された地域のお客さまがご利用中のサービスについて支援措置を実施します。 サービス 2024年01月05日 新年のご挨拶 代表取締役社長 鈴木 勝久 その他 2024年01月04日 1月17日~19日に福岡で開催される「JANOG53 in Hakata」にブース出展します その他 2023年12月20日 ZDNET Japan Business&IT ClassWork supported by ... その他 2023年12月15日 IDCフロンティア、「AIサービスのためのデジタルインフラ」を

    株式会社IDCフロンティア
  • ドコモからのお知らせ : 「spモード各種設定」における発生事象について | お知らせ | NTTドコモ

    お客様の設定により、お客様情報が「非表示」となっております。お客様情報を表示するにはdアカウントでログインしてください。 お客様情報表示についてへ お客様情報表示についてへ ドコモからのお知らせ 「spモード各種設定」における発生事象について 2012年7月25日 平素はNTTドコモのサービス・商品をご利用いただき、誠にありがとうございます。 2012年7月25日(水曜)1時41分から9時14分において、以下の事象が発生いたしました。なお、事象の防止のため、「spモード各種設定」サイトを一時停止しておりました。 お客様には多大なご迷惑をお掛けしておりますことを、深くお詫び申し上げます。 1.発生日時 2012年7月25日(水曜)1時41分〜9時14分 ※9時14分から13時37分まで「spモード各種設定」サイトを停止しておりました。13時37分以降は正常に設定できております。 2.影響を

  • 富士通の旗艦、館林データセンターが電源障害でダウンし、金融機関やニフティクラウドに影響。日経コンピュータ誌

    富士通の旗艦、館林データセンターが電源障害でダウンし、金融機関やニフティクラウドに影響。日経コンピュータ誌 先月、6月7日の午前6時頃、りそな銀行、ソニー銀行、東京スター銀行など複数の国内金融機関でシステム障害が発生しました。ほぼ同時刻に、ニフティのブログサービス「ココログ」や「ニフティクラウド」などにも大規模障害が発生しました。 金融機関の障害についてはこの日、ScanNetSecurityがいち早く報じています。 複数の銀行で同時間帯に障害が発生、現在は復旧(りそな銀行ほか) | ScanNetSecurity (事件、インシデント・情報漏えいのニュース) 同じ日、ニフティの障害については発表が行われています。 大規模障害の発生について |ニュースリリース|ニフティ株式会社:ニフティとなら、きっとかなう。 ほぼ同時刻に発生したこれらの障害は共通の原因があると推測されますが、どこでどんな

    富士通の旗艦、館林データセンターが電源障害でダウンし、金融機関やニフティクラウドに影響。日経コンピュータ誌
  • https://jp.techcrunch.com/2012/07/04/20120703ghosts-in-the-machine-what-really-happened-when-the-lights-went-out-at-amazon-web-services/

    https://jp.techcrunch.com/2012/07/04/20120703ghosts-in-the-machine-what-really-happened-when-the-lights-went-out-at-amazon-web-services/
  • 2012年7月3日 うるう秒がLinuxシステムを直撃! わかっていても避けられなかったトラブル | gihyo.jp

    Linux Daily Topics 2012年7月3日うるう秒がLinuxシステムを直撃! わかっていても避けられなかったトラブル すでにあちこちでニュースになっているので、ご存じの方も多いかと思うが、グリニッジ標準時で6月30日の深夜、地球の自転にあわせるためにうるう秒(a leap second)が23時59分60秒として挿入された。そしてこの1秒が世界各地のコンピュータシステムをちょっとした混乱に陥れたのである。Linuxもその例外ではなく、いくつものトラブルが報告されている。 今回のうるう秒トラブルの多くはコンピュータの内部時計を調整するNTP(Network Time Protocol)に正しく情報を伝達できなかったことが主原因だとされている。Linuxではカーネルバージョンが2.6.26以上のシステムで頻発したようだ。 Linuxで起こったトラブルの中では、「⁠Server

    2012年7月3日 うるう秒がLinuxシステムを直撃! わかっていても避けられなかったトラブル | gihyo.jp
  • 「さくらのクラウド」で続いていたストレージ障害、報告書をさくらインターネットが公開

    昨年11月にさくらインターネットが開始したクラウドサービス「さくらのクラウド」は、開始直後の12月からストレージまわりにトラブルが発生し、ストレージ性能の著しい低下や不安定な動作、一部データの消失などが起きていました。トラブルは完全に解決してはおらず、3月に新規申し込みの受付を停止したまま現在に至っていました。 さくらインターネットは今日15時に、さくらのクラウドのストレージ障害についての詳細な報告「さくらのクラウド・ストレージに関する報告書」を公開するとともに、トラブルが発生していたストレージに代えて自社開発したストレージでの再スタートを発表しました。 接続の問題や性能問題、監視ツールの問題などが発生 トラブルは同社が採用したストレージ装置で発生したものが中心でした。サーバとストレージ間はInfinibandで接続され、IP over InfiniBandでTCP/IPプロトコルを用い、

    「さくらのクラウド」で続いていたストレージ障害、報告書をさくらインターネットが公開