タグ

networkとcaseに関するAkazaのブックマーク (20)

  • 2022年11月30日のAdGuard DNS部分的ダウンについて

    2022年11月30日03:24(東京)に、AdGuard DNSに深刻な障害が発生し、マイアミ、ニューヨーク、ロンドンの3ヶ所のサーバーが影響を受けました。 障害発生中、これら3つの拠点に接続されているすべてのお客様のインターネットが事実上遮断されました。 これは、AdGuard DNSの全顧客の約20%、すなわち1000万人以上の方がインターネットに問題を抱えたことになります。 影響を受けた方に、このような事態になったことを心からお詫び申し上げます。 今後このような問題が発生しないよう対策を講じる所存です。 何が起きたのか 小さなミスがいくつも重なり、問題発生に至りました。 これらのミスは、それぞれ単独なら致命的ではなく、障害を引き起こすものではありませんでした。 しかし、残念なことに、これらのミスが重なったことこそが、より大きなトラブルの原因となりました。 最初のミスは、11月28日

    2022年11月30日のAdGuard DNS部分的ダウンについて
    Akaza
    Akaza 2022/12/20
    “サーバーは増加した負荷に対応できず、次々と故障し始めました。” 煙を吹いたり火花を散らしたりしてそう。/ “RSAとの最初のTLSハンドシェイクは、Goのcrypto/tlsだと非常に遅く…”
  • Facebook、約6時間にわたる障害の原因と対策を詳解

    米Facebookは10月5日(現地時間)、前日の日中に発生したInstagramやOculusも含むすべてのサービスに影響した障害について、その原因と復旧方法について説明した。 今回の停止は、前日簡単に説明したように、グローバルバックボーンネットワーク容量を管理するシステムによって引き起こされたものだが、約6時間にもわたり、非常に重要なことであるため、もう少し詳しく説明する価値があると考えたとしている。 グローバルバックボーンは、Facebook全社のコンピューティング施設を接続するネットワークで、世界中を数万マイルの光ファイバーケーブルで接続している。このインフラの保守のため、エンジニアは通常、バックボーンにオフラインで接続し、ファイバーの修理、容量追加、ルータのソフトウェア更新などを行う。 昨日の停止は、こうした定期的なメンテナンスの一環として、容量を評価するコマンドを発行したところ

    Facebook、約6時間にわたる障害の原因と対策を詳解
  • iOS 14 MAC randomization privacy feature may cause Cisco enterprise network issues | AppleInsider

    A new iOS 14 privacy feature could potentially cause problems for enterprise or educational network and device management setups, Cisco warned on Thursday. The privacy feature in question is an option to use a "private," or randomized, media access control (MAC) address when connecting a Wi-Fi network. Generally, devices identify themselves using the same MAC address when connecting to networks, w

    iOS 14 MAC randomization privacy feature may cause Cisco enterprise network issues | AppleInsider
  • Microsoft Azure、DNSの設定変更に失敗して全世界的にサービス障害。日本は十連休中だったのが不幸中の幸いか

    Microsoft Azure、DNSの設定変更に失敗して全世界的にサービス障害。日は十連休中だったのが不幸中の幸いか Microsoft Azureは、2019年5月2日午後7時43分から午後10時35分まで(日時間 2019年5月3日午前4時43分から午前7時35分まで)の約3時間、DNSの名前解決に問題が発生。 ほぼ全世界的に、Microsoft AzureをはじめOffice 365/Microsoft 365やMicrosoft Dynamicsなど同社サービスに対する接続ができなくなるという大規模な障害を起こしました。 この大規模障害の原因は、同社サービス用のDNSのメンテナンス作業のミスが原因だったと発表されました(中間報告の段階では既存のDNSからAzure DNSへのマイグレーション作業に失敗したと報告されていました。現在の報告では計画メンテナンス作業での失敗だとされ

    Microsoft Azure、DNSの設定変更に失敗して全世界的にサービス障害。日本は十連休中だったのが不幸中の幸いか
  • <18.03.08更新>TP-Link製無線LAN中継器によるNTPサーバーへのアクセスに関して

    弊社製無線LAN中継器による一部NTPサーバーへの過剰アクセスがあるとのお問い合わせをいただきました件でご報告致します。 この現象は、中継器がNTPサーバーへのアクセスを試みることで、インターネット接続の有無の確認を行うために発生しております。 ※NTPはネットワーク・タイム・プロトコルの略称で、ネットワークに接続される機器において、機器が持つ時計を正しい時刻へ同期するための通信プロトコルです。 高い頻度でチェックを行うことでインターネット接続の確認がリアルタイムに可能となり、またユーザーの利便性向上のため、管理画面にて接続状況を表示するため使用しております。 このような動作はネットワーク機器における一般的な挙動ですが、弊社製品は頻度が高いためこの動作によって各NTPサーバーに負荷を与えてしまっておりました。 現在、福岡大学を含むNTPサーバーをご提供いただいている各所と連絡を取り、負荷が

    Akaza
    Akaza 2017/12/21
    pingじゃ駄目なのか?
  • 2017年8月25日の大規模インターネット障害:Geekなぺーじ

    先週の金曜日、Googleが誤った経路をインターネットに流したことによって、大規模な通信障害が発生しました。 大きな影響を受けたのが日のOCNとKDDIだったとされていますが、様々な事業者が影響を受けたようです。 ネットワーク障害 グーグルが設定誤りで謝罪 グーグルが謝罪 大規模ネット障害、装置の誤操作が原因 ニュース解説 - 米グーグルの設定ミス、なぜ日の大規模ネット障害を引き起こしたのか?:ITpro BGP leak causing Internet outages in Japan and beyond 8月25日に発生した大規模通信障害をまとめてみた 今回の障害は、世界中の組織とBGP(Border Gateway Protocol)で繋がっている巨大なネットワークを持つ「Googleだからこそ」の事例と言えそうです。 ここでは、その理由を紹介します。 ネットワークのネットワ

  • [PDF] 08/25の通信障害概説

    08/25の通信障害概説 Matsuzaki ‘maz’ Yoshinobu <maz@iij.ad.jp> maz@iij.ad.jp 1 観測されている概要 • 2017/08/25 12:22JST頃 • AS15169が他ASのIPv4経路をトランジット開始 • ⽇頃流通しない細かい経路が⼤量に広報 • これによりトラヒックの吸い込みが発⽣ • 国内の各ASで通信障害を検知 • 2017/08/25 12:33JST頃 • AS15169がトランジットしていた経路を削除 maz@iij.ad.jp 2 観測された問題のBGP経路概要 • 経路数 • 全体で約11万経路 (⽇分が約25000経路) • /10から/24まで幅広い経路(半数程度が/24) • 通常流れていない細かい経路が多かった • AS PATHは概ね “701 15169 <来のAS PATH>” • 広報元A

  • 米グーグルの設定ミス、なぜ日本の大規模ネット障害を引き起こしたのか? | 日経 xTECH(クロステック)

    「ネットワークの誤設定により、インターネットサービスにアクセスしづらくなる障害が発生した。ご不便、ご心配をおかけしたことをお詫びする」――。2017年8月25日昼ごろ日国内で発生した大規模な通信障害。これについて米グーグルが、原因となる誤設定があったと、謝罪の意を8月26日に表明した。 当初より識者の間では、「グーグルから送られてきた大量の経路情報が引き金になったのではないか」との見方が強かった。実際にその通りだったわけだ。 とりわけ大きな影響を受けたのが、NTTコミュニケーションズとKDDI、そしてこの両社の通信サービスを利用していた法人・個人だ。インターネットの接続から各種ネットサービス、金融取引、モバイルSuicaのような決済サービスにまで影響が及んだ。 ただグーグルは、同社がいう「ネットワーク誤設定」が、人為的ミスなのか、ソフトや機器の不具合によるものなのかまでは明らかにしていな

    米グーグルの設定ミス、なぜ日本の大規模ネット障害を引き起こしたのか? | 日経 xTECH(クロステック)
  • BGP leak causing Internet outages in Japan and beyond. | BGPmon

    BGP leak causing Internet outages in Japan and beyond. Posted by Andree Toonk - August 26, 2017 - BGP instability - No Comments Yesterday some Internet users would have seen issues with their Internet connectivity, experiencing slowness or parts of the Internet as unreachable. This incident hit users in Japan particularly hard and it caused the Internal Affairs and Communications Ministry of Japan

  • [続報]OCNの通信障害、米グーグルによる誤った経路情報の大量送信が原因か

    2017年8月25日、NTTコミュニケーションズ(NTTコム)のインターネット接続サービス「OCN」で発生した通信障害に関して、インターネット通信関連の識者は誤った経路情報が大量に流れたことが原因ではないかとの見方を示した。ここでいう経路情報はルーターがBGP(Border Gateway Protocol)というプロトコルを使って交換するものだ。 日ネットワークインフォメーションセンター(JPNIC)の岡田雅之氏は、NTTコムは複数の組織と対等な関係でネットワークの経路情報をやり取りしているが(これを「ピアリング」という)、そのうちのある組織が誤った経路情報を大量に流したのではないかと話す。その結果、「NTTコムを介してインターネットに接続していた企業のルーターが、大量の経路情報を受け取り高い負荷がかかり、一部はフリーズしたような状態に陥るなどして通信障害につながったのではないか」(岡

    [続報]OCNの通信障害、米グーグルによる誤った経路情報の大量送信が原因か
  • 25日(金)のネット障害、原因は経路情報の誤り、世界に影響 / 海外事業者のオペレーションミス?

    25日(金)のネット障害、原因は経路情報の誤り、世界に影響 / 海外事業者のオペレーションミス?
  • 判明、ANAシステム障害の真相

    大型のシステム障害の詳細が見えてきた。全日空輸(ANA)が2016年3月22日に起こした国内線旅客システム「able-D(エーブルディ、以下では便宜上開発コード名のANACore:アナコアと称す)」のシステム障害では全国49の空港で搭乗手続きができなくなり、ANAと提携航空会社5社の合計で719便、7万2100人以上に影響を及ぼした。インターネットや予約センターでの予約などもできなかった。 ANAは障害発生から8日後の3月30日に経緯や原因を公表、さらに4月11日に弊誌のメール取材に応じ、一段詳しい真相が判明した。 4台のSuperdomeをRACでクラスタリング 今回のシステム障害の中身は3月20日のニュースで報じた通り、4台のデータベース(DB)サーバーが停止したというもの(関連記事:ANAシステム障害の原因判明、シスコ製スイッチの「世界初のバグ」でDBサーバーがダウン)。今回、弊誌

    判明、ANAシステム障害の真相
    Akaza
    Akaza 2016/04/12
    スイッチの故障検知に問題が有りフェイルオーバー失敗。対応として複数種の検知方法を持つこと。
  • Webサービスを常時SSL化しようとして諦めた話

    弊社の新規事業でWebサービスを作っていて、セキュリティトレンドの常時SSLってやつをやってみようと思った。 世のWebサービスを見てみるとやっている所が何故かほとんどなく、mixiやニコニコなどの大手もやってないようだ。ニコニコのURLを試しにhttpsにしてみたら繋がらず、mixiはhttpにリダイレクトされる。 うちは新規だから最初からhttps化することで特にデメリットはないと判断、安いSSL証明書を買ってhttpをhttpsにリダイレクトするようにした。技術的な難所はまったくないので問題なく実装完了し、これで安心度がちょっと上がったと思っていたのだが…。 つづく。 続き。 弊サービスではユーザーがYouTubeなどの動画を貼り付ける機能が重要なのだが、テストしてみるとニコニコ動画の埋め込みが動作しなくなっていた。調べてみるとニコ動の埋め込みコードがhttpなせいで、さらに最近のブ

    Webサービスを常時SSL化しようとして諦めた話
  • 大きな声では言えない無線LANエンジニアの本音

    「無線LANにあまり大きな期待をしないでほしい」――。無線LAN関連の取材をすると、ネットワーク担当者や構築を支援したエンジニアの、こんな声をよく耳にする。 無線LANは家庭ではもちろん、駅やコンビニエンスストアでも無料で利用できるようになっている。比較的新しい無線LANアクセスポイント製品には、1Gビット/秒を超える通信速度をうたうものも登場している。今や「どこでも高速に通信が可能な技術」、というイメージが定着しつつある(写真)。 しかし、そのネットワークを構築・運用する“裏方”であるエンジニアは、思った以上に苦労しているようだ。とりわけ企業の中で使う無線LANは、スペース当たりのアクセスポイントの数が多く、快適な通信環境作りが難しい。冒頭の発言は、有線と同様の高速通信を期待する利用者への、いわば嘆きだ。 こうしたふと漏れた一言には、無線LANを活用するうえでのヒントが隠されている。技術

    大きな声では言えない無線LANエンジニアの本音
  • DDoS攻撃でFeedlyにアクセス障害、中止と引き換えに金銭を要求

    RSSフィードサービスを提供する米Feedlyは6月11日(現地時間)、DDoS攻撃を受けてサービスを提供できない状態に陥ったことをブログで明らかにした。攻撃中止の条件として攻撃者が金銭を要求してきたが、同社は要求を拒否。サービス再開に向けた作業を続けている。 DDoS攻撃は、サーバーなどに大量のパケットを送り付けてサービス提供を妨害する攻撃だ。Feedlyは11日午前2時(太平洋標準時)に、DDoS攻撃を受けていると公表。ネットワークプロバイダーと共に攻撃を無効にする作業を進め、また捜査当局や他の被害者と協力して攻撃に対処すると表明した。4時間後の午前6時(同)にブログを更新して、インフラの変更に数時間を要すると告知。ユーザーがサービスにアクセスできない状態が10時間を超えた。攻撃によるデータの損失や情報漏洩はないという。 Feedlyと連携するEvernoteにもDDoS攻撃の影響は及

    DDoS攻撃でFeedlyにアクセス障害、中止と引き換えに金銭を要求
    Akaza
    Akaza 2014/06/12
    金目当てかよ!
  • 一部お客様のドメインに関しましてご報告とご協力のお願い

    2014年4月13日正午頃より、お客様のドメインの一部が接続できない、 もしくは古いサーバー情報を参照している問題が発生しています。 この問題は米国N.T.Technology社(以後NTTEC)が2014年4月13日正午頃より ドメインはお客様の所有物であるにもかかわらず 自身のまたは無関係のネームサーバーに突然許可なく参照先を向けたことで発生致しました。 ドメインをロックしたまま解除を受け付けず、 ご利用いただいておりますサーバーへ参照先を戻すことを拒むことに対して 弊社としても理解しがたい状態で非常に困惑しています。 弊社では、NTTEC社にドメインの更新・維持費を支払い、 NTTEC社に更新手続き等を依頼してまいりました。 13日にネームサーバーの変更を確認後すぐにNTTEC社に対して 継続して参照先情報の修正を要請していますが 16日19時現在も修正が行われていません。 現在お客

  • ネットワークインターフェースが100Mbpsで認識したり1Gbpsで認識したりする場合 - 元RX-7乗りの適当な日々

    そういえば、宅内LANでこんなことがあったので書き残しておきます。 我が家は、1Fから2Fの間で有線LANをひいております。家を建てたときに、将来の事を考えて、CAT6e(6a)を配線してもらってます。 さて、1Fに設置したスイッチングハブ(NETGEAR製)から、2Fに設置したスイッチングハブ(NETGEAR製)に同じようにCAT6eのLANケーブルを使ってつないでみたのですが、はて100Mbpsで認識する。 何度かつなぎ直したり、スイッチングハブの電源を再起動してみると、時折1Gbpsで認識する。なんぞこれ。 最初は、スイッチングハブにつながっているWOL対応のサーバが落ちている場合、サーバ側が100Mbpsでの接続になるようだったので、それに引きずられているのかと思い、1Fから来ているLANコンセントへのケーブルを、スイッチングハブのポートに繋ぐのをやめて、起動しているサーバの1Gb

    ネットワークインターフェースが100Mbpsで認識したり1Gbpsで認識したりする場合 - 元RX-7乗りの適当な日々
    Akaza
    Akaza 2013/03/08
    電源タップを変えたら動作が改善した事案
  • 維持料を負担すること自体は拒否していません。問題は維持料を払うことがその負担者を交えて民主的に決定されていないことなのです - インターノット崩壊論者の独り言(2012-11-26)

    EPIC2014 Google Public DNS (8.8.8.8, 8.8.4.4) 経由ではサイトにアクセスできないよう措置させて頂いております。 このたび社団法人日ネットワークインフォメーションセンター (JPNIC) を相手取って裁判をはじめることとなりました。皆様のご支援をよろしくお願いいたします。 JPNIC は平成23年8月31日に規約を一方的に変更し、私(や多くの歴史的PIアドレスやAS番号の利用者たち)がそれに同意していないにも関わらず平成24年度から(JPNICができる前から使われていたものも含む)歴史的PIアドレスやAS番号に対して維持料を課すことを決め、平成9年に東海地域のネットワークの相互接続のために割り当てを受けた AS7520 にもこの4月から維持料を請求してきました。これを無視していたところ年14.5%の延滞利息まで請求をはじめ、督促の電話も入るよう

  • 違法ダウンロード刑事罰化でトラフィックが減ってる:Geekなぺーじ

    先日、「違法ダウンロード刑事罰化と日のインターネットトラフィック」という記事を書きましたが、その後のトラフィック推移を見る限り、やっぱり日国内のインターネットトラフィックは目に見えて減っているように思えます。 NTTぷららのトラフィック情報 たとえば、NTTぷららが公開しているトラフィックモニターを見ても、10月1日月曜日以降のトラフィックが明らかに減っているのがわかります。 NTTぷららトラフィックモニターは都道府県別に表示されているのですが、どの県を見ても同様の傾向があるので、局所的な傾向というよりも、全国的な傾向であるように思えます。 インターネットマルチフィードのトラフィック情報 日国内の大手IXの一つであるインターネットマルチフィードが公開するJPNAP東京I、JPNAP東京II、JPNAP大阪のトラフィックを見ても、10月1日以降に一目瞭然な減り方をしているのがわかります

  • 第1回 バーストトラフィックの発見と対処 | gihyo.jp

    はじめに 初めまして、(⁠株)ミクシィの中野和貴です。私はシステム部運用部インフラグループネットワークチームという部署で働いており、ほかのメンバーと共にmixiのネットワーク部分全般に関して設計・保守・運用を行っています。ここでは『WEB+DB Press』Vol.50~55にて連載されていた「大規模Webサービスの裏側」で紹介しきれなかったエピソードや、その後のインフラ事情を紹介していきます。 日々大量のトラフィックが流れるmixiのネットワークですが、大きくなってくるとやはりいろいろな問題も出てきます。今回はそれらの問題の中で普段運用しているとなかなか気付きにくいバーストトラフィックに起因する問題事例を紹介します。 ミクシィのネットワーク構成と問題の発覚 mixiでは主要なネットワーク機材にはお金をかけていますが、サービス規模からどうしてもラック数が多くなってしまうため、エッジスイッ

    第1回 バーストトラフィックの発見と対処 | gihyo.jp
    Akaza
    Akaza 2011/06/28
    スネークテスト ネットワーク機器の負荷テスト方法
  • 1