最近主婦やお年を召した方に大人気の水素水。でも1パック(200ml)で250円程度と結構なお値段がします。 1ヶ月のみ続けると結構な金額になりますが、果たして水素水にそこまでのお金を出してまで飲む価値があるのでしょうか? 今回はその効果を調べるために、水素水を販売している全11社さんに電話して、効果についての見解を聞いてみました。 電話で聞いた質問は以下の3つです。
![結局水素水に効果はないの?メーカー11社に電話して聞いてみた](https://cdn-ak-scissors.b.st-hatena.com/image/square/4e3de5e2ab942f929bedc8dbbc060876f77c1cf3/height=288;version=1;width=512/http%3A%2F%2Fminnano-finance.com%2Fotoqoo%2Fwp-content%2Fuploads%2F2016%2F10%2Fdenwaki.jpg)
最近主婦やお年を召した方に大人気の水素水。でも1パック(200ml)で250円程度と結構なお値段がします。 1ヶ月のみ続けると結構な金額になりますが、果たして水素水にそこまでのお金を出してまで飲む価値があるのでしょうか? 今回はその効果を調べるために、水素水を販売している全11社さんに電話して、効果についての見解を聞いてみました。 電話で聞いた質問は以下の3つです。
Post author:admin Post published:November 28, 2023 Post category:Business/Entertainment Post comments:2 Comments Las Vegas Escorts Definition For a fee, Las Vegas escorts give companionship or entertainment services. It is important to debunk misrepresentations about this sector even as it rapidly grows and…
tl;dr https://izakaya.darui.io/ ここでチャットしましょう 経緯 仕事の都合で古の perl cgi をコード変更なしにサーバ移行する必要が出てきたので、これは Docker ですねということで Apache コンテナで mod_cgi を動かす練習をすることになりました。 次世代のチャット「あび屋」を設置 最近、perl で cgi ベースの「あび屋」が Yet Another Slack として世界的に注目を集めていることはご存知だと思います。今回の練習にぴったりだということで、今回はこちらを Docker コンテナとして自宅サーバーに設置してみました。 「あび屋」とは 「あび屋」は、Slack には存在しないユニークな機能を備えています。 アバターベースの空間表示による、まるでその場で対面しているかのような密度の濃いコミュニケーション 発言すればするほど
rspecで書いているテストが遅い。CPUもめちゃ回る。めちゃ回ってあのスピードか。 rspec + guard + spork(spring試したい)で自動テストを回しているので、あまりテストのパフォーマンスが開発に影響することはなかったんだけど、けっこう大きいmodelの修正とかになると、1modelのテスト結果がでるまでも数秒かかってしまっていて、いよいよ耐えられなくなってきた。 ので、調査対応したときのメモ。 遅いテストを調べる rspec2系なら--profileというオプションをつければ遅いテストワースト10がテスト終了後に表示される。毎回表示されてもいいと思うので.rspecファイルに書いておく。 .rspec --colour --drb --profile ←追加ちなみに--profile 15とか数字を引数につけるとワースト10がワーストNになる。 遅いテストの内訳を調
こんなコードがあったんです。 メールアドレス変更をするときに、ユーザーIDと新メールアドレスとトークンを持つモデルのテストで、トークンがかぶったらマズイからbefore_saveでunique_tokenという、渡されたトークンが既に存在しないか確認するメソッドを呼ぶという。 attr_accessible :email before_save do |email_change| email_change.token = EmailChange.unique_token(SecureRandom.urlsafe_base64) end def self.unique_token(token) if EmailChange.where(token: token).count > 0 EmailChange.unique_token(SecureRandom.urlsafe_base64) e
最近rspecでRailsのテストコードを書いてました。 書いたテストコードは動かしながら確認していくわけですが、その1回1回の実行時間がとても長くて困ってました。(私の環境では1回の実行で大体10秒くらいかかってました。) 「なんでこんな時間かかるんやろう?」と思って調べてみたところ、どうやらrspec実行の度にRails環境をロードするため時間がかかっていたようです。 rspec実行の度にRailsをロードしていたのでは時間がかかって当然ですね。 何か良い方法ないのかな?と思っていたら「spork」なるものを発見したので導入してみました。 sporkの導入GitHub - sporkrb/spork: A DRb server for testing frameworks (RSpec / Cucumber currently) that forks before each run t
EngineeringIncident Report: Inadvertent Private Repository DisclosureOn Thursday, October 20th, a bug in GitHub’s system exposed a small amount of user data via Git pulls and clones. In total, 156 private repositories of GitHub.com users were… On Thursday, October 20th, a bug in GitHub’s system exposed a small amount of user data via Git pulls and clones. In total, 156 private repositories of GitH
Too Long; Didn't Read<em>No </em><a href="https://hackernoon.com/tagged/javascript" target="_blank"><em>JavaScript</em></a><em> frameworks were created during the writing of this article.</em> No JavaScript frameworks were created during the writing of this article. The following is inspired by the article “It’s the future” from Circle CI. You can read the original here. This piece is just an opin
原文:https://circleci.com/blog/its-the-future/ ヘイ、ボスが君と話せっていうんだ。Webアプリに詳しいんだろ? ああ、俺はもうわりと分散システムガイだぜ。ContainerCampとGlueonから帰ってきたばっかりで、来週はDockerconに行くんだ。業界が進歩するのを目の当たりにしてワクワクしている。全てがシンプルになって信頼性が高まるんだ。これが未来さ! すごいね。僕は今シンプルなWebアプリを作ろうとしてるんだ。Railsの普通のCRUDアプリで、Herokuにデプロイしようと思ってる。今後もこの方法でよさそうかい? オー、ノー。それは古いやり方だ。Herokuは終わった。もう誰も使っていない。今はDockerを使う必要がある。それが未来だ。 OK、それは何だい? Dockerは新しいコンテナリゼーションの手法さ。LXCみたいなもので、パ
You have been redirected here because the page you are trying to access has been archived. AWS re:Post is a cloud knowledge service launched at re:Invent 2021. We've migrated selected questions and answers from Forums to AWS re:Post. The thread you are trying to access has outdated guidance, hence we have archived it. If you would like up-to-date guidance, then share your question via AWS re:Post.
Eureka EngineeringLearn about Eureka’s engineering efforts, product developments and more.
不動産ポータルサイトを運営するオウチーノは28日、株式公開買い付け(TOB)と第三者割当増資の実施を発表した。その結果、議決権の過半数を占める大株主になるのは、意外な人物だった。 その人物とは、お家騒動で揺れるクックパッドの前社長で、現任の取締役兼執行役である穐田誉輝(あきた・よしてる)氏。穐田氏はベンチャーキャピタル大手のジャフコなどを経て、2001年よりカカクコムの代表取締役に就任。2003年には同社を東証マザーズ上場に導いた(2005年には東証1部に市場変更)。 その後、2007年よりクックパッドの社外取締役、2012年からは社長に就任。海外展開や新事業にも力を入れ、業績を大幅に伸ばした。2016年1月にクックパッド創業者である佐野陽光氏との経営権をめぐる争いが表面化し、その後3月に社長を退任したことで注目を集めたが、ネット業界では投資家、経営者として高い評価を得てきた。 穐田氏は最
今年の映画界最大トピックとなるだろう『君の名は。』が、どうやら最終興収で200億円を超える見通しが立ったようだ。確定ではないが、公開9週目にあたる10月22、23日の土日成績を踏まえ、関係者への取材も含めて、やっとこの段階で、そう推定できる。この2日間では、興収4億7629万円を記録。何と前週の101.8%と、またしても数字を伸ばしたことが、この推定につながった。ちなみに、23日時点での累計は、164億1082万円だった。 来週中に『踊る大捜査線2』(174億円)を超え、邦画歴代4位へ この推移から、邦画の歴代興収では、来週中に『踊る大捜査線 THE MOVIE2 レインボ―ブリッジを封鎖せよ!』(174億円)を超え、第4位に食い込む。その上は『千と千尋の神隠し』(308億円)、『ハウルの動く城』(196億円)、『もののけ姫』(194億円)の3本だけだ。これで、おそらく邦画興収歴代2位の可
レズビアンがよく聞かれる質問を、あいうえお順に答えていくからな【あ行、か行編】 2016/10/28 日記 レズビアンだと白状すると大体聞かれる質問を、あいうえお順に答えてみました。 これを読んだ人は、レズビアンと出会っても金輪際その手の質問しないでください。 聞きたかったけど聞けなかった人は参考にしてください。 あ あたしのこと好きだったの!? これ、よく聞かれます。え、なんで?急にそうなるの?女で良ければだれでもいいってわけでもないです。男性が好きな人だって、男性ならだれでもいいわけじゃないですよね。 レズビアンにも、好みのタイプってものがあるんですよ、タイプってものが。 い いつからレズビアンなの? これは人それぞれだと思いますが、大概はみんなが異性に興味を持ちはじめるお年頃からです。 う 浮気ってどうなの? レズビアンは、浮気に対して厳しい人が多いです。 環境によ
こないだすごい長いエントリ見たんで自分も長いやつやるか、というのはあまり関係ない(ある)んですが、ていうかもともと長くなる理由というのもあって、実世界と漫画世界のギャップがだんだん大きくなり、藤子F先生の短編でそういうのあったな、と思いつつ、非公開部分をいちいちトリミングするのもだるく、 実世界ではまずイイダコを釣ったところから話が始まります。これはイイダコ釣りに誘われたからです。 釣り自体は雨が爆裂に降って1秒で終了し、さわやかな会話や謎の山分けが行われて解散しました。さっそく食います。 フム 頭と足は別調理が良いということで、まず足を湯引きしてごま油と塩で食います。うまい。自分で釣った(混ざったのでどれだかは分からない)と思うとさらにうまい。 頭はよくわかんないのでナンプラーとレモンとコショウで食ったらエスニックになり良かったです。 謎の山分けによりダツをいただきました。 ここで重要な
自民党若手議員による意欲作10月26日、小泉進次郎衆議院議員らを中心とする自由民主党若手議員20人のグループが、雇用や社会保障に関する大胆な政策提言を行い、注目を浴びています。彼ら彼女らが見据えているのは、IT化、グローバル化、そして高齢化がより進展した2020年以降の雇用と社会保障の在り方であり、多様な雇用形態、ライフスタイルを前提とする社会に最適化されたセーフティネットの確立を、意欲的に提案しています。次世代の政治リーダー候補として、まことに結構なことであり、このように若手政治家の中から新しい政策の枠組みを構築、発信していこうという試みは、望ましいことだと評価できます。 提言の内容には、興味深いものが並んでいます。 社会保険を全非正規労働者に適用拡大した「勤労者皆社会保険制度」労働者の再就職、再訓練費用の企業負担化、支援強化低所得労働者の社会保険料本人負担の免除、軽減在職老齢年金制度の
この記事には複数の問題があります。改善やノートページでの議論にご協力ください。 出典がまったく示されていないか不十分です。内容に関する文献や情報源が必要です。(2017年6月) 脚注による出典や参考文献の参照が不十分です。脚注を追加してください。(2017年6月) 言葉を濁した曖昧な記述になっています。(2017年6月) 出典検索?: "ミーガン法" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL ミーガン法(ミーガンほう、英:Megan's Law)は、本来1994年にアメリカのニュージャージー州で成立した性犯罪者情報公開法[注釈 1]の俗称である。被害者女児の名を由来としている。その後他州や連邦レベルでも類似の法律が制定されるようになり、現在ではこれらを含めアメリカの性犯罪者情報公開法を一般的にミ
※ かなり前の記事ですが、未だに引用されるので一応追記しておきます。タイトルと画像がキャッチーなのはちょっと反省していますが、これを見てBigQuery使うのを躊躇している人は多分あまり内容を読んでいないので気にする必要はないです。自分は当時の会社でも今の会社でも個人でも普通にBigQuery使っていて解析用データなどはBigQueryに入れる設計をよくしています。また、アドベントカレンダーだったのでネタっぽく書きましたが事前に想定できる金額です。 ※ 代役:プロ生ちゃん(暮井 慧) 巷のBigQueryの噂と言えば「とにかく安い」「数億行フルスキャンしても早い」などなど。とりわけ料金に関しては保存しておくだけであれば無視できるほど安く、SQLに不慣れなプロデューサーがクエリを実行しても月数ドルで済むなど、賞賛すべき事例は枚挙に暇がありません。 しかし、使い方によってはかなり大きな金額を使
こんにちは。古橋です。今日はいつものはてなブログから趣向を変えて、QiitaでTDアドベントカレンダー14日目の投稿です。 Hiveのクエリ結果をRDBに書き出したい MapReduceはメモリに収まりきらないデータをJOINしたり集計したりできる信頼性の高いアーキテクチャですが、どうしても1発のクエリを実行するのに時間がかかるので、人間がいじりながら使う可視化ツールに直接繋ぎ込むには向いていません。 そこで Prestoを使って集計する 方法もありますが、やはりMapReduceの方が向いているケースもあります。例えば、 Webサイトに一度は来てくれたのに、その後1週間アクセスのない人が、最後に見ていったページはどこだろう? 過去にアイテムAを買った人が良く買っている別のアイテムは何だろう? (バスケット分析のクエリ例) といった、巨大テーブル同士のJOINや自己結合が必要なケースは、や
入社してから3年たったので、自分メモということも含め、今までやってきたことのまとめ。 お断り 開発期間の関係で、一つ一つシステムを細かく理解し、チューニング出来たわけではないです。 個人が期間内に調べられた情報で、構築したものなので 「いやいやきちんとチューニングすればそんな結果にはならない」みたいなことは 多々あるかと思いますがご了承ください。 また、3年前はLinuxやSQLは触ったことがない状態だったので 最初の方に担当したものほど作りが甘かったと思います。 流れ 第1世代: AmazonRedShiftをベースにした基盤 第2世代: AmazonEMRでHiveをベースにした基盤 第3世代: AmazonEMRでSparkをベースにした基盤 第4世代: MySQLとサーバ上での分散処理(Python)をベースにした基盤 第5世代: BigQueryをベースにした基盤(製作中) 第1
はい。というわけでLivesenseアドカル23日目は@shusuke_otaniがお送りします。 対象 SQLにおいて可読性をジャスティスとする人 LIKE me。 下にもあるようにちょっと前までトーシロだったので、 「おいおい、坊や、お前は何もわかっちゃいねぇよ(タバコスパー」な方はコメントを頂けると(∩´∀`)∩ワーイ 自己紹介 初投稿なので自己紹介しときます。 リブセンスの赤魔道士大谷。広告マーケティングとエンジニアリングやってます。 直感性を大切にしてます。(ていうか直感性しか武器がない) 今年の10月にようやく社会人になった未熟者ゆえ、日々メンターより、メールの書き方から、コントローラーの肥大化まで多ジャンルに渡って、鉞(マサカ)られるという刺激的で☆☆素敵☆☆な日々を送ってます。 ちなみにメンターは@eri氏でとーーってもこわひ優しい人、氏の趣味はもちろん鉞で 、社内では
Embulkの各プラグインのconfig設定例をメモしていきます。 (MySQL、Bigquery、Redshit、Redis、S3など) プラグインのインストールが必要 例:embulk gem install embulk-output-bigquery embulkをたくさん順序よく叩いて、あいまにちょっとした処理も行いたいので、 digdagも試します。 Embulkプラグインのconfig(liquid前提) Input embulk-input-s3 in: type: s3 path_prefix: yyy/xxxxxx file_ext: .zip access_key_id: {{ env.AWS_ACCESS_KEY }} secret_access_key: {{ env.AWS_SECRET_KEY }} iam_user_name: yyy-xxxxxx-acce
前回の記事では、以下の課題設定で、ユーザが30日後にデイリー・アクティブ・ユーザである確率(値域:0~1)を目的変数にとったロジスティック回帰モデルの係数を推計しました。 【正解データ】L回帰の目的変数 30日後の DAILY_ACTIVE_FLAG カラムの値 (1 or 0) 【説明変数】 ※各種調査の結果、手持ちの仮説は以下である。 (1) ある日のカード・ガチャ引いた合計回数(有償、無償合計)CARD_GACHA_COUNT (2) ある日の自己ステータス(体力、ユーザ中の相対順位、所属同盟・連合チーム全体の状況、保有カード数など)閲覧画面アクセス回数 STATUS_CHECK_COUNT (3) ある日に、連合仲間、同盟仲間とアイテム交換、激励アクション、メッセージ交換などを行った回数FRIEND_ACTION_COUTNT ロジスティック回帰を推計した結果、ユーザーアクティブ確
rspecでredshiftのデータを使ったテストをするときに、テストデータの作成方法をメモしておきます。 より良い方法があれば、教えて下さい! 今回はredshiftにデータがすでにあったので、それを参考に作る redshift unload ('select * from table_name) to 's3://xxx-spec/table_name/' credentials 'aws_access_key_id=xxxxx;aws_secret_access_key=xxxx'; テストデータとして使えそうなデータをピックアップ&追記 bash aws s3 cp s3://xxx-spec/table_name/ . --recursive vi 0000_part_00 aws s3 cp 0000_part_00 s3://xxx-spec/table_name/ requ
Redshiftは列レベルで圧縮形式を選ぶことができ、これにより以下の効果が得られる。 ストレージスペースが節約 データのサイズが軽量化 => ディスク I/O の量が減少 => クエリパフォーマンスが向上 このエンコーディングの形式がいろいろあるので、公式の内容を元に軽くメモ。 エンコーディングの指定方法 エンコーディングの指定は、CREATE TABLEとALTER TABLE時のみ。 既存のカラムのエンコーディングの変更はむりっぽい。 # 新規作成時 CREATE TABLE products ( id INT encode delta, name CHAR(20) encode bytedict ); # カラム追加時 ALTER TABLE products ADD created_at date encode delta32k;
$ curl --create-dirs -o ~/.embulk/bin/embulk -L "http://dl.embulk.org/embulk-latest.jar" $ chmod +x ~/.embulk/bin/embulk $ echo 'export PATH="$HOME/.embulk/bin:$PATH"' >> ~/.bashrc $ source ~/.bashrc $ embulk gem install embulk-input-s3 $ embulk gem install embulk-parser-jsonl $ embulk gem install embulk-output-redshift $ embulk gem install embulk-filter-stdout $ embulk gem install embulk-decoder-
追記 2014-10-29 "実行中のクエリをキャンセル"するの項に追記しました コマンド(クエリ) ディスクのスペースを確認する SELECT owner, host, diskno, used, capacity, (used-tossed)/capacity::numeric * 100 AS pctused FROM stv_partitions ORDER BY owner; CREATE VIEW loadview AS (SELECT DISTINCT tbl, TRIM(name) as table_name, query, starttime, TRIM(filename) AS input, line_number, colname, err_code, TRIM(err_reason) AS reason FROM stl_load_errors sl, stv_tb
redshift: adapter: redshift database: applog host: *****.**********.ap-northeast-1.redshift.amazonaws.com port: 5439 username: app password: encoding: utf8 pool: 5 timeout: 30000 # タイムアウトは長めに ActiveRecord::Base.establish_connection(:redshift) result = ActiveRecord::Base.connection.execute "select * from table_name where log_date='#{d.strftime("%Y-%m-%d")}'" result.each{|record| p record # hash }
はじめに Redshiftのデータはnode毎に分散されており、distkeyが不適切だとnode間でデータ量が偏ることがある。 データが偏るとディスクを圧迫するだけでなくパフォーマンスにも影響する。 nodeとslice データはnode毎に分散して保存されている。 さらにnode内で複数のsliceに分かれて保存されている。 node情報取得 以下のテーブルを使ってrowsの偏りを求める事ができる。 ディスク使用量(byte)は取ることはできない。 stv_tbl_perm slice毎のテーブルのrows数を取得できる。 stv_slices nodeとsliceのマッピング情報を取得できる。 調査クエリ node毎の使用量を取得 select node, sum(rows) from stv_slices m join stv_tbl_perm s on s.slice = m.s
やりたいこと Redshiftのテーブルに対してLIKEで部分一致。 LIKEの条件は外部から入力されるため、PreparedStatementを用いる なぜかエラーになる PreparedStatementで LIKE ? escape'@' のように設定 %0@% のようなものをbindする。→ ex) 0%,20%,100%... 上記の要領で実装すると、以下のエラーがでてしまう。 Specified types or functions (one per INFO message) not supported on Redshift tables いやそんなテーブルには触れてないし関数らしきものも使ってないつもりだが。 手打ちだと 以下のクエリを直接実行すると、問題なく通る。 SELECT name FROM hoge WHERE name LIKE '%0@%' ESCAPE '
自分用メモ。 ある時間以降に実行されたクエリの概要をさくっと把握したい Redshift がなんかむっちゃ重くなってる… みたいなときに投げる想定。 なお、いずれの日時指定も UTC 時間で指定する必要があることに注意。 SELECT や INSERT を対象とする場合 SELECT query AS query_id, xid, LEFT(querytxt, 50) AS query, starttime, endtime, (endtime - starttime) / 1000000.0 AS second FROM stl_query WHERE starttime >= CAST('2015-12-25 01:00' AS TIMESTAMP) AND database = 'hogehoge' -- データベースを絞り込む場合 ORDER BY starttime; SELEC
参考: 【新機能】Amazon Redshift の Interleaved Sorting機能を試してみた | Developers.IO COMPOUND SORTKEY 通常のRDB等のインデックスの考え方に近い。 第1キーが検索条件に含まれていると早く絞り込めるが、第1キーが含まれていないとスキャンする範囲が広がる 検索項目が固定的(予測可能)でその項目を設定すればパフォーマンスが上がる。 INTERLEABED SORTKEY ソートキーが多次元的に配置される いろんな検索項目(フィルタ条件)の組み合わせでもパフォーマンスを落とさずに検索範囲を絞り込むことができる。 検索項目が動的(予測できない)場合に効果を発揮する。
最近、Redshiftを検討するため調べたメモです. RedshiftはInsertやUpdate、さらにはカラム型なので1行単位のSelectが遅いらしいです. PostgreSQLと互換があると言っても同じように使えません. 同じ感じに使うと遅くて辛い目にあいます. DBとして役たたない感じに聞こえますが集計等が得意なので、 それ以外は割り切った使い方をした方が良い感じです. この記事で書かれている内容は以下のスライドで アトミック洗い替え を検証したものになります. Amazon Redshiftによるリアルタイム分析サービスの構築 データ作成と集計を分離する 検証するためにテーブルsample1を作成します. このテーブルは集計用で更新系のクエリは発行しません. BEGIN; CREATE TABLE sample1 (c1 BIGINT NOT NULL); INSERT INT
きっかけ アドテクスキルアップゼミ カラムナーデータベース検証まとめという記事が公開されたのですが,Presto/Impalaの結果があまりにも散々で,これはさすがに何かおかしいんじゃないかという話になってました. 今だとすでに記事に注釈が入ってますが,Presto/Impalaは生のテキストファイルを対象にしていたのが原因でした.なので,その辺について少し書き,実際Prestoはどんなもんなのかというのを簡単に示します. 列指向ファイルフォーマット Presto/Impalaが生のテキストファイルだったのに対し,他のクエリエンジンは違うフォーマットでデータを保存していて,これがかなり結果に響いてます.Redshift,BigQuery,Treasure Dataなど,データ解析系のサービスは皆列指向フォーマットを採用していて,データインポート時に勝手に変換が行われます.列指向フォーマット
皆様こんにちは。 アドテク本部カラムーデータベースゼミチームです。 今回の記事ではゼミチームが行った検証結果について発表させていただきます。 また、この記事につきましては 11/12 に行われた db tech showcase Tokyo 2014 にて発表させて頂きました内容になります。 プレゼン資料はこちらにあがっています。 ※追記 Impala / Presto の File Format についてご指摘を頂きましたのでデータロード及びまとめの部分に追記しました。 アドテクスキルアップゼミ カラムナーデータベース検証まとめ目的 広告システムでは大量のデータをデータベースに入れて解析を行います。 小規模から中規模なデータはRDBMSで行えますが、数TBを超えると RDBMS以外の選択肢を探さないといけません。 ビッグデータ用のデータベースは比較資料が少なく、 また、あったとしても検証
自己紹介 cuiとリファクタリングが好きなrailsプログラマです。 awsなどのインフラ周りも触ります。 ジモティーという会社で同名のサービスを作ってます。 会社でvim使っているのは自分だけで、寂しいです。 zsh tmux vim peco ergodoxのススメ(+α) cui toolを使いこなすと作業が捗る tmuxのススメ(1) 必要な時に、必要な分だけペインを分割して使っていくのが好き tmuxのススメ(2) zsh起動時に自動起動にしておく # tmux自動起動 if [ -z "$TMUX" -a -z "$STY" ]; then if type tmuxx >/dev/null 2>&1; then tmuxx elif type tmux >/dev/null 2>&1; then if tmux has-session && tmux list-sessions
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く