タグ

2017年12月1日のブックマーク (7件)

  • JSON Web Token(JWT)の紹介とYahoo! JAPANにおけるJWTの活用

    ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog こんにちは。 IDソリューション部の都筑です。 新卒2年目で普段はYahoo! ID連携のサーバーサイド、iOSのSDKの開発などを担当しています。 今回は最近ユーザーやデバイスの認証で用いられる”JSON Web Token(JWT)”についての解説と、Yahoo! JAPANと他社の活用事例を紹介したいと思います。 JWTとは? JWTとはJSON Web Tokenの略称であり、属性情報(Claim)をJSONデータ構造で表現したトークンの仕様です。 仕様はRFC7519(外部サイト)で定められています。 特徴として、署名、暗号化ができ、URL-safeであることなどが挙げられます。発音は"ジョット"です。 JWTと関連す

    JSON Web Token(JWT)の紹介とYahoo! JAPANにおけるJWTの活用
    delegate
    delegate 2017/12/01
  • Scrapy入門②クローリング時に確認必須な最低限の設定と、データ保持クラスItemsの作成

    (今回の記事は、Scrapy入門① とりあえずクローラーを作って実行し、Webサイトからデータを取得してみるとこまでの続きです。Scrapyを使うのが初めてで、まだ第一回を見てない方はぜひ初めからチェックしてみてください♪) 今回は、Scrapyを使って「TechCrunch(http://jp.techcrunch.com/)」のサイトから、 トップページに表示されている新着記事一覧を取得し、 さらに各記事の詳細ページを開き、 詳細記事の文を取得する というクローラーを作成します。 やってること自体は前回とさほど変わらないのですが、今回はSpider単体ではなくプロジェクト単位でのクローラー開発を行い、 クローリングに関する各種設定(settings.py) データ保持クラス・オブジェクトの活用(Items.py) など、Scrapyに用意されている様々な便利機能たちの機能の使い方を学

    Scrapy入門②クローリング時に確認必須な最低限の設定と、データ保持クラスItemsの作成
  • Scrapy入門① とりあえずクローラーを作って実行し、Webサイトからデータを取得してみるとこまで

    クローリング・スクレイピングフレームワークのScrapyを使ってみる Scrapyとは、クローリング・スクレイピングPythonのフレームワークです。 ぶっちゃけPythonそんな好みじゃないので、はじめはRubyでやろうと思ったんですが、Rubyのクローリング・スクレイピングフレームワークが数年前に開発が止まっちゃってたり、なんだかんだScrapyが強力かつ使いやすいっぽいとの各所での評判により使ってみることにしました。 ちなみに、Scrapyはしばらくの間Python2系でしか動かなかったみたいですが、2016年にリリースされたScrapy ver1.1からPython3に対応しました。 この記事、というかこのブログでは基的にはPython3系を前提にコードを書いていく予定です。 クローラー、クローリングって何? そもそもクローリングとは、ざっくり言うと自動でwebを巡回してweb

    Scrapy入門① とりあえずクローラーを作って実行し、Webサイトからデータを取得してみるとこまで
  • Go の channel 処理パターン集 | Hori Blog

    Hori Blogフリーランスでバックエンドエンジニアとして活動している Ryota Hori のブログです。 最近はテック系記事より雑記ブログ気味。 この記事は Go Advent Calendar 2017 の 1 日目の記事です。 Go の長所に goroutine による非同期処理がありますが、どうしても channel の取り回しで黒魔術化しがちです。少しでも闇を減らしていきたいので、 channel らへんの取り回しについてパターンをまとめました。チートシート的に使えれば嬉しいです。 Go の channel の基礎 入門資料として使いたいので、題に入る前にざっくり基礎を。 定義のパターン channel には capacity という概念があります。 capacity は channel 内でバッファリングしておける容量のことで、 capacity に空きが無い場合は送信側

    Go の channel 処理パターン集 | Hori Blog
  • 『すごいErlang ゆかいに学ぼう』を読んだ ~Erlangの地獄の最下層まで進もう~

    『すごいErlang ゆかいに学ぼう』を読みました。すごいE、Elixir学んでいると必然的に?いきつく先ですね。C++学ぶためにCを学ぶ、みたいな。 Programming Elixir、Elixir in Actionを事前に読んでいたので、内容の大半は頭の整理のためにさらっと読んだくらいでした。その中で、最後付近のCommon Testとかは目新しいものでした。王道としては、Programming Elixir + すごいE、でしょうか。 ※すごいE、もとはこのURLのもの?: http://www.ymotongpoo.com/works/lyse-ja/ 学習曲線 Elixir/Erlangの学習度合いがどのくらいかな、と思って残してみました。ここまでくるのにざっと平均して 3ヶ月 x 1h/day くらいかなーという個人的な感想です。この間に写経やら、ちょっとしたライブラ

    『すごいErlang ゆかいに学ぼう』を読んだ ~Erlangの地獄の最下層まで進もう~
  • 本当はこわいMySQLプロトコル - tmtms のメモ

    11/28 に Haskell で MySQL の Xプロトコルを実装したという話が聴ける Club MySQL というイベントがあったので参加してきました。 clubmysql.connpass.com MySQLのプロトコルの話ということで、平日の夜とは言え東京で参加者9人(発表者含む)というマニアックな集まりでした。 自分も1年前に RubyMySQL Xプロトコルを実装していたのですが、このツイートを最後に中断していたのでした。 MySQL X Protocol で Collection の追加はできるようになったが、検索がめんどくさい。条件文字列のパースはクライアントで行う必要があるんだな。— とみたまさひろ💎🐬 (@tmtms) 2017年2月20日 今回話を聞いて、無理に謎条件式文字列をパースするんじゃなくて、処理系で書きやすいように書けばいいんだという方式に目から

    本当はこわいMySQLプロトコル - tmtms のメモ
  • Chromium のソースコードの歩き方

    これは Chromium Browser アドベントカレンダーの一日目の記事です。初日ということで、記事では Chromium のソースコードを読む上で役に立つであろう、プロジェクトのディレクトリ構成やファイル構成を紹介します。 (2018/04/09) “The Great Blink mv”1 プロジェクトによってついに WebKit ディレクトリが blink ディレクトリにリネームされました。それに伴い記事の内容を更新しました。差分は以下の通りです。 third_party/WebKit/Source を third_party/blink/renderer に置換。 blink/ 内のファイル名の命名規約を Bar.{cpp,h} から bar.{cc,h} に置換。 置換に伴う説明文の修正。 (2017/12/01) ディレクトリ構成について追記しました。 Chromium

    Chromium のソースコードの歩き方