タグ

2020年1月19日のブックマーク (9件)

  • Cookie 概説 - 30歳からのプログラミング

    Cookie とは、HTTP でステートフルなやり取りを実現するために、ブラウザとサーバ間で情報を送受信する仕組みである。 HTTP は来ステートレスなプロトコルである。そのため、同一のユーザーが連続でリクエストを行っても、それぞれ独立したリクエストであり、「同じユーザーからのリクエストである」とサーバが認識することはできない。 これは例えば、ログイン状態の管理で問題となる。ID とパスワードで認証を行っている場合、リクエストの度に ID とパスワードを送信しなければならない。 Cookie を使うことで、このような事態を解決できる。 まず、サーバがブラウザに対して、Cookie としてどのような情報を保存するのか指示する。具体的には、レスポンスヘッダにSet-Cookieフィールドを含め、そこに Cookie として保存させたい情報を設定する。ログイン状態を管理したい場合は、セッション

    Cookie 概説 - 30歳からのプログラミング
    R2M
    R2M 2020/01/19
  • 脱レガシーフロントエンドのために知っておいたほうがいいこと

    2020/1/19 Kanazawa.js meetup#01

    脱レガシーフロントエンドのために知っておいたほうがいいこと
    R2M
    R2M 2020/01/19
  • 最短経路問題総特集!!!~BFSから拡張ダイクストラまで~ - Qiita

    的アルゴリズム(幅優先探索など)から応用(経路復元、拡張ダイクストラなど)まで、最短経路問題に関するアルゴリズムを総特集しました。 基的なグラフ理論の用語については、次を参考にしてください。 グラフ理論 用語集 queueなどのデータ構造の用語については、次のスライドの後半を参考にしてください。 C++ STL講習会 by @e869120 最短経路問題とは 一般的に、次のような問題とされます。 $V$ 頂点と $E$ 辺からなるグラフが与えられる。頂点 $u$ と 頂点 $v$ を結ぶパスのうち、重みの総和が最も小さいものはどれか。 始点を固定して他のすべての頂点との対について最短経路問題を解く場合や、任意の2頂点の対について解く場合などが実際には多いです。 実社会とも強く密着した問題のため、古くからたくさん効率的な解法が考えられてきました。 今回はそれらを紹介しつつ、細かいテクニ

    最短経路問題総特集!!!~BFSから拡張ダイクストラまで~ - Qiita
  • ゼロから作るDeep Learningで素人がつまずいたことメモ:5章 - Qiita

    はじめに ふと思い立って勉強を始めた「ゼロから作るDeep LearningーーPythonで学ぶディープラーニングの理論と実装」の5章で私がつまずいたことのメモです。 実行環境はmacOS Mojave + Anaconda 2019.10、Pythonのバージョンは3.7.4です。詳細はこのメモの1章をご参照ください。 (このメモの他の章へ:1章 / 2章 / 3章 / 4章 / 5章 / 6章 / 7章 / 8章 / まとめ) 5章 誤差逆伝播法 この章は、ニューラルネットワークの学習において重みパラメーターの算出を高速化するための、誤差逆伝播法についての説明です。 ちなみにこの「伝播」(でんぱ)という言葉はPropagetionの訳なのですが、「伝搬」(でんぱん)と訳されることもあって日語は混沌としています。この辺りを調べたブログの記事を見つけましたので、興味のある方は 歩いたら

    ゼロから作るDeep Learningで素人がつまずいたことメモ:5章 - Qiita
  • Erlangについて思うところ

    職場の今までいた部署が潰れてしまったので、新しい部署で仕事のためにErlangを学んでいる。基礎的な文法については学び終わったので、現時点でのErlangについての雑感を書いておこうと思う。 Erlangは多数派のプログラミング言語とはだいぶ違う文法を持っている。終端記号がドットであることもそうだが、比較演算子もだいぶ違っている。多くの言語が!=を使うなか、Erlangは/=を使っている。Less than or equal toが=<であるのも多数派とは異なっている。ただし、Greater than or equal toは>=だ。一貫性がない。 終端文字はドットだが、関数の中には一つの式しか書くことができない。式はカンマで区切ることができるので、以下のようになる。 func() -> expr1 , % カンマ expr2 , % カンマ expr3 . % ドット このような文法はリ

  • 世界最大の半導体製造ファウンドリにアメリカ政府が国内生産を要求、中国との対立が原因か

    by Fritzchens Fritz アメリカ政府が、台湾の半導体製造ファウンドリであるTSMCに対して、チップ製造をアメリカ国内で行うよう圧力をかけていると報じられています。アメリカ政府がTSMCに圧力をかけるのは、中国政府からの干渉を避けるためだといわれています。 The US government still wants TSMC to produce chips in America - TechSpot https://www.techspot.com/news/83579-us-government-wants-tsmc-produce-chips-america.html 日経アジアレビューによると、世界最大の半導体ファウンドリであるTSMCは、アメリカのステルス戦闘機F-35で使われているチップの製造に関わっているとのこと。 2018年1月にアメリカが緊急輸入制限(セーフ

    世界最大の半導体製造ファウンドリにアメリカ政府が国内生産を要求、中国との対立が原因か
  • https://www.pierre7.work/entry/fuan-middle

    https://www.pierre7.work/entry/fuan-middle
    R2M
    R2M 2020/01/19
  • 日本語BERTモデルをPyTorch用に変換してfine-tuningする with torchtext & pytorch-lightning - radiology-nlp’s blog

    TL;DR ①TensorFlow版訓練済みモデルをPyTorch用に変換した (→方法だけ読みたい方はこちら) ②①をスムーズに使うための torchtext.data.Dataset を設計した ③PyTorch-Lightningを使ってコードを短くした はじめに 日Wikipediaで事前学習されたBERTモデルとしては, 以下の2つが有名であり, 広く普及しています: SentencePieceベースのモデル (Yohei Kikuta さん提供) TensorFlow版 Juman++ベースのモデル (京大黒橋研提供) TensorFlow版 PyTorch版(Hugging Face transformers準拠) このうち, SentencePieceベースのものは現在TensorFlow版のみの提供となっており, PyTorch版は存在しません。 そのため, 私のよう

    日本語BERTモデルをPyTorch用に変換してfine-tuningする with torchtext & pytorch-lightning - radiology-nlp’s blog
  • 全身麻酔と「痛み」や「意識」についての考察

    すきえんてぃあ@書け @cicada3301_kig 着ぐるみ生命体/トランスヒューマニスト/コピミズム/言語/謎エスニック料理/リキュール/主なるねこかわの御名において にゃーん twitter.com/search?q=%E6%9… すきえんてぃあ@書け @cicada3301_kig 全身麻酔薬、実は「5億年ボタン」と同じ仕組みで、めちゃくちゃ痛みを感じているのだけど記憶に一切残らないだけ、だったら怖いよな。 実際、全身麻酔中も自律神経の反応は保たれていて、メスでガバッと開腹したり痛みを与えたとき心拍数はちゃんと上がる。 2020-01-17 22:35:55 すきえんてぃあ@書け @cicada3301_kig というのを急に思いついたのは、ヴィーガンの肩を持つわけでもないが、彼らに対して「じゃあ植物の命はどうなんだ?」とイチャモンつけるのはアホらしいと思っていて、彼らは古典宗教の

    全身麻酔と「痛み」や「意識」についての考察
    R2M
    R2M 2020/01/19