タグ

2016年11月23日のブックマーク (4件)

  • コードレビューをより効果的にする方法

    ツールに任せることができないどんなことを人間は指摘できるのだろうか? 驚くほど多数の事柄があることがわかっている。この記事の残りで幅広い重要事項のリストに触れ、2つの特定の領域、パフォーマンスとセキュリティに関してはもう少し深く言及する。 設計 新しいコードは全体アーキテクチャに適合しているだろうか? コードはSOLID原則、ドメイン駆動設計、もしくはチームが採用する他の設計手法に従っているだろうか? 新しいコードでデザインパターンは使用されているだろうか?これらは適切だろうか? コードベースの標準や設計スタイルが混合されている場合は、新しいコードは現在の原則に従っているだろうか?コードは現在の方向性を引き継いでいるか、徐々に除去される古いコードの例に従っているだろうか? コードは正しい場所に配置されているだろうか?例えば、コードが注文に関係する場合は、それは注文サービスの中にあるだろうか

    コードレビューをより効果的にする方法
  • メルカリ流!納得感のあるKPIの決め方 | mercan (メルカン)

    はじめに こんにちは、データサイエンティストのshmatsudaです。 突然ですがみなさん、KPIはどう決めていますか? これって結構揉める話題ですよね… ちゃんと作ったつもりでも、思わぬ点を指摘され「納得感がない」と言われてしまうことは良くあることだと思います。 今回はメルカリで「納得感のある」KPIを決めるために工夫したことをお伝え出来ればと思います。 話の背景:USでインストール数が激増 メルカリUSでは7月末にインストールが激増し、アメリカのApp Store 3位になりました。このチャンスを活かすべく、全社をあげてユーザー体験の向上を追求しています。 ところでメルカリは主要な指標としてLTV(Life Time Value)を設定しています。ユーザー激増を受けて、メルカリではLTVをどのように上げるかについてゼロベースで考えることにしました。 LTVを上げよう!・・・その前にKP

  • ケーススタディ:NetflixはどのようにA/Bテストを実施しているのか? | UX MILK

    Netflixはどうやって素晴らしいストリーミング体験を提供しているのでしょうか? 彼らがどのようにサイトを作り、さらにA/Bテストを通してどのようにUIの改善をしているのでしょうか? この記事では私がYelpで参加したDesigners+Geeks eventで学んだことから共有します。2人のスピーカー、Anna Blaylocky氏とNavin Iyengar氏はNetflixのプロダクト・デザイナーであり、何年も何百万人という会員に行ってきたA/Bテストから収集した実態について語ってくれました。また、参加者がデザインを考える上で手助けとなるようないくつかの関連する例を示してくれました。 科学的な手順 仮説 科学において仮説は、研究や実験を通して検証されるアイデアや事象の原因を指します。デザインでは理論やや予想を「仮説」と呼ぶことができます。 仮説の基的な概念には、あらかじめ決まった

    ケーススタディ:NetflixはどのようにA/Bテストを実施しているのか? | UX MILK
  • Brakeman

    Lots of great contributions in this release, thanks! Changes since 6.1.2: Add optional support for Prism parser Handle parallel assignment with splats (#1833) Warn about unscoped finds with find_by! (#1786) Add initial Rails 8 support (Ron Shinall) Add support for symbolic links (Lu Zhu) Support YAML aliases in secret configs (Chedli Bourguiba) Add --show-ignored option (Gabriel Arcangel Zayas) Tr

    Brakeman