タグ

ブックマーク / chezou.hatenablog.com (9)

  • 2016年買ってよかったもの 10選 - once upon a time,

    ハード中心ですが、2016年に買ってよかったものを書いていきます。10選と言いつつ、枝分かれをしているものがありますがご愛嬌ということで。転職をしたこともあり、必要となったものが大きく変わったのですが、今回は自分の生活を楽にしてくれたものを買えたなという気持ちです。 Philips 43型 4kディスプレイ Philips 43型ワイド液晶ディスプレイ (4K対応/IPSパネル/5年間フル保証) BDM4350UC/11 出版社/メーカー: Philips(フィリップス)発売日: 2016/04/15メディア: Personal Computersこの商品を含むブログを見る このモデルの良い所は、 40インチ超えで7万以下と安い IPS液晶なので斜めから見る場合でも色の変化が少ない フリッカーフリーなので、輝度を落としてもちらつかない という点が挙げられます。特に、安い10万以下のモデルで

    2016年買ってよかったもの 10選 - once upon a time,
    daisukebe
    daisukebe 2017/01/10
    “Philips 43型 4kディスプレイ”
  • 2016年を振り返って - once upon a time,

    ブルガリアンスクワットをして筋肉痛でプルプルしています。大晦日も元旦もほぼDMM英会話の予定しかありません。 2016年は、世界的にも激動の年でしたが、個人的にも色々な大きなことが起こり激動の時代でした。*1 昨年の振り返りはこちらです。 chezou.hatenablog.com Cookpad TechConf、DS祭り、CWT2016で発表した chezou.hatenablog.com chezou.hatenablog.com chezou.hatenablog.com どれも自社イベントですが、今年は外で発表する機会を例年より多くいただきました。来年も、BigData Analytics Tokyoの発表から幕開けです。 転職した chezou.hatenablog.com CookpadからClouderaに転職しました。Sales Engineerというロール、初めての外資

    2016年を振り返って - once upon a time,
    daisukebe
    daisukebe 2016/12/31
    同僚のエントリを読みながら、来年はますます楽しく忙しい一年になりそうでワクワクしてるところ。はよ2017年始まれ
  • #eigo と私〜あるいは子持ちの業務外活動の続け方 - once upon a time,

    こんにちは、温泉行きたいです。この記事は、pyspaアドベントカレンダー2016の21日目です。1日前は、渋川さんの保険の話でした。 Clouderaという外資系のHadoop/Sparkを中心としたプラットフォームを提供する会社に今年転職しました。そこで生きていく上で必要な #eigo の話を中心に2016年を振り返ります。 転職した 転職エントリーにも書きました。今ちょうど9ヶ月経ちましたが、まだ首にならずなんとか頑張ってやっています。 シンガポールでAPACのSales Enginnerでのミーティングに行ったら、いろんなアジアの国の英語とディスカッションをして揉まれました。 日のチームは成長中なので、グローバルに比べると相対的に人数も少なく、Doug CuttingやMLlibに詳しいSparkコミッターのSean OwenをはじめとするUSのエンジニアと話す時間が多くあるのがと

    #eigo と私〜あるいは子持ちの業務外活動の続け方 - once upon a time,
    daisukebe
    daisukebe 2016/12/23
    “当たり前の話ではありますが、業務や家庭内の活動の生産性を上げるための投資は惜しんではいけないなと思います"
  • Cloudera World Tokyo 2016で機械学習プロダクトの作り方を話しました #cwt2016 - once upon a time,

    さる11/8に、自社の主催するCloudera World Tokyo 2016で、機械学習プロダクトの作り方について話をしました。 図: Hadoopの生みの親 Doug(@cutting)と握力王新沼さん(@hiroki_niinuma)の対談イベントの様子 大規模データに対するデータサイエンスの進め方 #CWT2016 from Cloudera Japan www.slideshare.net データの民主化の話、データサイエンティストとデータエンジニアの役割分担とチーム構成、機械学習の業務フロー、Cloud Nativeなデータサイエンスといった盛りだくさんの話をしました*1。 話の中で特に言いたかったことは2つ、P.16のリスクを取ってくれる責任者を捕まえようという話と、P.29の機械学習込みのプロダクトは改善をし続けないと死ぬという話です。 あとは、できるだけ機械学習をしない

    Cloudera World Tokyo 2016で機械学習プロダクトの作り方を話しました #cwt2016 - once upon a time,
    daisukebe
    daisukebe 2016/11/15
    "できるだけ機械学習をしないで、サンクコストが生まれる開始前に撤退ラインを決めておこう"
  • 「夏真っ盛り!Spark + Python + Data Science祭り」を開催しました&Ibisを紹介しました #summerDS - once upon a time,

    2016/07/25に「夏真っ盛り!Spark + Python + Data Science祭り」を開催しました。 connpass.com 今回はClouderaに入って初めてのコミュニティイベントということでしたが、なんと400人を超える応募をいただいてとてもありがたい限りです。 会場をご提供いただいたDMM.comラボ様、発表いただいたサイバーエージェントの内藤さん、DMM.comラボの加嵜さん、LTの皆様ありがとうございました。 togetter.com pandasを大規模データにつなぐIbis Ibis: すごい pandas ⼤規模データ分析もらっくらく #summerDS from Cloudera Japan www.slideshare.net Ibisはpandasの作者でもある Wes McKinney(@wesmckinn) の作っているライブラリです。 ひとこ

    「夏真っ盛り!Spark + Python + Data Science祭り」を開催しました&Ibisを紹介しました #summerDS - once upon a time,
    daisukebe
    daisukebe 2016/07/26
    “大事なのは15TBのデータを4.4秒で処理できるというスピード感です。処理を投げて帰ってくるまでの時間が短いと、思考の中断が減ります”
  • JupyterからSpark clusterを操作できるlivy + sparkmagicを試してみた - once upon a time,

    Spark Summit 2016でもトークがあったSparkのREST serverであるlivyですが、MicrosoftがHDInsight上のSpark clusterとJupyterをlivyを使って繋げられるようにしたと聞いて、早速試してみました。 Jupyterって何?という方は簡単に言うと、ブラウザで各種言語のREPLが動くものと思ってもらえばいいです。 詳細は過去に書いた以下の記事を読んでみてください。 techlife.cookpad.com livyとは livyはSpark clusterをコントロールするためのREST Serverです。 Microsoftはこれとjupyter notebookのsparkmagicを使ってHDInsightとjupyterをつなげるようにしているそうです。 MSの取り組みはSpark Summit 2016のトークがわかりやす

    JupyterからSpark clusterを操作できるlivy + sparkmagicを試してみた - once upon a time,
    daisukebe
    daisukebe 2016/07/12
    そんでもってのlivyか、ありがたい
  • そのモデル、過学習してるの?未学習なの?と困ったら - once upon a time,

    移転しました。 https://chezo.uno/post/2016-05-29-sonomoderu-guo-xue-xi-siteruno-wei-xue-xi-nano-tokun-tutara/

    そのモデル、過学習してるの?未学習なの?と困ったら - once upon a time,
    daisukebe
    daisukebe 2016/05/30
    "desired accuracy、つまり求める精度に対して低すぎないか、訓練データの性能だけ高すぎないか"
  • データを一箇所に集めることでデータ活用の民主化が進んだ話 - once upon a time,

    先日、この記事を読んで分析のハードルを下げること大事だよね、というのを思い出したのでつらつらと書いてみようと思います。 qiita.com 内容としては正直タイトル詐欺で、SlackからRDSにクエリ発行できるようにして、各種権限を持っているエンジニアでなくても分析できるようになったよ、という話です。 ここでいう「データ活用の民主化」というのはかっこ良く言ってみたかっただけで、「データ分析を生業にしている人以外もデータを活用してビジネスを進められるようになる」というくらいのニュアンスだと思って下さい。 「データ分析」というとアナリストの人がやること、みたいな職務が分かれている環境もあるとは思いますが、そうではない会社(前職)の一例です。 データ活用が広まった流れ 数秒〜数十秒で対話的にクエリが返ってくると、トライアンドエラーが100倍くらいできる 今まで実行計画を気にして避けていたことにガ

    データを一箇所に集めることでデータ活用の民主化が進んだ話 - once upon a time,
    daisukebe
    daisukebe 2016/05/09
    “数秒〜数十秒で対話的にクエリが返ってくると、トライアンドエラーが100倍くらいできる ”
  • 転職しました - once upon a time,

    はじめての転職エントリです。 一部の方にはお伝えしましたが、先週からClouderaで働いています。 まとめ Ruby大好きポエム プロダクトエンジニアポエム データ大好きポエム お前だれよ? kawasaki.rbやMachine Learning Casual Talks、Julia Tokyoなどのミートアップをやってます。 なお、今後もコミュニティ活動は続けていきたいと思います。 Rubyが好きでクックパッドに入った 仕事でまったくRailsを書いていない人だった*1のに、「Rubyが好きです!Rubyistなら一度は働いてみたいです!NLP機械学習はやってきたんですが、世の人の役に立つものを作って使ってもらいたいです」とミーハーな気持ちで挑んだのですが、なんとか拾ってもらえて2年8ヶ月働くことができました。 「Rails書いたことないのに採用されて驚いた」と飲んだ時に話したら、

    転職しました - once upon a time,
    daisukebe
    daisukebe 2016/03/30
    "MatzとDougが僕の人生を変えたと言っても過言ではない"
  • 1