タグ

2016年11月30日のブックマーク (4件)

  • Google翻訳でとても仕事で助かった話 - kuenishi's blog

    Google翻訳がニューラルネットワーク応用で「さらに進化」。翻訳ソフト感うすれ、流暢さを身につける - Engadget 日版にもあるように、新しいNMTのGoogle翻訳はこれまでの機械翻訳とは段違いの性能で評判だ。わたしも少しずつ使ってみたりしていたのだが実際に職務でインパクトがあったのでここに記録しておこうと思う。 ご存知の方もいると思うが、わたしはApache Mesosを使ったソフトウェアの開発を仕事にしている。これは単体のサーバーでも動作するので、開発するときはほとんど1台または2台くらいのサーバーを使っている。しかしながら、実際の環境ではもっと多くのサーバーがクラスタとなって動作する。当然、複数のサーバーで動作するときしかでない問題は多い。詳しくは省略するが、今回もその件に漏れず複数サーバーないと出ない問題に当たって、それ自体はMesosの仕様を見逃していたせいなので修正

    Google翻訳でとても仕事で助かった話 - kuenishi's blog
    muddydixon
    muddydixon 2016/11/30
    わかる“よく訓練された俺達は、同じ意味不明なら日本語よりも英語の方が理解できるのだ”、あと身長は伸びない
  • 大量接続に耐えるWebSocketアプリケーションサーバ構築のコツ - pixiv inside [archive]

    WebSocketの扱うサービスでは、長時間のコネクション、再接続処理、プロキシ、ロードバランサなど、インフラの面で多くの問題を抱えがちです。弊社のサービス「pixiv」の9周年企画でも、この問題に直面しました。 実際にそこで構築したインフラの事例をもとに、運用に使えるWebSocketサーバの構成について、pixivインフラ部の南川からご紹介します。 * 9周年企画 “黒歴史”をロケットで宇宙に飛ばす pixiv歴史 そもそも WebSocket とは? WebSocketはTCP上で動く双方向通信のための通信規格です。 Webページの読み込みで行われているような、クライアントがサーバにデータを要求し、サーバはクライアントにレスポンスを返すというHTTPの通信ルールとは違います。サーバと長時間コネクションを確立し、Socketのようにデータのやり取りを行います。そして、コネクションを

    大量接続に耐えるWebSocketアプリケーションサーバ構築のコツ - pixiv inside [archive]
  • 【実録保存版】社員紹介からの採用決定数が一気に4倍アップした話 | 株式会社LIG(リグ)|DX支援・システム開発・Web制作

    みなさんこんにちは、人事部長のそめひこです。 最近、大学時代の友人であるようこ(写真右)が、LIGにジョインすることになりました。正直、昔の友人と一緒に働けるのは楽しいですね。 というわけで、人事・採用担当者の皆さま、リクルーティング活動の調子はいかがですか。 僕自身も格的に採用業務に携わって早6ヶ月、半人前ながらも様々なアクションを一気に行い、中でも社内で大々的に行ったリファラルリクルーティング(縁故採用)の促進が、いい結果を残すことができました。 LIGのみなさん、当にありがとうございました!!! 日はLIGのリファラルリクルーティングについて、そして自分なりに振り返った考察を書いていこうと思っております。今後リファラルリクルーティングを行っていこうと思われている採用担当者様のお役に立てれば幸いです! おさらい:リファラルリクルーティングって何? リファラルリクルーティング(縁故

    【実録保存版】社員紹介からの採用決定数が一気に4倍アップした話 | 株式会社LIG(リグ)|DX支援・システム開発・Web制作
  • pandasにsqlでよくやる処理をやらせてみる | mwSoft

    概要 pythonによるデータ分析入門を参考に、MovieLens 1Mを使ってsqlで普段やってるようなこと(joinとかgroup byとかsortとか)をpandasにやらせてみる。 ファイルの読み込み 落としてきたファイルを解凍すると、movies.dat、rating.dat、users.datという3つのファイルが入っているので、read_csvで読み込む。 import pandas as pd movies = pd.read_csv( 'ml-1m/movies.dat', sep='::', header=None, names=['movie_id', 'title', 'genres'] ) ratings = pd.read_csv( 'ml-1m/ratings.dat', sep='::', header=None, names=['user_id', 'mo