タグ

checkpointのブックマーク (1,961)

  • PyCon APAC 2017 に行ってきた #pyconapac2017 - massa142's blog

    はじめに マレーシア・クアラルンプールにて 2017/8/26~2017/8/27 に開催された PyCon APAC 2017 の参加メモです。 pycon.my すでにあるまとめとか PyCon APAC 2017 参加レポート - c-bata web PyCon APAC 2017 in マレーシア に参加 — 株式会社CMSコミュニケーションズ 全体を通しての感想 英語が公用語なので、街でのコミュニケーションは楽だった マレー語訛りなのかテンポがはやい話し方になかなか慣れなかったけど 去年の韓国でのAPACではframeworkやasyncといったwebに関するトークが多かったけど、今年はデータ系がほとんどだった 初日のKeynoteスピーカーのLuisと仮想通貨の話ができて有意義だった ゲームPC40台でマイニングしてるガチ勢だった お前もすぐマイニング始めろって言われた 2日

    PyCon APAC 2017 に行ってきた #pyconapac2017 - massa142's blog
  • Pythonエンジニア ファーストブック

    このの概要 データ分析,Web 開発などをはじめ,さまざまな場面で利用されるPython書は,これからPython エンジニアになる/なりたい人のための,Pythonによる開発に業務として取り組むために必要な知識と心構え,開発の流れ,事前に準備しておきたい環境の用意などを1 冊にまとめた書籍です。Python 3系による開発の基,文法はもちろん,スクレイピングデータ分析,Web 開発など,現在開発の現場で求められている知識と開発の流れを学ぶことができます。 こんな方におすすめ Python による開発・プログラミングに取り組みたい新人・若手エンジニア 第1章 Pythonの動向 その特徴,歴史とコミュニティの紹介 1.1 Pythonの特徴 1.2 Python歴史 1.3 Pythonのコミュニティ 第2章 最低限知っておきたいPython言語の基 Pythonで開発を始め

    Pythonエンジニア ファーストブック
  • https://slideship.com/

    https://slideship.com/
  • 「みんなのGo言語」を読んだ - massa142's blog

    みんなのGo言語【現場で使える実践テクニック】 作者: 松木雅幸,mattn,藤原俊一郎,中島大一,牧大輔,鈴木健太,稲葉貴洋出版社/メーカー: 技術評論社発売日: 2016/09/09メディア: 大型この商品を含むブログ (3件) を見る 業務でGoを書くことになったのがきっかけで、「みんなのGo言語」を読んだ。 Goの経験は、1年ちょっと前に A Tour of Go やって、CLIツールとか書いたことある程度だった。 github.com 結果として、このから Goらしいプラクティス 仕事で使えるテクニック を知ることができたおかげで仕事が捗った。 タイトルにもある通り、「現場で使える実践的なテクニック」という趣旨が各章で意識されていた。薄いだけどカバー範囲が広く内容が詰まっていて、とても読み応えがある。 特に「第1章 Goによるチーム開発のはじめ方とコードを書く上での心得」と

    「みんなのGo言語」を読んだ - massa142's blog
  • Regional Scrum Gathering Tokyo 2017 に参加してきた #RSGT2017 - massa142's blog

    はじめに 2017/1/12~2017/1/13 に開催された Regional SCRUM GATHERING Tokyo 2017 に参加してきたので、その参加メモです。 Regional SCRUM GATHERING Tokyo 2017 http://2017.scrumgatheringtokyo.org/ Regional SCRUM GATHERING Tokyoは、スクラムの初心者からエキスパート、ユーザー企業から開発企業、立場の異なる様々な人々が集まる学びの場です。講演やワークショップ、そして参加者同士の交流を通じて、世界最前線の情報から日の現場での工夫まで多くの知見を得られます。 参加動機 SQUEEZEの今のチームでもスクラムを最近始めたので、 スクラムに関して改めて勉強したい 実践的な知見が得たい という動機から参加しました。 個人的には2015にCertifi

    Regional Scrum Gathering Tokyo 2017 に参加してきた #RSGT2017 - massa142's blog
  • 開発部門における組織づくりの「虎の巻」 (2017/01/18 19:45〜)

    注意 現在X(旧Twitter)でのソーシャルログインができない事象を確認しています。事前にX(旧Twitter)側で再ログインした上でconnpassのソーシャルログインを行うか、 「ユーザー名(またはメールアドレス)」と「パスワード」の組み合わせでのログインをお試しください。合わせてFAQもご確認ください。 お知らせ 2024年9月1日よりconnpassサービスサイトへのスクレイピングを禁止とし、利用規約に禁止事項として明記します。 9月1日以降のconnpassの情報取得につきましては イベントサーチAPI の利用をご検討ください。 お知らせ connpassではさらなる価値のあるデータを提供するため、イベントサーチAPIの提供方法の見直しを決定しました。2024年5月23日(木)より 「企業・法人」「コミュニティ及び個人」向けの2プランを提供開始いたします。ご利用にあたっては利用

    開発部門における組織づくりの「虎の巻」 (2017/01/18 19:45〜)
  • Scrapy入門(1) - Qiita

    Spiderの作成 次にコンポーネントの一つであるSpiderを作成します。 Spiderにはクロールの処理を開始するためのURLのエンドポイントと、 URLの抽出するための処理を記述します。 # -*- coding: utf-8 -*- import scrapy class QiitaSpider(scrapy.Spider): name = 'qiita_spider' # エンドポイント(クローリングを開始するURLを記載する) start_urls = ['http://qiita.com/advent-calendar/2015/categories/programming_languages'] custom_settings = { "DOWNLOAD_DELAY": 1, } # URLの抽出処理を記載 def parse(self, response): for hr

    Scrapy入門(1) - Qiita
  • 時間がないベンチャーでも読んだ方が良い本やサイト | ランサーズ社長日記

    ランサーズを起業し8年が経ちましたが多くのを読み漁り、課題解決のヒントをもらったり、正解のない意思決定で思い悩んだ末のあと一歩を踏み出す勇気をもらったり多くのに助けられました。 振り返ると経営のフェーズによって読んでいるの種類も全然違うし、未だに何度も何度も読み返すもあれば、そのタイミングでは参考になったけど1度だけ読んだだけのものまで様々。 自分の血肉になり意思決定に手垢をつけてくれたような「このやサイトがなかったら今がない」というものだけを厳選して経営のフェーズ毎にまとめてみました。フェーズによっては古いもありますが、今でもエッセンスは色褪せてないものを集めてみました。 起業する前 起業する前というのは、そもそも起業すべきなのか、起業するということはどういうものなのかを知るために色々なを読みました。起業家の体験談、起業というものを体系的に扱っているもの。その中で特に背中を

    時間がないベンチャーでも読んだ方が良い本やサイト | ランサーズ社長日記
  • Pythonと私の想い出 #pyconjp - massa142's blog

    はじめに この記事は、PyCon JP Advent Calendar 2016 13日目の記事です。 テーマ 「Pythonと私の想い出」 3日目の@rhoboroが書いたPythonと私の想い出 - PyCon JP Advent Calendar 2016の構成を真似て、自分の想い出をつらつら書いていこうと思います。 Pythonと私の想い出 想い出その1 - Pythonを知ったきっかけ - 前職のアライドアーキテクツで、関根さん(@checkpoint)がPythonの良さを社内で宣伝してたのがきっかけだと思います。PHPJavaがメインの会社だったんで、あまり普及活動はうまくいってなかったですが... 当時なんでPythonに興味をもったかを思い出すと The Zen of Python かっこいい シンプルな構文 美しい -- ここまでは@rhoboroと同じ感想 -- 次

    Pythonと私の想い出 #pyconjp - massa142's blog
  • 情報収集方法まとめ 2016年12月版 - massa142's blog

    はじめに この記事は、ぼくの情報収集方法 | tsub's blogのインスパイア記事になります。 ちょうど良い機会なので現時点での情報取集のやり方をまとめておこうと思います。 どうやって情報収集しているか Twitter はてなホットエントリー HBFav Podcast GitHub Qiita メルマガ 社外Slack Twitter ちゃんとした技術的発信をしている人のアカウントは積極的にフォローしてます。 Twitterのタイムラインを追ってるだけで楽しいので、仕事中に身過ぎないようにするのが大事になってきます。 「こういうの(※技術情報)どうやって見つけてくるんですか?」という若者の質問に対して「たまたま Twitter で見かけた」と答えるときの何となく後ろめたい感じよ……(もっと情報収集術みたいなのを期待されてたのだと思う)— Takuto Wada (@t_wada) 2

    情報収集方法まとめ 2016年12月版 - massa142's blog
  • django-actionlogの紹介 / fujimisakari blog

    この記事はDjangoのAdventCalandar2016の21日目の記事です。 Djangoのサードパーティのdjango-actionlogについて紹介します。 django-actionlogについてdjango-actionlogはRequest毎に任意の出力形式でDjangoのシステム関連ログを残すことができます。 対応出力形式は以下の3つがあります 標準出力 File出力 fluentd ユースケース大きなユースケースとしては以下で利用してます パフォーマンスログを残す User毎のアクセスログとして 任意のログを残す 開発時のrequest毎パフォーマンス確認 パフォーマンスログを残すdjango-actionlogを利用すると、リクエスト毎に以下のパフォーマンスログが残せます。 正常時 time url view_name request_id status_code m

  • Djangoのカスタムコマンドを作成してコマンドラインから実行する - Qiita

    Djangoのカスタムコマンドを作成してコマンドラインから処理を実行する はじめに Webアプリケーションの開発を行っていると、コマンドラインから特定の処理(集計処理、API呼び出し、メール配信など)を実行したい場合があります。この記事ではDjangoアプリケーションをコマンドラインから実行する処理の書き方を紹介します。 Djangoのコマンドラインツール Djangoにはデフォルトでコマンドラインツールが付属しており、例えば次のような処理をコマンドラインから実行することができます。 python manage.py startapp sample => アプリケーションの作成 python manage.py migrate => DBマイグレーションの実行 python manage.py shell => インタラクティブShellの起動 python manage.py runse

    Djangoのカスタムコマンドを作成してコマンドラインから実行する - Qiita
  • Django ChannelsでできるリアルタイムWeb - Qiita

    はじめに この記事は、Django Advent Calendar 2016 17日目の記事です。 Django Channelsとは Django Channels — Channels 0.17.2 documentation Channels is a project to make Django able to handle more than just plain HTTP requests, including WebSockets and HTTP2, as well as the ability to run code after a response has been sent for things like thumbnailing or background calculation. Channelsは、DjangoがWebSocketやHTTP2などの単純なHTTP

    Django ChannelsでできるリアルタイムWeb - Qiita
  • Pythonでネットワークプログラミング / fujimisakari blog

    この記事はPythonのAdventCalandar2016の15日目の記事です。 Goでネットワークプログラミングの投稿に引き続き、Pythonでネットワークプログラミングの いくつかのパターンを実装してみましたのでサンプルコードと簡単な解説をしたいと思ってます。 以前、このLinuxネットワークプログラミングバイブルを読んで 第5章のIOの多重化の部分が非常に興味深くハンズオンしてきちんと理解したいと思ってたので C言語で書かれていたロジックをPython3.5.2で書き直してみました。 まず、投稿タイトルのネットワークプログラミングについては、 TCPプロトコルを利用したサーバ側のSocket通信の実装を指してます。 Socket通信にて、シンプルな通信からI/O多重化、非同期I/O、ノンブロッキングI/Oを利用したパターンを紹介し、 これらの実装を実現するための技術として、sele

  • Scrapy入門(4) - Qiita

    はじめに Scrapy入門(1) Scrapy入門(2) Scrapy入門(3) 前回の記事では、Scrapyを利用してファイルをダウンロードする方法を試しました。今回はSpiderに対して、コマンドラインから引数を渡す方法をご紹介します。 Spiderの作成 今回はQiitaのアドベントカレンダーのカテゴリページの内容を取得するSpiderを作成します。Spider内では対象となるカテゴリーをコマンドライン引数として受け取り、対象となるURLを動的に生成し、ページの内容をダウンロードします。 # -*- coding:utf-8 -*- import scrapy class QiitaSpider(scrapy.Spider): name = 'qiita_spider' def start_requests(self): # クローリング対象のURL url = 'http://qi

    Scrapy入門(4) - Qiita
  • HTTPSプロキシの仕組み - ソフトウェアエンジニア現役続行

    例えば、以下のようなネットワークを考えます。 ┌──────────┐       ┌─────────┐       ┌───────────┐ │ クライアントPC │ <───> │ プロキシサーバ │ <───> │ HTTPSサーバ  │ └──────────┘       └─────────┘       └───────────┘ 192.168.1.40            192.168.1.2            https_server.jp(1.1.1.1) HTTPSサーバはインターネット上にあり、プロキシサーバとHTTPSサーバの間にはルータがあるものとします。 プロキシサーバ経由でHTTPSの通信を行う場合は、以下のようなリクエストを発行し、プロキシサーバに接続先のHTTPSサーバから公開鍵と証明書を転送するように、指示を行います。 CONNECT s

    HTTPSプロキシの仕組み - ソフトウェアエンジニア現役続行
  • Scrapy入門(3) - Qiita

    はじめに Scrapy入門(1) Scrapy入門(2) 前回までの記事では、Scrapyを利用してWebAPIをコールする方法を試しました。今回はファイルのダウンロード処理を行うSpiderを作成してみましょう。 Spiderの作成 今回はMLBに関するデータ(zipファイル)をダウンロードするSpiderを作成します。実際のデータはSean Lahman Databaseで公開されているデータを利用します。ダウンロードしたzipファイルは任意のディレクトリに保存することにしましょう。 Spriderの処理の流れは次の通りです。 start_urlsのページの内容を取得 取得したページの内容を解析し、aタグのhrefにcsvの文字列が含まれているurlを取得 上記で取得したurlの内容を取得 # -*- coding:utf-8 -*- from scrapy import Spider

    Scrapy入門(3) - Qiita
  • 誰と働いているかという視野のエンジニア評価軸について | F's Garage

    うだうだ記事を書く。あんまりブロガーさんのように、懇切丁寧に説明する意識はない。うざかったら途中で離脱推奨です。 とある理由で、番のデータを修正することになった。休日だったので僕が対応したのだが、その部分のデータ修正の経験がなかったので、ソースコードから調べて依存関係を解決するSQLを書き、Slackを通じてコードレビューをお願いして、無事修正タスクは完了した。 所要時間は、作業開始から40分。 日常的にソースコードをいじっていて、データ構造を熟知しているメンバーなら、5分もかからないで終わる作業だろう。もしそうならば、8倍の速度差が生まれている。 その8倍の速度差が顧客満足度に影響をおよぼすのであれば、その人は、僕よりも8倍速で得られる顧客満足度の分だけ、仕事ができると評価ができる。 その人材がいれば5分、いなければ40分。この差はとても大きい。その差が大きいと思うのであれば、そういう

    誰と働いているかという視野のエンジニア評価軸について | F's Garage
  • Not Found

    Wantedlyは、運命のチームや仕事に出会えたり、人脈を広げ、ビジネスの情報収集に使えるビジネスSNSです。

    Not Found
  • Re:dashとDocker for Macでらくらく分析・可視化環境構築

    Re:dashとDocker for Macでらくらく分析・可視化環境構築 analyticsdockerpythonRedash ビザスク開発者ブログ第一弾記事を書かせてもらうことになりました、 @shinyorke(Shinichi Nakagawa)ともうします. 我々ビザスク(https://service.visasq.com)の開発チームでは、データに基づいた客観的な観点をベースに施策を実施しています. 現状はエンジニアGoogle SpreadsheetsやGoogle Apps Script(社内では「ガス(GAS)」と呼ばれています)、Slackを駆使して数値の可視化や共有をしていますが、 ひとつの画面、いわゆる「ダッシュボード」で分析・可視化を行ってチーム全員で共有しよう! 将来的にはビジネス側のメンバーにも数値出しや可視化をしてもらおう! という機運が高まり、分析・

    Re:dashとDocker for Macでらくらく分析・可視化環境構築