サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ドラクエ3
blog.freedom-man.com
macOS Sierraでvimで Ctrl-[ でコマンドモードに抜けるときにIMEを無効化する処理をHammerspoonを使って設定してみました。 Hammerspoon HammerspoonはmacOSに関する様々な処理を自動化するツールで以下のような機能を持っています。 キーリマップ アラート、通知の表示 ウィンドウ操作(移動、リサイズ) ファイル変更の監視 アプリケーションイベントの監視 USB、Wifiイベントの監視 AppleScriptの起動 luaスクリプトで設定 キーリマップに関する設定は以下のリンク先が詳しいです。 Karabiner 使えない対策: Hammerspoon で macOS の修飾キーつきホットキーのキーリマップを実現する – Qiita Hammerspoon と Karabiner Elements でキーカスタマイズした – kitak.bl
#!/usr/bin/env python # -*- coding:utf-8 *- import falcon class HogeResource(object): def on_get(self, req, res): print(req.headers) print(req.params) print(req.cookies) res.status = falcon.HTTP_200 res.body = 'Hello World' res.content_type = 'text/plain' def on_post(self, req, res): print(req.headers) print(req.method) print(req.protocol) print(req.content_type) print(req.stream.read()) res.statu
先日、SPMというコマンドラインツールをリリースしましたが、golangでコマンドラインツールを作成する上で便利だったツールや考え方等を備忘として残します。 CLIのベース 3rd Partyのライブラリを利用せずとも標準のflagパッケージで処理を書けますが、色々と面倒なのでurfave/cliのパッケージを利用しました。このパッケージは以下のように、簡単にサブコマンドやフラグを定義できます。 app := cli.NewApp() app.Name = "spm" app.Usage = "Salesforce Package Manager" app.Version = APP_VERSION app.Commands = []cli.Command{ { Name: "install", Aliases: []string{"i"}, Usage: "Install salesfo
俺もビッグデータの分析とかやってみたいなー →Twitterとか身近なビッグデータっぽくて扱いやすそう →よし、アイドル(坂道シリーズ)に関するツイート集めて分析してみよう という軽いノリでFluentd + ElasticSearch + Kibanaというよくある構成で分析基盤(?)を作ってみました。 今回は基盤作るまでのインストール&設定地獄の備忘録。(自力でやんなくてもDockerやChefで一発で構築できるモノが出回ってそうですが…) 全体構成 Fluentdのfluent-plugin-twitterを使ってStreamingAPI経由で乃木坂、欅坂に関するデータを取得 →データをElasticSearchにぶん投げる。kuromojiのanalyzerで日本語の形態素解析 →Kibanaでビジュアライゼーション という構成 KibanaやElasticSearch自身にも認証
Fluentd+ElasticSearch+Kibanaでアイドルデータ分析基盤を作ってみたの回で、FluentdとTwitter Streaming APIを使ってS3にツイートデータを保存したので、このデータをHadoopを使って解析してみます。 今回はMeCabを使って形態素解析してワードカウントを取るような教科書的なMapReduceを試してみました。Hadoop Streamingを使ってPythonでMapper、Reducerを書いていきます。 環境 OS: Mac OS X(El Capitan) Python: 2.7.11 Hadoop: 2.7.1 Hadoopのインストール&設定 以下のURLを参考にインストール&設定すればOK。 分散処理に入門してみた(Hadoop + Spark) Macでhadoopをちょっとだけ動かしてみる – Qiita Mac OS X
Dokku AlternativeというOSSを使うと、Dockerを利用して herokuみたいなPaaSを作れるということなので試してみましたー。 Dokku Alternativeは本家のDokkuに色々と機能を追加したOSSみたいです。 参考URLはこちら↓ Dokku Alternative·個人用PaaSにどうぞ。Dokkuに便利な機能を追加 MOONGIFT Herokuのように簡単に使えるDockerベースのPaaS | KRAY Inc Dockerを使ったミニPaaSのdokkuをパワーアップさせた「Dokku Alternative」を試す – さくらのナレッジ 今回はまっさらなVMに入れてみます。 1. Ubuntuインスタンスを立ち上げる 今回はDigitalOceanで立ち上げました。 スペックはメモリ512MBの一番安いプランで、OSはUbuntu 14.04
CREATE TABLE oauth_clients (client_id VARCHAR(80) NOT NULL, client_secret VARCHAR(80) NOT NULL, redirect_uri VARCHAR(2000) NOT NULL, grant_types VARCHAR(80), scope VARCHAR(100), user_id VARCHAR(80), CONSTRAINT clients_client_id_pk PRIMARY KEY (client_id)); CREATE TABLE oauth_access_tokens (access_token VARCHAR(40) NOT NULL, client_id VARCHAR(80) NOT NULL, user_id VARCHAR(255), expires TIMESTAMP NO
BoxはDropbox的なストレージサービスで、Businessプラン以上は容量無制限だったり 文書の暗号化が標準サポートだったりする、エンプラ向けなサービスになります。 ということで、今回はBoxのAPI(ContentAPI)の使い方を説明していきます! SalesforceからBox APIを叩くサンプルを作っていきます。 1. アプリケーションの設定 OAuth2.0を利用するので、twitterやfacebook等のようにアプリケーションを設定します。 developersのサイトでログインします。 boxアカウント持っている場合は、MyAppsからログインして 持っていない場合はSignUpで無料の開発者用のアカウントを作成する必要があります。 ログイン後、初めてアプリケーションを作成する場合は以下の画面が表示されるので、 そのまま「はじめに」をクリックします。(これ日本語訳が
Auth0とは認証基盤のクラウドサービスであるIDMaaSのサービスです(多分) Auth0自体がRDBMSやLDAP、AD、SocialSignOn(OAuthやらOpenID Connect)やSAMLの 認証基盤のハブとなることで、利用アプリ側はプロトコル間の差異を気にすることなく 同一の方法で複数サービス、多様なプロトコルの認証基盤を利用することができます。 また、外部サービスをIdPとする以外にもAuth0自体にユーザリポジトリを持つことができたり 自分がホスティングしているDBサーバを認証基盤として利用することができます。 サーバサイドのソフトウェアインストールが必要になりますが、LDAP、ActiveDirectoryも利用可能です。 それ以外にもIPアドレスで認証できたりMicrosoftのIDMaaSであるWindows Azure Active Directoryを利用
Web+DB PRESSとか読んでてhubotを使ったChatOps的なところが非常に興味深かったので chatterで出来ないかなーと思ってadapterを探したものの 用途にマッチしたものが無かったので自分で作ってみました。(npmデビュー作w) ↓↓↓ tzmfreedom/hubot-chatter hubotとは hubotとはgithub社が開発したボットのフレームワークで 外部サービス/インターフェースと連携可能なadapterと呼ばれるプラガブルなモジュールと ボットの動作を規定するスクリプトによって様々なボットを簡単に開発することができます。 hubotに関してはこちらが詳しいので、ご参考ください↓ 第1回 Hubotとは何か:GitHub社謹製! bot開発・実行フレームワーク「Hubot」|gihyo.jp … 技術評論社 チャットボットでチーム開発効率化入門(1):
Salesforceの導入支援とかしてると、VBAを使ってSalesforceのAPIを叩きたくなることは多々あります。 Excelでちょっとデータ加工してExcelから直でデータインポートしたいんだよなー、とか Excelで作ったオブジェクト定義書からSalesforceにオブジェクト作りたいんだよなー、とか ちょっとデータ見たいんだけど、データローダ使ってCSVインポートして…てやってられるか!とか プロトタイプでガーってオブジェクト作ったけどオブジェクト定義書作ってない!Salesforceから一気に定義書作れたら良いのに!とか Excel内でやりたいこと、色々ありすぎて困ります。 業務用のツールとか作れば社内でモテること間違いなし! ということで今回はVBAからSalesforceのAPI叩いてみることにします。 ちなみにForce.com Office Toolkitが有りますが
今回はOpenAM+OpenIG+PolicyAgentなSSOをやってみます。 以下のような構成になります。 フローを簡単に説明すると 1. UserAgentがWebサーバにアクセス(初回) 2. Policy Agentがリクエストをインタラプト、Cookieが入っていないのでOpenAMに認証要求リダイレクト 3. OpenAMで認証後、Webサーバにリダイレクト 4. 認証されている(=Cookieが入っている)のでPolicy AgentはCookie値をOpenAMに問い合わせて ユーザ名/パスワードを取得 5. Policy Agentが取得したユーザ名/パスワードをヘッダに入れてOpenIGにリクエスト (パスワードは暗号化されている) 6. OpenIGはログイン画面がリクエストされた時のみヘッダからユーザ情報を取得し、認証リクエストを行う (通常のフォームPOSTを模
MicrosoftのサービスのSharepointにREST APIで接続しようとリファレンス見たら、全然わからなかったので、簡潔に書いてみます。 ちなみに、Webのリファレンスたどって色々いじって出来た!っていうパターンなので、もしかしたら間違いがあるかもしれないのでご容赦ください。 流れとしては以下になります。 SharepointでREST API用アプリを作成 作成したアプリに権限を付与する。 1で作成したアプリのclient_idとclient_secretでOAuth認証を使ってaccess_tokenを取得。 access_tokenを使ってREST APIをコールする。 1. SharepointでREST API用アプリを作成する。
激安VPSのDigitalOceanで、dockerのコンテナでZabbixを使って ストーキング監視サーバを立てるのが今回の目的。 何でZabbixかっていうと、先日のOSC 2014でトピックに上がっていて 個人的に興味持ったので、その検証用って感じっす。 何でDigitalOcean&dockerかっていうとお金がないから今熱いからです! で工程としては 1. DigitalOceanでサーバ立てる 2. dockerをインストール 3. dockerでコンテナを立てる 4. コンテナOSにZabbixとかインストール 5. Zabbixとapacheを起動 6. 監視対象サーバにZabbixエージェントをインストールして起動 7. WebGUIで設定 って感じ。 1. DigitalOceanでサーバを立てる DigitalOceanはAWSみたいにサーバを自由に作ったり壊したりで
ただいま絶賛LPIC Level2の勉強中! ということでSambaのお勉強してるんですが、WindowsからSambaサーバ(VM)に繋ごうとしたときにクソハマったのでそのお話。 どういうハマりかっていうと Sambaユーザでログインしないと利用できないリソースを作りたい Windowsのユーザ名・パスワードがSambaのユーザ名・パスワードと異なる っていう状態の時にSambaサーバにブラウジングすると… 認証プロンプトすら出ずにネットワークエラーのログインプロンプトが出て、ログインできない。 →Windowsのクレデンシャルと異なるわけだから認証プロンプトは出てほしい。 map to guestの値を[Bad User]にするとSambaサーバにアクセスできてpublicなフォルダに関しては閲覧できるが、ユーザ制限をかけているフォルダにアクセスすると認証プロンプトが出るものの、正確な
Dockerはhttps://index.docker.io/にPublicなリポジトリを持てるんだけど docker-registryっていうのをdockerイメージを使えば Privateなリポジトリを超簡単に持てる&S3に永続保持できるらしいので試してみた。 Publicなところに、AWSのClientIDとかSecretKeyとかうっかり保存しそうな私みたいな人には超オススメ。 やりかたは超簡単でregistry立ててpushするだけ! 1. docker-registryをpullしてコンテナー化
OpenID Connectローンチおめでとう! ということで、OpenID ConnectはOAuth 2.0の技術を使ってるぐらいしか知らず、 OpenID 2.0もわりとさっぱりだったので最近勉強してたんですけど、よし使ってみるか!って思って ライブラリ見てたら、JanrainというSaasを発見したので紹介してみるっていう流れ。 なお、Janrainに関する日本語の情報がとても乏しく、さらにJanrain経験3時間くらいのスライムなので 色々と間違っているかもしれませんが、いつも通りご容赦を。 で、Janrainは認証系のSaasで ・OpenIDとかOAuthとかそういう系のソーシャルサインオンを提供 ・色んなWebアプリ(認証プロバイダ)に対応 ・Janrain自体にもユーザ情報を確認できるらしい(未確認) ・シングルサインオンもできます ・ユーザ登録数とかログイン数とかの分析
今回はdockerコンテナで動くmysqlデータをホストOS上にセーブすることで、 commitしなくてもデータを維持する!ということをしてみます。 今まではコンテナ落とす度にちゃんとcommitしないと、次に起動するときにデータが無くなり Immutable Infrastructureとは程遠い感じになっていたので サーバーは機能だけを提供して、データは別にするという疎結合な感じにするっていうのがモチベーション。 本日の参考サイトはこちら↓ http://www.zabbix.jp/documents/installation/install-rpm http://cpw.hatenadiary.jp/entry/2013/08/20/220306 考え方としては、ホストOSにmysqlデータを格納してそれをコンテナがマウントして使うって感じ。 docker+zabbixの回で既にmy
このページを最初にブックマークしてみませんか?
『freedom-man.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く