昨年から告知されていたようにGoogleマップのマイマップAPIが廃止されてしまったので、API経由で同様のことをやるには今後はFusion Tablesを使う必要があります。Fusion Tablesは便利なんですけど、PC上での既存のマイマップからのデータの移行が以前試したときはうまくできなかったので、やり方を確認して再度チャレンジしてみました。 結論から言えばKML経由でできるんですが、スタイルやアイコンのデータが引き継がれません。簡単なパーサを書くだけで良さそうなんですが、Fusion Tables側の地図表示が対応していない部分もあるような感じで、もう少し調べる必要あり。 あと、Fusion Tableのデータをマップ上で編集するには「My Map Editor」というツールが公開されているのですが、まだベータ版で、マーカーが置けるだけでパスを作ったりはできないので、マイマップの
google Fusion Tables でグラフを作成する際、なかなかcsv の取り込みができなかったのでメモ。 ついでに、google Fusion Tables の使い方もメモしようと思います。 1. googleドライブにアプリ追加 2. Fusion Tables を検索して、「+接続」をクリック 3. サンプルで取り込むデータを準備(wikiの人口から、人口推移をcsv化しました) 4. Fusion Tables(試験運用)をクリック 5. 「参照」からファイルを指定し、Character endodingを「Shift-JIS」にして「Next」クリック ・・・と、本来はうまく取り込みができるはずですが、 ”loading”が表示されたまま30秒以上経っても、どうも画面が進みません。 しょうがないので、取り込み先テーブルを作成し、インポートする方針に変更します。 6. 「C
Fusion Table Code <script type='text/javascript'> var mapCanvas, layer, infoWnd; var ftTableId = "1fLFHL3QzEauLeuuN0aRAeuEVRNpMVC5y1Y-j8w"; function init_map() { /* * (2)地図の初期化 */ var mapDiv = document.getElementById("map_canvas"); mapCanvas = new google.maps.Map(mapDiv, { mapTypeId : google.maps.MapTypeId.ROADMAP }); // (2) FusionTablesLayerをクリックした時に表示される情報ウィンドウの代わりに表示する情報ウィンドウを作成 infoWnd = new g
残念ながら、Fusion Tablesは廃止されることになりました。 Notice: Google Fusion Tables Turndown – Fusion Tables Help 誰でも、地図を使った情報配信が出来る時代に…… Fusion Tablesとは「Google ドライブ」で利用できるデータベースです。 今年に入っていろいろと機能が追加されたらしく、以前に比べると非常に便利にそして手軽になっていました。 デモ1 デモ2 目次 1.MAPジェネレーター機能 2.住所等を位置情報に変換 3.Google Map Apiのコードとして出力する 1.MAPジェネレーター機能 以前は、ポイント表示ぐらいしか使えなかったような気がしたのですが、ポリゴンの情報などもアップロードできるようになり、KMLファイルなど位置情報を持つファイルをアップロードした場合、自動的にマッピングしてくれる
Settingメニュー Inputメニュー Chartメニュー Google Fusion Tables に体重を記録していき、グラフを表示するという簡単なアプリを作成しました。使い方は次のとおりです。 Settingメニューで[Create New Table]をクリックします。これで自分専用の格納領域がGoogleクラウド上に作成されます。Inputメニューで毎日体重をつけていきます。2つ以上体重が記録されたら、Chartメニューでグラフが見れます。以下のサイトで体重の値を編集することができます。 http://www.google.com/fusiontables/Home マーケットに公開しました。ここ ソースはここ(Source is here.)。 プログラムの説明 以前書いたように、App Inventorからは簡単にFusion Tablesに接続できます。このアプリは体重
Fusion Tables を使ったマップ Google の Fusion Tables は未だ試験運用の状態ですが、仕様が落ち着いてきたようなので、Maps API と組み合わせ利用してみました。 データ量が膨大なケースに便利です。今回は、神奈川県内にある 8466か所のバス停をプロットしてみました。 まず Google ドライブに入って「Fusion Tables」を作成。 こういう場合にひとつひとつ入力していくのは考えにくいので、以下のようなテキストデータを「インポート」しました。 タブ区切り、緯度(Latitude)と経度(Longitude)はカンマ区切りのペアとしました。 インポートできる形式は .csv, .tsv, .txt となっています。 詳しくは日本語でも説明がありますが、位置情報を Location として定義しなければなりません。 「Change」から 「Type
ソーシャルメディア 13 Fusion Table で表データとMap連携 Google Mapsにスプレッドシート形式に編集されたデータベース・テーブルを表示できる「Google Fusion Table」。ここでは簡単な使い方について解説していこう。 制作・文/井形 信(株式会社ルクス) BROWSER IE7over Firefox3.6over Safari3.1over Chrome10over 01 Fusion Table【1-1】はオンライン上にあるスプレッドシート形式のデータである。Fusion TableのポイントはデータをGoogle Mapsにリアルタイムに連動させられる点にある。このデータ連動をWeb/DBシステムで実現しようとすると、Webサーバー、PHPなどのプログラム、RDBのセットが必要になり、メンテナンスもRDBの知識がなければできない。また、Fusio
検証環境 Chef v11.4.0 Chefにて、同じcookbookを使い、異なった複数の値を与えて 結果を異なったファイルに出力する場合は、variablesを利用する。 当初、この課題に対する解決方法として、 複数の role を作成し、その role 内で異なった値をJSONに入れることにより 実現できると思い込んでいたのだが、run_listでは複数のrecipeとして理解されず、 複数のroleで同じcookbookを利用した場合には後者のみが採用され、 最初に読み込まれた role は認識されなかった。 variablesを利用したレシピをみていこう JSONには ports というkeyに対して、"6379"と"6380"という複数のvalueをもたせる
Chef検証再開。 Chefを設計・運用するうえで、どうしても理解しなければいけないのが、CookbookとRecipeとRole`の関係。 とりあえず、それを理解するためにこのスライドを見てみた。 Resouceは設定の最小単位 Resouceは各種設定の最小単位と解釈しました。 ファイルを配置する、ソフトウェアをインストールする、ユーザを作る、等など。 これらの設定はOSによってコマンドはまちまちですが、それぞれのコマンドの違いはPlatformやらProviderやらで吸収されて、ResouceではそれらのOSの違いを意識せずに設定を指定できるところが良いところです。 RecipeはResourceのリスト スライドに Recipes are lists of Resources と書いてありました。 僕は、「Recipeは一つの操作をするために必要なこと(Resource)がまと
name "webserver" description "The base role for systems that serve HTTP traffic" run_list "recipe[apache2]", "recipe[apache2::mod_ssl]", "role[monitor]" env_run_lists "prod" => ["recipe[apache2]"], "staging" => ["recipe[apache2::staging]"], "_default" => [] default_attributes "apache2" => { "listen_ports" => [ "80", "443" ] } override_attributes "apache2" => { "max_children" => "50" }
# WARNに値を出力するだけ Chef::Log::warn node[:apache][:prefork][:startservers] if "#{node[:roles]}" == 'front_web' default[:apache][:prefork][:startservers] = 36 else default[:apache][:prefork][:startservers] = 500 end
TOP Tips Chef-Soloでレシピを書く前の環境について(Vagrantfile,role,node,data_bags) こんにちは。小宮です。 いつのまにか今年の前半が終了しました。宇治金時がおいしい季節になってしまったようです。 それはともかく前回の続きです。 今回はChef-Soloのレシピを書く前の環境の定義などまでを書きます。 Chef用語などは軽く解説してる、今日から使い始めるChefを見ていただくか定番の入門Chef Soloを見ていただくのが早いんではないかと思います。 Automated infrastructure is on the menuも英語ですがわかりやすいです。 やりたいこととしては以下のとおりです。 Vagrantfileを書いて仮想インスタンスをたてる chefレポジトリを作る chefクックブックを作る nodeを定義する roleを定義す
もちろんchef-soloで右列のシナリオができないということではありません。chef-serverで運用する規模で、典型的と思われるテストシナリオとして考えてみました。今回は右のテストシナリオを実現する方法を考えてみたいと思います。 テスト方法のポイント 先にあげた表の中で、今回特に検討しなければならないのは以下の3点です。 テスト対象ノードの台数が「複数台」 テストするCookbooksが「テストインスタンスによって異なる」 run_listの指定はrole単位 つまりテスト実行時に次の処理が必要になります。 テスト対象ノードの一覧を取得し ノードに適用されたrun_listを取得し run_listにroleが含まれていればrecipe(cookbook)に展開する 適用されたcookbookに応じたserverspecを実行するRakefile 以上の処理を実現するRakefile
こんにちは! 先月ドワンゴは歌舞伎座に引っ越したので"銀座"にあうように人生初の美容院に行ったけど、結果は床屋で切ったのと変わりなかった氏家です。 前回はChefとはなんぞや、というところで終わってしまいましたが、今回は導入編で、 - 最新のChef Solo 11.6.0、Knife Solo 0.3.0 限定 - 導入から実行するまでの、迷わない セットアップ手順 及びファイル構造の新定番! を提案したいと思います。 それは、私がChef Soloを導入しようとしたときに引っかかった インストールして使い始めるまでのとっつきにくさ 開発環境と本番環境をどうCookbookで表せばいいのか 用途の違う複数のサーバーや、複数のプロジェクトを、どう管理するのがよいか 開発メンバーにも秘密にしたい秘匿情報は… といった問題をどう解決したか、そして少しでもChef導入の手助けになればと思っていま
require 'json' file "/tmp/dna.json" do content JSON.pretty_generate(node) end これをrun_listの最後にでも入れておけば、最終的にnodeがもつattributesが確認できてdebug等に使えます。 ついでにAWS OpsWorksで追加されるAttributesを確認する クラスメソッドさんがAWS OpsWorksについて書かれています。 AWS OpsWorksで持っている値をCustom Chef Recipeの中で使いたい! | Developers.IO: 本当はApplicationの値だけでなくて、LayerとかStackで決めた値も取れるかなと期待していたのですが、今回見つける事ができませんでした。 もしかしたら他のところにあるかもしれないので、見つけ次第追記します。 カスタムレシピとして
UNIX系OSのシステムロギングをおよそ20年の長きにわたって支えてきた「syslogd」にも、限界が見えつつあります。その限界を打ち破る機能を備えた新しいシスログデーモンを紹介します。(編集部) 前回までの2回にわたり「syslog-ng」のインストール方法と特徴を解説しました。syslog-ngはキャリアクラスの信頼性や豊富な機能を持ちますが、それと引き替えにsyslogdとの互換性を犠牲にしていました。一方、今回紹介する「rsyslog」は、syslog-ng同様、多くの機能と高い信頼性を実現しながら、syslogdの設定をそのまま使用することができます。 今回から2回にわたり、次世代syslogデーモンのもう1つの候補「rsyslog」を取り上げます。まず今回は、rsyslogのインストール方法を解説します。 rsyslogの特徴 「reliable(信頼できる)シスログデーモン」
Amazon EC2 でAmazon Linuxを起動すると、デフォルトでタイムゾーンがEDT(Eastern Daylight Saving Time: 米国東部夏時間)になっている。 このため、タイムゾーンを日本に変更する必要がある。 /usr/share/zoninfo/Japan を /etc/localtime にコピーすればOK [ec2-user@ip-10-146-21-37 /]$ date Mon Mar 5 16:44:45 UTC 2012 [ec2-user@ip-10-146-21-37 /]$ sudo cp /usr/share/zoneinfo/Japan /etc/localtime [ec2-user@ip-10-146-21-37 /]$ date Tue Mar 6 01:45:17 JST 2012 [ec2-user@ip-10-146-21-
この記事は投稿されてから1年以上経っています。内容が古くなっているかもしれませんので、ご注意ください。 CentOSのタイムゾーンを変更する要領で AWS EC2といってもCentOS版のお話です。 $ date でEC2の時間を見てみると、JST(Japan Standard Time)とずれていたので、EC2に接続した状態で $ sudo cp -p /usr/share/zoneinfo/Japan /etc/localtime とすると日本標準時間になるはずです。 以下のように、シンボリックリンクを張る手段でもいいみたいです。 $ sudo ln -s /usr/share/zoneinfo/Japan /etc/localtime ちなみにタイムゾーンの設定ファイル?は /usr/share/zoneinfo/Japan /usr/share/zoneinfo/Asia/Toky
うめぇヨーグルトソースでもいかがですか。個人差にもよりますが。もしよろしければ。 お久しぶりです。 最近うんめぇ〜と思ってるヨーグルトソースがあるので、書いていこうと思います。 ヨーグルトとハーブ類をもりもり使うので、そういうのが食べられない方にはうんめぇソースではないです。ごめんなさい…。もしよろしければお茶だけも…旦~ 【用意する…
らしい。 We use NTP to synchronise all our servers. I believe that the EC2 time inside instances is actually sourced from the host machine (there's some Xen setting for this which escapes me at the moment). AWS Developer Forums: How accurate are EC2 date/time clocks? ... ホスト側の全サーバでNTPを使っている。EC2のインスタンスはホストから時刻をソースされているので、インスタンス側で時刻を合わせる必要はない(設定しても効果がない)。 # date 05251435 Mon May 25 14:35:00 JST 2009 # d
NTPを導入すべく、Xen上の環境(Linux)でインストール〜動作検証を行ったのですが、見事にハマりました。 そのメモを残しておくことにします。 # 仮想OS上で起こる事象の模様ですので、XenやXenベースの商用プロダクト(Virtual Ironとか。対応されていそうだけど。)を触っている方、気をつけませう。 # VMWareでも似たようなことが起こる可能性があるみたい。 Debian GNU/Linux(etch)でntp(サーバ)をインストール。まぁ普通に以下のような感じ。 # apt-get update # apt-get install ntp ntp-docで、次に/etc/ntpd.confの設定。 serverやrestrictのIPアドレスは適切な値を入力してください。(ここでは4つのNTPサーバとの同期を前提とし、IPアドレスはxxx.xxx.xxx.xxxにして
You have been redirected here because the page you are trying to access has been archived. AWS re:Post is a cloud knowledge service launched at re:Invent 2021. We've migrated selected questions and answers from Forums to AWS re:Post. The thread you are trying to access has outdated guidance, hence we have archived it. If you would like up-to-date guidance, then share your question via AWS re:Post.
This webpage was generated by the domain owner using Sedo Domain Parking. Disclaimer: Sedo maintains no relationship with third party advertisers. Reference to any specific service or trade mark is not controlled by Sedo nor does it constitute or imply its association, endorsement or recommendation.
よく訓練されたアップル信者、都元です。Amazon Linuxは初期状態でNTPによるシステムクロックの同期を行うようになっています。具体的には、ntpdがインストール済みで、自動起動もONになっています。 $ chkconfig --list ntpd ntpd 0:off 1:off 2:on 3:on 4:on 5:on 6:off その設定ファイルは/etc/ntp.confにありますが、このファイルを参照した所、これら4つのNTPサーバを利用して時刻同期を行っているようです。 server 0.amazon.pool.ntp.org iburst server 1.amazon.pool.ntp.org iburst server 2.amazon.pool.ntp.org iburst server 3.amazon.pool.ntp.org iburst NTP POOL P
日本銀行が今年4月に発表した全国企業短期経済観測調査(日銀短観、3月調査)によると、情報サービス業の雇用人員判断DIは「-15」と全産業平均の「-1」を大きく下回った。雇用人員判断DIは、回答企業の雇用人員の過不足についての判断を、業界ごとに指数化したものだ。マイナスの数値が増えるほど、その業界で人手不足が深刻であることを示す。今後も、IT業界では人員が逼迫しそうなことを、調査結果は示している。 背景にあるのが「アベノミクス」だ。2012年12月に安倍晋三首相が就任して以降、積極的な金融緩和などで景況感が好転。5月以降、為替や株価が乱高下するなど不安要因が出てきたが、国内企業のIT投資意欲は回復しつつある。この傾向が、IT業界での人手不足という形で顕在化しているわけだ。
2013年09月16日 「教育に興味がある」と言い出して大学のセンセイになる人はアガってる論には同意するけど、不特定多数のOPENな「学習」をサポートするのはカッコいいと思うよ! ちきりんさんの言う、「教育に関心がある、と言い出したら、その人はアガってる」論というか、問題提起で色々と考えたので、軽くまとめてみよう。 (承前)つまり、自分の先行きの成長カーブに限界が見え始めると、「教育に関心がある」とか、「後進に自分の学んだことを伝えたい」とかいう気持ちになるんです。(続く)— ちきりん (@InsideCHIKIRIN) September 16, 2013 (承前) つまり「教育に関心がある」とか言い出したら、その人自身の成長は終わりってことです。本人が自覚したからこそ、そういう発想になる。(続く)— ちきりん (@InsideCHIKIRIN) September 16, 2013 こ
渡辺です。さる方面からテスト系のエントリーがまだか…と催促されたので、ユニットテストについて少し考えてみたいと思います。 最近、TwitterのTLをチェックしていると、JUnitを利用しているにも関わらず違和感のあるTweetや、原因をJUnitにして本来解決すべき問題から目をそらしているようなTweetを多く見かけます。そこで、JUnitをによるユニットテストに関するありがちな勘違いをまとめてみました。 なお、JUnitの部分は、RSpecでもNUnitでも適当に置き換えて読んでも構いません。 1.JUnitを使うことが目的という勘違い JUnitを利用すること自体を目的にしたところで何も得る事はありません。 ありがちな話ですが、「納品物としてJUnitのテストコード(または実行結果)を求められている」ことが理由でJUnitを利用しているならば、それは足かせでしかない可能性があります。
このウェブサイトは販売用です! samulife.com は、あなたがお探しの情報の全ての最新かつ最適なソースです。一般トピックからここから検索できる内容は、samulife.comが全てとなります。あなたがお探しの内容が見つかることを願っています!
Dumb Little Man: 多くの仕事を抱えていると、どこから手をつけていいかわからず、いっぱいいっぱいになってしまうことがあります。しかし、少しの工夫で効率的に仕事をすることは可能です。今回は、誰でも簡単に生産性を上げられる6つの方法を紹介します。 1.1日の最後に翌日のToDoリストをつくる 1日を振り返ったときに、やろうと思っていたことができなかったときのがっくり感ほどイヤなものはありません。それを避けるには、その日の最後に翌日のToDoリストをつくるのがオススメです。その日やったことを振り返り、次にやるべきことの優先順位を考えられます。翌朝、そのリストを見れば、すぐ仕事に取りかかれ、効率的な仕事の流れを築くことができるのです。 2.Eメールのチェックを1日2回に制限する そんなことは不可能だと思いますか? たしかに、私たちはかなりの時間をメールチェックに使っています。でも、そ
インストール アプリ「DeskConnect」は、単体では意味を成さないアプリです。データを受け渡したいデバイスにそれぞれインストール必要がありますので、まずは以下のリンクからダウンロードしてください。 ▼iPhone版 また、当アプリの利用にはアカウントの作成が必要になります。アプリを起動すると「Sign Up」のボタンがありますので、メールアドレスとパスワードを設定しましょう。前準備はこれで完了です。 iPhoneからMacにデータを送る場合 ではまず、iPhoneからMacにデータを送るケースをご紹介します。 iPhoneからMacに受け渡せるデータは4つ。『写真』『クリップボード(コピーした内容)』『ウェブサイト』『ドキュメント』の4つです。 ▼『写真』はカメラロールから選択します。 ▼『クリップボード』をタップすれば、直前にコピーした内容をMacに送信できます。 ▼『ウェブサイト
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く