Apache Kafka Meetup Japan #1 http://connpass.com/event/32293/ LT発表資料
2016/10/15 AbemaTV Developer Conference 2016
動画はデータ容量が大きい 画像と違い、動画コンテンツはデータ容量がとても大きいため、データをダウンロードして再生するまでに待ち時間が発生します。 動画のデータ容量が大きい理由はとても単純で、動画は画像データが集合したものだからです。静止画像を人間の目が滑らかに感じられる速さで切り替えて表示することで絵を動かすという表現を実現しています(よくパラパラマンガに例えられますが、そんな感じです)。この人間の目が滑らかに感じる速さというのが 1 秒間に 30 枚だったり 24 枚を切り替えることになります。29.97 (≒30) fps とか 24 fps とかの数字を耳にしたことがあるかと思いますが、24 fps の場合は 1 秒間(s)の間(p)に 24 フレーム(f)を切り替えることを意味します。 データを全て自分の端末にダウンロードしてから再生しようとすると、かなり長い待ち時間が発生してしま
良い感じのgem sinatra-cometioを作ったのでこっちを使うと良いと思います — チャットを作ってみた。 http://shokai-comet-chat.herokuapp.com/ Chrome/Safari/Firefox/Android/iPod touchで動いた。 sinatra-contribにsinatra/streamingというのがあった。eventmachineを使っているサーバー(thinなど)で動くらしい。herokuでも動いた。 Sinatra::Streaming (part of Sinatra::Contrib) 本気で使うには厳しいしnode.jsを使えばいいと思うけど、Rubyでちょっとしたツールを作るのには便利そう。 一応同時に1000接続までは耐えた。ただ、Cometだとクライアント側とサーバー側両方で1分ぐらいでタイムアウトさせて接続
前回の続き。実際に軽く試してみたときのメモ。タイトルにもあるようにRuby側はSinatra。 (Chromeの)EventSourceがCORSに対応してないのでsame origin policyに引っかかってしまう問題 意外だった。XHRが対応してるくらいだし仕様にもあるしEventSourceの実装自体結構前からあるのでAllow-Control-Allow-Originで問題ないと思ってたけど実際にはChromeでSECURITY_ERR: DOM Exception 18が出る。SharedWorker内から接続しにいってたので発見が遅れてちょっとハマった。 幸いにもXHRを使ってpolyfillしてくれるやつがあったのでそれを使うことにしたけど、しかしそれならLast-Event-IDを使う予定もないし生のXHRでもいいのではという疑問が湧いてくる。websocketについて
TL;DR Rails 4.0 will allow you to stream arbitrary data at arbitrary intervals with Live Streaming. HAPPY MONDAY EVERYONE! Besides enabling multi-threading by default, one of the things I really wanted for Rails 4.0 is the ability to stream data to the client. I want the ability to treat the response object as an I/O object, and have the data I write immediately available to the client. Essentiall
Action Controller Streaming Allows views to be streamed back to the client as they are rendered. By default, Rails renders views by first rendering the template and then the layout. The response is sent to the client after the whole template is rendered, all queries are made, and the layout is processed. Streaming inverts the rendering flow by rendering the layout first and subsequently each part
注:rack 1.3.3以前だと落ちます。rack 1.3.4以上にアップデートしましょう。 Sinatra 1.3でstreamヘルパーが追加された。 require "rubygems" require "sinatra" get '/' do stream do |out| out << "It's gonna be legen -\n" sleep 0.5 out << " (wait for it) \n" sleep 1 out << "- dary!\n" end end get '/normal' do sleep 1.2 "normally response" end 全部の処理が終わるまで待って一気にレスポンスを返すのではなく、out << "string"のように逐次レスポンスを返す。なお、これの実装はRails 3.1で追加されたものやPHPのデフォルトの挙動、Tw
Rails 3.1 is going to support HTTP streaming, aka chunked responses, this post explains what’s all about. What Is HTTP Streaming? Ordinary dynamic HTTP responses need a Content-Length header. Their timeline look like this: Those are three serial steps because normally you need to generate the content in order to be able to know its size, and thus fill the Content-Length header of the response. HTT
Hadoop Streaming is a utility which allows users to create and run jobs with any executables (e.g. shell utilities) as the mapper and/or the reducer. Usage: $HADOOP_HOME/bin/hadoop jar $HADOOP_HOME/mapred/contrib/streaming/hadoop-streaming.jar [options] Options: -input <path> DFS input file(s) for the Map step -output <path> DFS output directory for the Reduce step -mapper <cmd|JavaClassName> The
Hadoop streaming is a utility that comes with the Hadoop distribution. The utility allows you to create and run Map/Reduce jobs with any executable or script as the mapper and/or the reducer. For example: $HADOOP_HOME/bin/hadoop jar $HADOOP_HOME/hadoop-streaming.jar \ -input myInputDirs \ -output myOutputDir \ -mapper /bin/cat \ -reducer /bin/wc In the above example, both the mapper and the reduce
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く