タグ

2014年2月27日のブックマーク (23件)

  • 東大医科研、iPS細胞技術を利用して老化したT細胞の若返りに成功

    東京大学 医科学研究所(東大医科研)は、iPS細胞(人工多能性幹細胞)を介して免疫細胞の1種であるT細胞を若返らせることに成功したと発表した。 成果は、東大医科研の西村聡修 研究員、同・金子新 助教、同・中内啓光 教授、同・岩愛吉 教授らの共同研究グループによるもの。研究の詳細な内容は、米国科学雑誌「Cell Stem Cell」1月4日号に掲載された。 ヒトの体は、さまざまなウイルスや菌、寄生虫などの外敵およびがんなどから身を守る「免疫」というシステムを持っている。免疫は非常に多種多様な細胞により構成されており、その中に「T細胞」と呼ばれている一群の細胞があることをご存じの方も多いことだろう。 T細胞はさらに細かく分類すると、ウイルス感染細胞やがん細胞に直接攻撃を仕掛け破壊する役割を担う「細胞傷害性T細胞(キラーT細胞、CTLなどとも呼ばれる)」と、細胞傷害性T細胞をはじめとした免疫担

    東大医科研、iPS細胞技術を利用して老化したT細胞の若返りに成功
  • god - Overview

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    god - Overview
    Hash
    Hash 2014/02/27
    なんだこれわろた
  • grepで複数項目除外 - 技術メモ帳

    テキストファイルから、複数の項目を除外させたいとき、 普通は、以下のように二つのgrepを使用して行うはず。。 cat text.txt | grep -v 'user' | grep -v 'root' 一つのgrepで行う事が出来る。 cat text.txt | grep -v -e 'user' -e 'root' 単純に、正規表現でやった方がよさそう。。 cat text.txt | egrep -v 'user|root'

    Hash
    Hash 2014/02/27
    なるほど. grep -v をパイプで繋いでたけどegrepでやればすっきりだ
  • 1台構成のHadoopを30分で試してみる(Ubuntu + Cloudera)

    (参考) Cloudera社のHadoopパッケージの情報 http://archive.cloudera.com/docs/ 必要なもの ・UbuntuやdebianのLinux環境1台(手元ではUbuntu Server 11.04/10.04/9.10/8.04, debian 5あたりで試していますが、他バージョンでも大丈夫だと思います) ・インターネット接続 ・Sun(Oracle)のJavaパッケージ(aptでインターネットからインストール) ・Cloudera社のCDH3のHadoopパッケージ(aptでインターネットからインストール) 作業手順 1. インストール: Linux環境にて、rootで作業します。 sudo su 1-1. Sun(Oracle)のJavaを入れます。(Sun(Oracle)のものが必要です。) ※ ここで、ubuntu 10や11の人は/etc

    1台構成のHadoopを30分で試してみる(Ubuntu + Cloudera)
    Hash
    Hash 2014/02/27
    "Cloudera社版のHadoopディストリビューションパッケージCDH3" 概念の対応がいまだにわからん
  • いまさら聞けないHadoopとテキストマイニング入門

    ビッグデータ時代の救世主「Hadoop」とは 「Apache Hadoop」は今、最も注目を集めている技術の1つです。Hadoopとは、大量のデータを手軽に複数のマシンに分散して処理できるオープンソースのプラットフォームです。 Hadoopを活用している企業は年々増え続けていて、不可欠な技術になりつつあるといえるでしょう。 連載では、Hadoopとは何か、Hadoopがどう活用できるのかということを、「テキストマイニング」に焦点を当てて解説していきたいと思います。 重い処理を複数のマシンに分散させる 複数のマシンに処理を分散させるには、プロセス同士の通信、監視、障害時の対応などを考えなければならず、プログラマにとってハードルが高いものです。しかし、Hadoopはそういった面倒くさい処理を一手に引き受けてくれ、プログラマは、やりたい処理だけに集中できます。 例えば、Hadoopを使うと、1

    いまさら聞けないHadoopとテキストマイニング入門
    Hash
    Hash 2014/02/27
  • Librato Has Leveled Up. Introducing SolarWinds® AppOptics™

    Librato Has Leveled Up. Introducing SolarWinds® AppOptics™. AppOptics combines all the great features of Librato with new, additional functionality including host maps, distributed transaction tracing, 150+ cloud-ready integrations, and affordable pricing. Start AppOptics Free Trial Custom Metrics A fully customizable metrics platform. Quickly collect custom infrastructure, application, and busine

    Librato Has Leveled Up. Introducing SolarWinds® AppOptics™
    Hash
    Hash 2014/02/27
    TDが利用中とのこと
  • Hadoopによる大規模分散データ処理

    産業技術大学院大学 InfoTalk 第16回 2010年3月19日 http://pk.aiit.ac.jp/index.php?InfoTalk

    Hadoopによる大規模分散データ処理
  • nginxのログをfluentdからHDFSに送る – OpenGroove

    前回のDynamoDBに引き続き、今回はfluentd経由でnginxのログをHDFSに書き込む、というのをやってみた。そのまま置き換えるだけというのもつまらないので、同じログをローカルファイル、DynamoDB、HDFSの複数箇所に書き込む設定にしてみる。紆余曲折あったが、どうにか三連休が終わる前に期待値通りになってくれた(それって…)。 実行環境は以下2つのAWSマシンと、Amazon DynamoDB。テーブルは前回で作成済み。 マシン間はすべてのポートで通信できている前提。 ログ送信元マシン:nginxが起動 ログ出力先マシン:Hadoop疑似分散環境 real worldでは複数のマシンからログを集約してそのログ集約サーバからHDFSやDBにログを送り込むことになるんだろうけど、所詮ひとりケチケチR&Dなのでそこまでやりません。 追加でやったこと。 ログ送信元マシンでwebhdf

  • Librato Metrics introduction - Go ahead!

    Librato Metricsをうちではモニタリングに使ってるんですが,日で全くと言って良いほど記事を見ないので,紹介記事を書いてみる. 何が出来る? おおまかに分けて以下のようなことが出来る. メトリックスを作れる メトリックスに対してアラートを設定出来る ダッシュボードでメトリックスの一覧が見れる JavaScript SDKを使って自分のサイトに埋め込むことが出来る APIが提供されていて,いくつかの言語のクライアントがある 以下それぞれ簡単な説明. メトリックス LibratoにはMetricというのがあり,これが最小の単位.Metricに監視したいメトリックスの値を入れていき,他のMetricと混ぜたりすることでモニタリングを行います. 上の例のように,一つのMetricに複数の軸の値を入れることが出来ます.これはソースと呼ばれていて,保存する時にsourceを指定すれば良いで

  • Hadoopの基本機能とエコシステム PART 2 | IT Leaders

    2012/03/06 08:00 構成や動作の原理は意外とシンプル 難解さを解きほぐし、全体像を把握する Hadoopは構成や動作原理はシンプルなうえ、数多くの技術情報も公開されている。 国内でも一部のネット系サービス事業者が格活用によって成果を上げ始めている。 Hadoopはどのように動作するのか、企業利用時にどういった周辺技術が有用なのか。 基機能とそれを支える技術のエコシステムからHadoopの全体像を概説する。栗原 雅 (編集部) 監修:野 賢 一朗 氏 NTTデータ 基盤システム事業部 システム基盤サービスビジネスユニット OSSプロフェッショナルサービス シニアエキスパート 米国では多種多様なデータをまとめて蓄え、大容量のデータを対象に抽出や集計の処理を実行する仕組みとしてごく身近な存在になりつつあるHadoopだが、国内ではまだそこまで浸透していない。Hadoopそのも

    Hash
    Hash 2014/02/27
  • Treasure Dataのサービスはクラウド上でどう構築されているのか(後編)~July Tech Festa 2013

    Treasure Dataのサービスはクラウド上でどう構築されているのか(後編)~July Tech Festa 2013 Treasure Dataといえば、日人がシリコンバレーで創業したベンチャーとして知られている企業。そのシニアソフトウェアエンジニア中川真宏氏が、7月14日に行われたJuly Tech Festa 2013の基調講演で、同社がクラウド上で構築したサービスについてそのアーキテクチャを中心に解説を行っています。 この記事は「Treasure Dataのサービスはクラウド上でどう構築されているのか(前編)~Japan Tech Festa 2013」の続きです。 データを解析する「Plazma」の仕組み データを解析するところでは「Plazma」と呼ぶ、Hadoopのエコシステムとカラムストアなどを組み合わせたものを用いています。

    Treasure Dataのサービスはクラウド上でどう構築されているのか(後編)~July Tech Festa 2013
  • MongoDBの集計機能が便利過ぎて泣けてくるお話し - Y's note

    MongoDBイン・アクション 作者: Kyle Banker,Sky株式会社玉川竜司出版社/メーカー: オライリージャパン発売日: 2012/12/14メディア: 大型購入: 5人 クリック: 55回この商品を含むブログ (4件) を見る MongoDB集計機能 CentOSでNginxのログをFluentdを使ってMongodbにリアルタイムで格納する - Yuta.Kikuchiの日記 時給3000円のCEOと揶揄されている@yutakikucです。今日は簡単にMongodbのログ集計機能を紹介します。機能が豊富過ぎて泣けてくるんで、ログ解析する人は是非使ってみて下さい。FluentdでMongodbNginxLogを流し込む設定は上のエントリーを参照して下さい。次回はAggregationFramework/MapReduce周りについて触れたいと思います。 泣ける話 : 集

    MongoDBの集計機能が便利過ぎて泣けてくるお話し - Y's note
    Hash
    Hash 2014/02/27
  • パフォーマンス比較 Cassandra、Mongodb、SQLite、H2、MySQL、Postgres - cypher256's blog

    下記のようなシステムでパフォーマンスが良さげな SQLite を使用予定ですが、もっと速いものが無いか確認のため他のデータベースのパフォーマンスを計測してみました。SQL 利用前提ですが、NoSQL が圧倒的な性能を出す場合は検討する必要があるので KVS も確認しました。 データ件数は 1 億件程度、JDBC SQL 利用可能 INSERT、UPDATE はバッチ SELECT は主キーアクセス性能を重視 将来スケールアウトのための分散はありえるが、スタンドアロンで遅いのはだめ データベースのパフォーマンス比較 計測したデータベース データベース名 タイプ 形態 評判 計測についての備考 SQLite RDB 組み込み ※2 おもちゃ、Android標準 JDBC操作 ※1 H2 RDB 組み込み ※2 組み込み最速 JDBC操作 ※1 Derby RDB 組み込み ※2 Java標準で

    パフォーマンス比較 Cassandra、Mongodb、SQLite、H2、MySQL、Postgres - cypher256's blog
  • atom - A hackable text editor for the 21st Century

    AI & MLLearn about artificial intelligence and machine learning across the GitHub ecosystem and the wider industry. Generative AILearn how to build with generative AI. GitHub CopilotChange how you work with GitHub Copilot. LLMsEverything developers need to know about LLMs. Machine learningMachine learning tips, tricks, and best practices. How AI code generation worksExplore the capabilities and be

    atom - A hackable text editor for the 21st Century
    Hash
    Hash 2014/02/27
    GitHub謹製新エディタ. SublimeText感. せっかくEmacsに慣れたのであまり移る気はないけど気になる
  • Happy Elements Labs: fluentdとMongoDBでユーザー行動を見える化

    はじめに エンジニアの@ryooo321です。 よろしくお願いします。 今回は弊社で運用中の全アプリで利用している行動分析プラットフォームについてご紹介したいと思います。 2012年の6月に作ってから、約9ヶ月ほど運用しています。 特徴 ・手がかからないデータストア ・さまざまな問い合わせ対応で利用できる柔軟なクエリ ・機敏なMap/Reduceによる集計 ・集計結果をCSVやグラフで可視化 目的 ・ユーザーの問い合わせに効率的に対応し、アプリの企画・開発に集中するため ・ユーザーの行動を抽象化・可視化することでPDCAの質を向上させるため 行動ログのフロー 1. ユーザーからRuby on Rails製のソーシャルゲームにリクエスト 2. Railsからローカルのfluentdにログ出力(fluent-logger-ruby) 3. ローカルのfluentd

    Happy Elements Labs: fluentdとMongoDBでユーザー行動を見える化
  • https://jp.techcrunch.com/2014/02/27/online-accounting-service-zaim-to-launch-bank-account-aggregation-service/

    https://jp.techcrunch.com/2014/02/27/online-accounting-service-zaim-to-launch-bank-account-aggregation-service/
    Hash
    Hash 2014/02/27
    はい
  • エラー: JREC-IN Portal

    指定された求人公募情報は表示できません。 Copyright © Japan Science and Technology Agency. All Rights Reserved.

    Hash
    Hash 2014/02/27
    不均衡進化論のネオモルガン研究所で博士号取得者対象, 解析業務, 任期なし30名募集
  • @N Has Been Restored to Its Rightful Owner

    Many of you have been following with interest Naoki Hiroshima’s tale of how he was extorted into giving up his valuable @N username on Twitter. The good news is that Hiroshima is back in control of the account: Order has been restored. — Naoki Hiroshima (@N) February 25, 2014 It remains to be seen what exactly took place behind the scenes at PayPal and GoDaddy, and why it took so long for Twitter

    @N Has Been Restored to Its Rightful Owner
    Hash
    Hash 2014/02/27
    先月盗まれた N アカウントが無事戻ったらしい
  • エイリアンか?新種か?捏造か?ペルーで発見された「パラカスの頭蓋骨」に刻まれた未知の遺伝情報とは? - TOCANA

    かつて南米で発見されたが、その謎深さゆえに研究が進展してこなかった頭蓋骨がある。そして今月、この頭蓋骨のDNAを解析したところ、驚くべき結果が得られたと語る男が出現し、考古学ファンたちの話題を呼んでいるようだ。詳細について解説しよう。 ■頭蓋骨発見の経緯 1928年、ペルー南岸部ピスコ近郊の砂漠地帯、パラカス。考古学者フリオ・テーヨ(1880~1947年)は、この観光地にある巨大な墓地遺跡から、奇妙な頭蓋骨を数多く発見する。3000年ほど前の人間のものと思われたその頭蓋骨は、縦方向に長く引き伸ばされた形をしているのだった。 その後、実に300以上も出土したこの奇妙な頭蓋骨の調査は、謎が謎を呼ぶ展開を見せ、考古学者たちを困惑させることとなる。そもそも考古学者にとって、変形した頭蓋骨自体はそれほど珍しいものではない。頭部を縛り上げたり木片で挟むなどして変形させる風習は、「頭蓋変形」として古代か

    エイリアンか?新種か?捏造か?ペルーで発見された「パラカスの頭蓋骨」に刻まれた未知の遺伝情報とは? - TOCANA
    Hash
    Hash 2014/02/27
    現行人類どころか類縁種からも大きく異なったとのこと
  • DNAに人工塩基対を組み入れる | Chem-Station (ケムステ)

    地球上の生命体が遺伝物質としてDNAを使っていること、またその遺伝情報はアデニン(A)、チミン(T)、グアニン(G)、シトシン(C)という僅か4種類の塩基でコードされることは、よく知られた事実です。 このシンプルな遺伝暗号が生み出す20種類のアミノ酸配列(タンパク質)が多種多様な生物機能を担っているわけで、生命の神秘には感動を覚えるほかありません。 しかし現代の化学者は飽くなき野望から、その神秘すら制御しようと考えています。 DNA/RNAに人工塩基対を組み込むアプローチはその一つです。 核酸機能の人工的拡張を目指して 人工塩基対(ここではATCGとは全く骨格の異なるものを指します)の開発研究は、生化学者Alexander Richが1962年に提唱した以下の仮説に端を発しています。 「DNAの塩基の種類を増やすことができれば、DNAの情報や機能を拡張できるはずだ」 仮に第5と第6の人工塩

    Hash
    Hash 2014/02/27
    某研究室がこのへん十八番だった. DNAをただの高分子としてとらえると面白い(実用にはまだ先長い感あるけど
  • neovimで新しくなったところまとめ - 方向

    neovimは「vimを近代化させよう」というvimのforkです。 https://github.com/neovim/neovim http://news.mynavi.jp/news/2014/02/26/097/ なかなかかっこいいので、現状どのような改修が行われたのかcommitを追いかけてみました TL;DR 開発始まったばっかりなので総Commit数まだ少ない CMake使うようにした ゴミ掃除とサポートしたくない環境の切り捨てをした 実用段階になるには少なくとも半年以上はかかりそう 詳しく Import vim from changeset v5628:c9cad40b4181 ファーストコミット いらなそうなファイルとかマクロとか消したらしい Cmakeにビルドを移植したらしい fork元との差分はなし。あんまり丁寧じゃないね Fix build on OSX/Archl

    neovimで新しくなったところまとめ - 方向
    Hash
    Hash 2014/02/27
    新しく... なる準備をしている!
  • Datomic情報モデル

    Datomicは、情報システムであるデータベースと考えられています。情報は事実の集合であり、事実は起きたことです。人は過去を変えられません。つまり、データベースはその部分を更新するのではなく、事実を蓄積するものなのです。過去は忘れられる一方で、変えることはできません。そのため、誰かが住所を「変更」したら、Datomicは過去の事実を置き換えるのではなく、新しい住所を持つという事実を記憶します。(現時点のことが単に格納されています。) この不変性により、数多くの重要なアーキテクチャに関する利点と機会が生まれます。前回の記事では、Datomicアーキテクチャのことを書きました。この記事では、情報モデルとプログラミングの経験に注目します。 従来のデータベース(と数多くの新しいデータベース!)は、「今」、目の前にある事実、に注目しますが、そうすることで情報を失っています。ビジネスは歴史的情報の中に

    Datomic情報モデル
    Hash
    Hash 2014/02/27
    具体的だ
  • 運用が楽になる分散データベース Riak

    DeNAでは、メインのシステム基盤をオンプレミスからpublicクラウドへと全面移行する決定をしました。創業時より数々のサービスをオンプレミスで提供し、高品質・低コストの大規模なインフラをつくりあげてきたDeNAですが、なぜ今回クラウドへの舵を切ったのか。 セッションでは、その背景には何があったのか、どのように低コストを維持する目処を立て、移行の決断をしたのかをお話します。オートスケールやスポットインスタンスの利用の工夫など、オンプレミスからクラウドへのシフトを考えている方だけでなく、現在クラウドを利用されている方にもお楽しみいただけるように話します。

    運用が楽になる分散データベース Riak